Мэтт Каттс: беспристрастных поисковых систем не существует!

В очередном обучающем видеоролике для вебмастеров руководитель команды Google по борьбе с веб-спамом Мэтт Каттс (Matt Cutts) ответил на следующий вопрос пользователя: «Как можно быть уверенным в объективности и качестве выдачи Google, если поисковая система, формируя SERP, опирается на заведомо субъективные сигналы (в том числе, использует услуги асессоров для оценки поисковой выдачи, которые просто не могут учесть всю разницу контекстов для каждого отдельно взятого поискового запроса)

В ходе своего ответа представитель Google, прежде всего, отметил, что асессоры оценивают качество поисковой выдачи в целом, так что они по определению не могут видеть результаты вне контекстов поисковых запросов.

Далее г-н Каттс перешел к весьма пространным рассуждениям: «В принципе, я соглашусь с этим утверждением. Более того, я уверен, что люди считающие, что поисковые системы должны быть абсолютно объективными, напрочь игнорируют факт того, что у каждой поисковой компании есть своя философия. В свою очередь, у каждого поисковика существует собственный набор поисковых алгоритмов – именно в них и закодирована философия ранжирования. И у разных поисковых систем она различна. Так, например, одни поисковики будут показывать в выдаче контент из Wikipedia, другие предпочтут иные ресурсы. И каждый будет прав по-своему. Беспристрастных поисковых систем не существует!» - начал он.

Продолжая свои рассуждения, Мэтт Каттс заявил: «Думаю, что положительным моментом является то, что все мы стараемся опираться на фидбэк, прислушиваясь к мнению пользователей. Например, в команде Google есть такой человек, как Амит Сингал (Amit Singhal), который занимается исследованием поискового контента дольше, чем существует поиск и, тем более, SEO. Амит Сингал получил степень доктора наук в области поиска информации, а многие из сотрудников команды Google за годы работы с поиском научились очень хорошо понимать и анализировать реакцию пользователей на те или иные изменения.

Возьмём, к примеру, алгоритм Panda: при его создании мы сосредоточили свои усилия на том, чтобы убрать из выдачи низкокачественный контент. Работа в данном направлении велась месяцами и сразу несколькими командами Google: командой по борьбе с поисковым спамом и командой по обеспечению качества поисковой выдачи. Более того, за несколько месяцев до начала этой работы мы приступили к обсуждению специфики алгоритма. Не менее пристально мы анализировали все замечания недовольных нововведением пользователей. Таким образом, я считаю, что Google всегда должен оставаться самим собой – организацией, занимающейся разработками и внедряющей инновации.

Это нормально, что исследователи ошибаются. Вот почему мы всегда прислушиваемся к тому, что говорят люди за пределами Google», - заключил Мэтт Каттс.

Google Маркер начал поддержку новых групп данных

Маркер, инструмент Google для вебмастеров (Data Highlighter), упрощающий передачу структурированных данных, обнаруженных на сайте, поисковому роботу, начал поддержку новых...

SEMRush начнет анализировать Яндекс?

О том, что такое развитие событий вполне возможно, на днях рассказал в интервью towawe.ru Олег Щеголев, СЕО SEMRush...

Ретаргетинг теперь доступен всем рекламодателям

Ретаргетинг вышел из режима открытого тестирования и теперь по умолчанию доступен всем рекламодателям в профессиональном интерфейсе С помощью ретаргетинга можно показывать в...

WebEffector будет платить за сообщения

WebEffector анонсировал новую программу поощрения - Авторский аккаунт. Он предназначен для тех, кто ведёт собственные блоги или участвует в дискуссиях на форумах

В Top-Inspector.ru теперь можно добавить комментарии

Сервис для отслеживания позиций TopInspector...

В глобальной сети появилась доменная зона Яндекса

Международная некоммерческая организация ICANN одобрила заявку компании Яндекс на получение домена верхнего уровня на латинице - .yandex - пишут «Известия»