Google запатентовал алгоритм выявления спам-контента

На этой неделе Google получил патент, охраняющий алгоритм оценки качества контента. Следует отметить, что именно этот алгоритм используется лидером поиска для выявления страниц с низкокачественным и искусственно сгенерированным контентом и применения к ним соответствующих санкций.

В патенте дается определение спам-контенту, к которому может быть отнесено: автоматически сгенерированное содержание страниц; «накачка» текстов ключевыми словами; покупка статей на биржах контента; некачественные переводы с иностранного языка и т.п. Также некачественный или «мусорный» контент может отличать неграмотный синтаксис, нехарактерный для определенного языка порядок слов и т.п.

Кроме того, представители поиска особо отмечают, что зачастую создатели веб-страниц, содержащих спам-контент, преследуют цель получить прибыль за счёт нецелевого трафика, вот почему на подобных страницах зачастую можно встретить: огромное количество рекламных материалов; платные ссылки. Нередко такие страницы или ресурсы участвуют в аффилиат-программах.

В патенте перечисляется целый ряд прочих параметров, критериев и расчётов, использующихся Google для определения качества контента, размещённого на странице.

Кроме того, этой весной Google запатентовал свой новый метод выявления ссылочного спама и борьбы с ним. Иными словами, гигинат поиска документально защитил собственный механизм расчета соответствия текста ссылки содержанию страницы, на которую ведёт эта ссылка - т.е. методику подсчёта присвоения алгоритмом «веса» ссылке.

По заявлению представителей Google, все эти патенты были разработаны исключительно с целью обеспечить высокое качество и релевантность поисковой выдачи для пользователей. Однако специалисты отрасли считают, что подобным образом интернет-гигант может насаждать собственную монополию в среде конкурентов или же, попросту, занимается пиаром самого себя.

«Я не понимаю, зачем Гугл публикует патенты типа этого - про расчет спам ранка для текстов. В патенте в самых общих чертах описывается стандартный алгоритм для таких задач - построили языковую модель по хорошим текстам, по плохим, посчитали ранк.. И что теперь, другие поисковики не могут встраивать в свои алгоритмы подобные штуки? А если встроят, то что? Гугл сравнит выдачу, все поймет и подаст в суд? Или это все пиар, и ничем не может грозить другим поисковикам?» - комментирует  на своей странице в Facebook’е Станислав Ставский, руководитель веб-аналитики холдинга Eruditor Group.

Детали обсуждения «патентной политики Google» российскими специалистами отрасли можно найти там же.

Ростелеком запустит Спутник

Ростелеком планирует запуск собственной поисковой системы Спутник, сообщает издание Ведомости

Яндекс исследовал запросы пользователей про загранпаспорт

Компания Яндекс опубликовала результаты проведенного исследования, посвященного пользовательским запросам про загранпаспорт...

В Диспетчер тегов Google добавили функцию автоматического отслеживания событий

Как сообщается в официальном блоге Google Analytics, начиная с 10 октября 2013, в Диспетчер тегов Google была добавлена функция автоматического отслеживания Событий (действий...

Мэтт Каттс: геозависимый контент не имеет ничего общего с маскировкой и поисковым спамом

В очередном обучающем видеоролике для владельцев сайтов, вебмастеров и оптимизаторов глава команды Google по борьбе с веб-спамом Мэтт Катс (Matt Cutts) ответил на вопрос...

Key Collector собирает статистику из рейтинга Mail.ru и сниппеты из выдачи Яндекса и Google

Вышла новая версия программы Key Collector, в которой появилась возможность съема глобальной статистики Mail.ru, а также сбора сниппетов из поисковой выдачи Яндекса и Google

Google запускает возможность поиска эпизодов ТВ-программ, шоу и сериалов

Как сообщается на +странице Google, интернет-гигант интегрировал в основной поиск возможность для пользователей находить больше информации, касающейся отдельных эпизодов...