Google запатентовал алгоритм выявления спам-контента

На этой неделе Google получил патент, охраняющий алгоритм оценки качества контента. Следует отметить, что именно этот алгоритм используется лидером поиска для выявления страниц с низкокачественным и искусственно сгенерированным контентом и применения к ним соответствующих санкций.

В патенте дается определение спам-контенту, к которому может быть отнесено: автоматически сгенерированное содержание страниц; «накачка» текстов ключевыми словами; покупка статей на биржах контента; некачественные переводы с иностранного языка и т.п. Также некачественный или «мусорный» контент может отличать неграмотный синтаксис, нехарактерный для определенного языка порядок слов и т.п.

Кроме того, представители поиска особо отмечают, что зачастую создатели веб-страниц, содержащих спам-контент, преследуют цель получить прибыль за счёт нецелевого трафика, вот почему на подобных страницах зачастую можно встретить: огромное количество рекламных материалов; платные ссылки. Нередко такие страницы или ресурсы участвуют в аффилиат-программах.

В патенте перечисляется целый ряд прочих параметров, критериев и расчётов, использующихся Google для определения качества контента, размещённого на странице.

Кроме того, этой весной Google запатентовал свой новый метод выявления ссылочного спама и борьбы с ним. Иными словами, гигинат поиска документально защитил собственный механизм расчета соответствия текста ссылки содержанию страницы, на которую ведёт эта ссылка — т.е. методику подсчёта присвоения алгоритмом «веса» ссылке.

По заявлению представителей Google, все эти патенты были разработаны исключительно с целью обеспечить высокое качество и релевантность поисковой выдачи для пользователей. Однако специалисты отрасли считают, что подобным образом интернет-гигант может насаждать собственную монополию в среде конкурентов или же, попросту, занимается пиаром самого себя.

«Я не понимаю, зачем Гугл публикует патенты типа этого — про расчет спам ранка для текстов. В патенте в самых общих чертах описывается стандартный алгоритм для таких задач — построили языковую модель по хорошим текстам, по плохим, посчитали ранк.. И что теперь, другие поисковики не могут встраивать в свои алгоритмы подобные штуки? А если встроят, то что? Гугл сравнит выдачу, все поймет и подаст в суд? Или это все пиар, и ничем не может грозить другим поисковикам?» — комментирует  на своей странице в Facebook’е Станислав Ставский, руководитель веб-аналитики холдинга Eruditor Group.

Детали обсуждения «патентной политики Google» российскими специалистами отрасли можно найти там же.

Редактор-переводчик портала Searchengines.ru, работает на сайте с 2010 года. Специализируется на западном интернет-маркетинге, новостях социальных сетей и поисковых систем. Постоянно принимает участие в профильных семинарах и конференциях в качестве журналиста-обозревателя. Языки: английский, французский.