Google: алгоритмы по выявлению дубликатов практически не менялись

551

Google не вносил значительных изменений в работу своих алгоритмов по выявлению дублированного контента. На протяжении многих лет они остаются относительно стабильными. Об этом заявил ведущий инженер по ранжированию Google Пол Хаар.

А на днях сотрудник отдела качества поиска Google Гэри Илш также рассказал, когда в выдаче может показываться более двух результатов с одного и того же сайта. Это происходит в том случае, если качество других результатов намного ниже.

Напомним, что Google не наказывает сайты за дублирование контента в разных форматах, а по словам Гэри Илша, вебмастерам вообще не стоит беспокоиться о дублировании контента на сайте.

В 2014 году Джон Мюллер рассказал, как поисковые алгоритмы индексируют и отображают в выдаче дублированные страницы одного и того же сайта.

Редактор-переводчик. Специализируется на западном интернет-маркетинге и SEO. Освещает события в этой области с 2014 года.

Прокомментировать

Оставьте первый комментарий!

Notify of
wpDiscuz