Google не вносил значительных изменений в работу своих алгоритмов по выявлению дублированного контента. На протяжении многих лет они остаются относительно стабильными. Об этом заявил ведущий инженер по ранжированию Google Пол Хаар.
@ajkohn @methode .@ajkohn @methode Obviously, we make improvements to our code over time, including dup detection. But that's been mostly stable for years.
— Paul Haahr (@haahr) 30 марта 2017 г.
А на днях сотрудник отдела качества поиска Google Гэри Илш также рассказал, когда в выдаче может показываться более двух результатов с одного и того же сайта. Это происходит в том случае, если качество других результатов намного ниже.
DYK usually when you see more than 2 results from the same site in the SERP, that's because other results score much lower for the query? pic.twitter.com/Bz4DPaR8PC
— Gary Illyes ᕕ( ᐛ )ᕗ (@methode) 30 марта 2017 г.
Напомним, что Google не наказывает сайты за дублирование контента в разных форматах, а по словам Гэри Илша, вебмастерам вообще не стоит беспокоиться о дублировании контента на сайте.
В 2014 году Джон Мюллер рассказал, как поисковые алгоритмы индексируют и отображают в выдаче дублированные страницы одного и того же сайта.