Специалист отдела качества поиска Google по работе с вебмастерами Джон Мюллер (John Mueller) в сообщении Google+ спросил, как веб-мастерам и специалистам поисковой оптимизации удается найти проблемы, связанные с дублированием контента:
«Мне любопытно: есть много предложений о том, что делать дальше, но как вы замечаете, что сайт имеет «проблему с дублированным контентом»?
(Я не говорю о том, имеет ли это решающее значение и т.д. - я просто хотел больше узнать о том, как люди находят/распознают эти проблемы.)»
Редактор Search Engine Land Барри Шварц (Barry Schwartz) считает, что специалисты Google планируют добавить новые функции в Google Search Console, чтобы помочь вебмастерам проактивно выявлять и решать проблемы, связанные с дублированием контента.
Как известно, Google не накладывает санкции за дублирование. Но вебмастера и специалисты поисковой оптимизации должны стремиться к его отсутствию, потому что такой контент может занять более низкие позиции в поисковой выдаче Google.
В конце 2013 года глава команды Google по борьбе с веб-спамом Мэтт Катс (Matt Cutts) заявил о том, что на хорошие позиции поисковой выдачи будет попадать только одна страница, содержащая повторяющийся контент, и, в идеале, это должен быть первоисточник. В противном случае, наличие на SERP большого количества страниц с одной и той же информацией приведёт к засорению выдачи. Остальные страницы будут довольствоваться низшими позициями.
Ранее в том же году Мэтт Катс рассказал о дублированном контенте на сайтах интернет-магазинов - специфике продающих сайтов, содержащих на своих страницах однотипную информацию о сотнях и тысячах категорий товаров.