Джон Мюллер о том, как Google индексирует дублированные страницы сайта

Аналитик поисковых трендов Google Джон Мюллер (John Muller) в очередной раз поделился с вебмастерами и владельцами сайтов подробностями о том, как поисковые алгоритмы индексируют и отображают в выдаче дублированные страницы одного и того же сайта.

1. В случае обнаружения дублированного контента алгоритмы Google будут выбирать URL только одной страницы для отображения этого контента в результатах поиска. Для того, чтобы система могла правильно определить страницу-источник, владельцам ресурсов следует использовать перенаправления на страницы источников, внутренние ссылки, а также атрибут rel=canonical. Так, например, атрибут канонической страницы чётко указывает поисковым роботам, на какой именно экземпляр из набора страниц с похожим содержанием ссылаются дубликаты.

2. В зависимости от общего количества дублированных фрагментов контента, которых на сайте может насчитываться от двух до двухсот, процесс сканирования может оказывать слишком большую нагрузку на сервер или занимать длительное время.

«Если же страниц с дублированным контентом на сайте не много, а сервер выдерживает нагрузку, то индексирование страниц в случае внесения изменений в содержимое не должно занимать длительное время. При этом пользователям зачастую безразлично, на какай конкретно URL их направляет поисковая система, главное, чтобы там была интересующая информация», — резюмирует Джон Мюллер.

Редактор-переводчик портала Searchengines.ru, работает на сайте с 2010 года. Специализируется на западном интернет-маркетинге, новостях социальных сетей и поисковых систем. Постоянно принимает участие в профильных семинарах и конференциях в качестве журналиста-обозревателя. Языки: английский, французский.