Google «заблокировал» отдельные страницы, закрытые в robots.txt

Издание Search Engine Roundtable сообщает о том, что на страницах групп в сервисе «Рекомендаций для веб-мастеров» появились жалобы отдельных пользователей на то, что в отчетах об индексации страниц Google (Index Status report) в «Инструментах для вебмастеров» они обнаружили уведомления о том, что алгоритм поисковика заблокировал URL отдельных страниц.

Поначалу данная информация вызвала легкое смятение у специалистов, однако в ходе проверки выяснилось, что в отчетах содержались данные о якобы блокировке отдельных веб-страниц, ранее закрытых в robots.txt. Хотя в последствии большинство из этих страниц было удалено вебмастерами, в отчетах об индексации страниц они по-прежнему значатся как «заблокированные алгоритмом».

Представитель Google Джон Мюллер (John Mueller) прокомментировал ситуацию следующим образом: «Поисковый робот анализирует данную манипуляцию, как будто подобные страницы в какой-то момент времени «выпали» из индекса. Впоследствии он проиндексировал их повторно. Из-за того и произошла накладка. В ближайшее время нельзя ожидать резкого уменьшения подобных уведомлений, однако это никак не влияет на ранжирование сайта в целом. Здесь нет никаких плохих предзнаменований – это техническая особенность работы алгоритма».

Редактор-переводчик портала Searchengines.ru, работает на сайте с 2010 года. Специализируется на западном интернет-маркетинге, новостях социальных сетей и поисковых систем. Постоянно принимает участие в профильных семинарах и конференциях в качестве журналиста-обозревателя. Языки: английский, французский.