Вебмастера: выявить причину снижения позиций сайта алгоритмами Google становится все сложнее

Сегодня вебмастера на Западе все чаще говорят о том, что выявить причину снижения позиций сайта алгоритмами Google становится всё сложнее. В целом, существует две основные причины, по которым сайт может потерять свои позиции в выдаче Google. Первая — техническая ошибка, допущенная вебмастером при работе с сайтом. К примеру, случайное закрытие страниц от индексации алгоритмами Google. Вторая заключается в том, что Google, применяя ручные санкции или обновляя алгоритмы поисковых фильтров, начинает хуже ранжировать сайт или полностью устраняет его из выдачи.

Давний участник форума WebmasterWorld считает, что ответ на каждый подобный вопрос индивидуален, и потому для решения спорных моментов, анализа и исправления ситуации стоит обращаться в SEO-компании, поскольку следить за апдейтами алгоритмов Google самостоятельно становится всё труднее.

По мнению главного редактора Search Engine Roundtable, Барри Шварца (Barry Schwartz), закономерность между обновлением поисковых алгоритмов и ухудшением позиций сайта в выдаче вполне может иметь место. Однако Google вносит в фильтры, в среднем, по 2 обновления в день. Кроме того, чтобы выявить истинную причину понижения позиции сайта в результатах необходимо проводить регулярный мониторинг апдейтов и отслеживать позиции конкурентов, работающих в сходной тематике. Делать такую работу ежедневно – непосильный труд для вебмастера, работающего в одиночку.

На форуме WebmasterWorld специалисты отрасли обсуждают, как понять, был ли сайт атакован алгоритмом, и каким именно. Проследить за темой можно по ссылке.

Редактор-переводчик портала Searchengines.ru, работает на сайте с 2010 года. Специализируется на западном интернет-маркетинге, новостях социальных сетей и поисковых систем. Постоянно принимает участие в профильных семинарах и конференциях в качестве журналиста-обозревателя. Языки: английский, французский.