Как Google определяет страницы низкого качества

Какие факторы Google принимает во внимание, оценивая качество страниц, и как определить страницы низкого и высокого качества самостоятельно? Эти вопросы стали темой очередного выпуска Whiteboard Friday от Moz.

Автор – Рэнд Фишкин, основатель Moz, признанный эксперт в области поискового маркетинга и SEO, постоянный участник тематических конференций.

В этом выпуске мы поговорим о том, как понять, расценивает ли Google страницу как низкокачественную, и какие шаги по оптимизации стоит предпринять, если это действительно так.

Ранее мы описывали эксперименты по удалению страниц низкого качества, которые проводила глава SEO-отдела Moz Бритни Мюллер. Затем Рой Хинкис из Similar Web описал похожий эксперимент: они удалили низкокачественные страницы со своего сайта и зафиксировали рост позиций в поисковой выдаче Google. Эту тактику опробовало большое количество специалистов. Трудность в том, чтобы определить, какие именно страницы считать низкокачественными.

Что представляет собой «качество» с точки зрения Google?

Итак, у Google есть некие идеи о том, что представляет собой высокое качество и низкое. Некоторые из них очевидны, и с ними знакомы практически все. При этом другие более интригующие. Рассмотрим подробнее.

  • Google хочет видеть уникальный контент.
  • Поисковик хочет убедиться, что контент имеет уникальную ценность для пользователей. Что это не просто разные слова и фразы на странице, а ценность, которая действительно отличается от ценности, предоставляемой другими страницами.
  • Google хочет видеть большое количество естественных ссылок на страницу. Их наличие сообщает поисковой системе о том, что страница, скорее всего качественная, поскольку на неё ссылаются многие ресурсы.
  • Google хочет видеть страницы высокого качества, ссылающиеся на страницу, а не только сайты и домены. Это могут быть как внешние, так и внутренние ссылки. Соответственно, если на странице высокого качества стоит ссылка на другую страницу на сайте, то Google часто интерпретирует последнюю как качественную.
  • Страница успешно отвечает на запрос пользователя.

Это как раз неочевидный фактор. Например, пользователь хочет выполнить поиск по запросу [pressure washing] (мойка под давлением). Он пишет [pressure wash], и Google сразу предлагает ему определённую страницу. Пользователь переходит по ссылке и остаётся на странице, а затем возвращается в Google и вводит совершенно другой запрос, посещает другой сайт, а затем открывает электронную почту. Всё это говорит Google, что страница ответила на запрос пользователя.

Если же пользователь перешёл на страницу, увидел, что она низкого качества, вернулся в результаты поиска и выбрал другой результат, то Google делает вывод, что страница не смогла ответить на запрос пользователя. Если это происходит часто, то Google называет эту активность «pogo-sticking». Этот термин подразумевает, что пользователь посещает одну страницу, она не отвечает на его запрос, затем он посещает другую страницу и получает то, что ему нужно. При этом высока вероятность, что тот результат, который не удовлетворил пользователя, будет понижен в выдаче, поскольку он воспринимается Google как низкокачественный.

  • Страница должна загружаться быстро при любом интернет-соединении.
  • Google хочет видеть интуитивный и удобный дизайн на любом устройстве – на смартфоне, десктопе, планшете и ноутбуке.
  • Google хочет видеть контент без ошибок. Этот пункт может вызвать удивление, но мы провели ряд тестов и выяснили, что наличие орфографических и грамматических ошибок может привести к удалению расширенных сниппетов страниц из Google. Из этого следует, что Google анализирует эти моменты.
  • Нетекстовый контент должен иметь текстовую альтернативу. Вот почему Google поощряет использование атрибута alt и приветствует наличие транскрипции к видео.
  • Google хочет видеть хорошо организованный контент, который легко потреблять и понимать. Этот аспект оценивается с помощью ряда разных вещей. При этом системы машинного обучения Google определённо способны проводить такую оценку.
  • Google нравится контент, который указывает на дополнительные источники для получения большего количества информации или дальнейшего выполнения задачи.

Этот список не является исчерпывающим. Но это некоторые из тех вещей, оценивая которые, Google делает вывод о качестве страниц и принимает решение об их повышении или понижении в выдаче.

Как SEO-специалисты могут определить страницы низкого качества на сайте?

Для этого вы можете использовать описанный ниже процесс. У нас нет информации о каждом из тех компонентов, которые может оценивать Google. Тем не менее, мы можем анализировать ряд аспектов, которые могут помочь определить страницы низкого качества и решить, что с ними делать дальше (удалить или улучшить).

В целом, не стоит ориентироваться на такие показатели, как:

  • Время на сайте, «сырое» время на сайте
  • «Сырой» показатель отказов
  • Органические переходы
  • Ассоциированные конверсии

Почему нет? Потому что это сигналы, которые могут вводить в заблуждение.

Длительное время пребывания на сайте может показывать, что пользователь очень вовлечён во взаимодействие с его контентом. Но этот показатель также может говорить о том, что пользователь фрустрирован и не может найти то, что ему нужно. Во втором случае человек может вернуться в результаты поиска и выбрать другой результат, который быстро ответит на его запрос. Возможно, на вашем сайте множество поп-апов, пользователи не могут сразу найти кнопку «Х», чтобы закрыть окно, и вынуждены прокручивать страницу вниз. Поэтому они недовольны результатом поиска.

Показатель отказов работает похожим образом. Высокий показатель отказов может быть положительным моментом, если вы быстро отвечаете на очень простой запрос или же следующий шаг предполагает переход в другое место, а на данном ресурсе этот шаг выполнить невозможно. В таком случае показатель отказов может достигать 80-90%, но страница отвечает на запрос пользователя. Таким образом, она делает то, чего хочет от неё Google. Соответственно, показатель отказов – это неинформативная метрика.

То же самое касается и переходов из органического поиска. Например, страница низкого качества может по той или иной причине получать заметное количество органического трафика (если она всё ещё ранжируется по какому-то запросу или ранжируется по long tail-запросам), однако её содержимое расстраивает пользователей. Этот вариант немного лучше в долгосрочной перспективе. Вернувшись к анализу этой страницы спустя несколько недель или месяцев вместо нескольких дней, вы сможете получить более реальное представление о её эффективности. Однако это не устраняет тот факт, что страница является низкокачественной.

Ассоциированные конверсии – ещё один отличный пример. Например, посетители страницы не конвертируются. Это можно рассматривать как возможность отказаться от сбора файлов cookies, запустить ремаркетинг или предложить пользователям подписаться на email-рассылку. То, что они не конвертируются сразу, не означает, что страница содержит низкокачественный контент.

С чего лучше начать анализ

Оценивая качество страниц, ориентируйтесь на сочетание метрик.

  1. Это может быть комбинация метрик вовлечённости:
  • Общее число переходов
  • Внешние и внутренние переходы

Посмотрите, сколько страниц просматривают пользователи в течение одного посещения. Если пользователь после перехода на страницу начинает перемещаться по другим страницам сайта – это хороший знак. Если же глубина просмотра очень низкая, это уже хуже. Тем не менее, не следует рассматривать этот показатель в отрыве от других метрик. Эти данные нужно анализировать в сочетании с такими показателями, как время на сайте, показатель отказов, общее число переходов и внешние переходы.

  1. Вы можете комбинировать несколько offsite-метрик. Например:
  • Внешние ссылки
  • Количество ссылающихся корневых доменов

Здесь можно смотреть на такие показатели, как авторитетность страницы и количество репостов в социальных сетях (Facebook, Twitter и LinkedIn). Если вы видите, что какая-то страница получает большое количество репостов, то это, скорее всего, качественная страница, даже если она не отвечает потребностям пользователей, совершающих поиск.

  1. Метрики поисковых систем. Вы можете анализировать такие показатели, как:
  • Индексация. Введя URL в строку поиска или адресную строку браузера, вы сможете увидеть, была ли страница проиндексирована.
  • Вы также можете проверить, какие страницы ранжируются по собственным заголовкам.
  • В Search Console можно проверить показатели кликабельности.
  • Наличие дублированного контента. Например, вы вводите в поисковую строку свой URL и видите несколько страниц со своего сайта. Или вы вводите заголовок страницы и видите несколько URL со своего сайта. Это значит, что есть проблема с уникальностью контента.
  1. Проведите ручную проверку ряда страниц
  • Страницы из подразделов и поддоменов. Подумайте, действительно ли они помогают пользователям, совершающим поиск? Насколько актуально их содержимое, не является ли оно устаревшим? Соответствует ли контент этих страниц стандартам организации?

Разделите все страницы на три группы

Используя комбинации этих метрик, вы сможете разделить все страницы на три группы. Для этого нужно экспортировать все URL в таблицу (это можно сделать с помощью таких инструментов, как Screaming Frog, Moz, DeepCrawl и т.д.). Затем нужно добавить метрики, по которым будет проводиться анализ. После этого вы сможете приступить к сортировке. Вы можете создать некий алгоритм, некую комбинацию метрик, которая, по вашему мнению, позволяет определить качество страниц. Полученный результат можно будет перепроверить вручную.

Распределите страницы по следующим трём группам:

  1. Высокое качество. Высококачественный контент, который вы намерены сохранить.
  2. Требует доработки. В эту категорию попадут те страницы, которые достаточно хороши, чтобы оставаться в поисковых системах. Они не вредят вашему бренду и явно не станут причиной санкций за низкокачественный контент. При этом они не соответствуют вашим ожиданиям или надеждам. Это значит, что вы можете повторно опубликовать этот контент или улучшить его.
  3. Низкое качество. Эти страницы не соответствуют стандартам, описанным выше, однако их не стоит сразу же удалять. Проведите несколько тестов. Отберите самые худшие страницы, удалите их из сайта, при этом сохранив копии, и посмотрите, поможет ли удаление нескольких сотен или тысяч таких страниц увеличить краулинговый бюджет, количество проиндексированных страниц и поисковый трафик.
Источник: Moz
preview 10 советов по поисковой оптимизации PDF-файлов

10 советов по поисковой оптимизации PDF-файлов

В статье предлагаются простые советы, которые помогут улучшить ранжирование PDF-файлов в Google и получить больше поискового трафика
preview Для чего вебмастеру нужна аналитика поисковых запросов

Для чего вебмастеру нужна аналитика поисковых запросов

Михаил Сливинский о том, как устроен современный поиск, какие бывают поисковые запросы и для чего их нужно анализировать вебмастерам
preview Смена структуры или дизайна сайта

Смена структуры или дизайна сайта

При обновлении сайта часто возникают вопросы, связанные с изменением его структуры и дизайна — например, при переезде на новую CMS...
preview О чем говорить со специалистом по SEO. Инструкция для клиентов

О чем говорить со специалистом по SEO. Инструкция для клиентов

Существуют такие аспекты оптимизации, о которых знают толковые сеошники, но не подозревают их клиенты...
preview JavaScript и SEO: сканирует ли Google JavaScript?

JavaScript и SEO: сканирует ли Google JavaScript?

По мере эволюции интернета растёт спрос на сайты, имеющие всё более интерактивную функциональность...
preview Как сделать dashboard для мониторинга контекстной рекламы с помощью Power BI

Как сделать dashboard для мониторинга контекстной рекламы с помощью Power BI

Статья об использовании Power BI для работы с показателями контекстной рекламы на примере выгрузки статистики из рекламной системы Яндекс.Директ и Google Analytics