Аналитика поведенческих факторов в Яндексе и Google

Автор: Станислав Поломарь, руководитель направления продвижения Webit

Поисковые системы традиционно мало упоминают о поведенческих факторах. Яндекс нам рассказывает, что за накрутку банит, а Google, что их вовсе не учитывает. Попробуем рассмотреть вопрос глубже.

Основные источники для получения данных по поведению:

  • поисковая выдача 
  • системы аналитики
  • браузеры
  • бары

Наиболее полную картину поиск получает по собственной выдаче, т.к. обладает там 100% информацией. Меньшую - из систем аналитики, браузеров и баров.

Одной из самых важных оценок, которые хочет получить поиск – насколько тот или иной документ решает задачу пользователя. Поясним на нескольких примерах.

Если мы говорим про метрики из поисковой выдачи, то поиск может интерпретировать тот факт, что документ был последним в сессии (т.н. «последний клик») или даже единственным, как доказательство решения этим документом задачи пользователя.

Если говорить про данные из систем аналитики, браузеров и баров, то для поиска важно оценить поведение на сайте после перехода по конкретному запросу. Понятно, что у поиска недостаточно данных для расчета метрики по каждому документу и запросу. Для лучшего ранжирования ему помогает агрегированная информация по документам и всему сайту, а также метрики, которые не связаны непосредственно с переходами из выдачи, например, наличие аудитории на документе.

Понятно, что у поиска недостаточно данных для расчета метрики по каждому документу и запросу. Для лучшего ранжирования ему помогает агрегированная информация по документам и всему сайту, а также метрики, которые не связаны непосредственно с переходами из выдачи, например, наличие аудитории на документе.

Для того, чтобы получить представление по возможным метрикам, которые используют поисковые системы, проще всего изучить их публикации на этот счет. Некоторые публикации совершенно точно стоит взять в рассмотрение, а также отталкиваясь от них, можно найти дополнительные данные и предположить несколько десятков метрик. Одним из немаловажных моментов является тот факт, что практически во всех поисковиках (особенно в Яндексе и Bing) метрики очень схожи.

Исходя только их этих публикаций можно предположить несколько десятков метрик.

Одним из немаловажных моментов из подборки выше является, что примерно во всех поисковиках (особенно Яндекс и Bing) метрики очень схожи.

Примеры метрик:

CTR – клики к показам по данному запросу и URLу.

Последний клик – пользователь совершил переход на результат поиска и не вернулся обратно.

Единственный клик – пользователь совершил переход на результат поиска всего 1 раз и не вернулся обратно.

Показы документа в выдаче – показы по любым запросам данного URLа.

CTR документа в выдаче – клики к показам по всем запросам данного URLа.

Время между кликами – для поиска может обозначить сколько пользователь провел на данном сайте.

Переход на вторую страницу поиска – для поиска может обозначать, что на 1-ой не был найден нужный ответ.

Уход в другую поисковую систему – актуально для Яндекса.

Время на документе – как правило среднее время, которое пользователи проводят на данном URL.

Количество длинных кликов – переходы, после которых пользователь вернулся в выдачу только спустя 60 секунд.

И прочие.

Целью исследования является отбор метрик, поддающихся измерению, и анализ силы их влияния на ранжирование.

Метрики про CTR

Считать CTR по продвигаемой семантике не так сложно – сервисы для вебмастеров Яндекса и Google предоставляют эту информацию. В обоих сервисах полнота меньше, чем действительность, т.е. отображаемое количество переходов меньше, чем по системам аналитики.

Яндекс позволяет уточнять регион показов и кликов, а также добавлять до 500 запросов в отслеживание.

Google дает еще больше настроек – география, тип устройства, тип поиска и проч, а также отдает информацию по 1000 запросам.

Для того чтобы понимать, хороший мы получаем CTR или нет, его необходимо с чем-то сравнивать, а точнее с «нормальным» CTR для данной позиции. Для этой цели можно построить среднее распределение по ТОП-10 выдачи. Стоит отметить, что это не совсем корректно, т.к. зависит от тематики, типов запросов, наличия колдунщиков и т.д.

Так как большинство клиентов по-прежнему ориентировано на Яндекс, то в первую очередь оптимизаторы нашей компании занимаются сниппетами под него, а не под Google. При проверке так и оказалось – более 2/3 запросов имеют CTR лучше среднего по Яндексу и хуже среднего по Google.

Для более эффективной работы со сниппетами, их безусловно удобно хранить и визуально отображать. На данный момент это позволяют делать ряд сервисов, например, Seopult и Топвизор.

Так как Яндекс и Google отдают данные только по ограниченному количеству запросов, то для крупных проектов, особенно интернет-магазинов, порталов, т.е. проектов с большими каталогами типовых страниц, удобно оценивать хостовый (доменный) CTR.

У Google это совсем просто - при анализе стоит ориентироваться на среднее в 3-4%.

У Яндекса нужно зайти в «Популярные запросы» и поделить клики на показы. При анализе стоит ориентироваться на 1%.

Таким образом, по работе с метриками по CTR стоит следовать следующим рекомендациям:

  1. Отслеживать CTR по важным запросам.
  2. Отслеживать сниппеты по важным запросам.
  3. Работать со сниппетами из п.2, где CTR ниже «нормы».
  4. Отслеживать CTR всего домена.
  5. Работать с шаблонной настройкой сниппетов, если показатели хуже 3-4% и 1% для Google и Яндекса соответственно.

Как, собственно, управлять сниппетами это отдельный вопрос, к сожалению, не в рамках данного обзора.

Метрики про время, глубина, отказы, наличие непоисковой аудитории

Измеряемые метрики:

  1. Время на документе
  2. Глубина сессий, которые начались с документа
  3. Отказы на документе
  4. Доля непоискового трафика, т.е. переходы по ссылкам, type in и пр. В данном анализе смотрелась доля в 10% от поискового трафика.

По первым трем метрикам будем сравниваться с конкурентами. Для этого сначала определимся, кого считать таковыми, по пересечению семантики. Далее соберем конкурентные данные по аналогичным метрикам (только по доменам) в сервисе Similarweb.

Так как данные в Similarweb – примерные, то стоит посмотреть их корреляцию с Google.Analytics.

Для анализа влияния на ранжирование применим следующие упрощения:

  1. Возьмем выборки URLов и запросов, которые хорошо или плохо ранжируются.
  2. Будем оперировать «метрика+» - когда значения метрики положительное, например, время лучше конкурентов или доля непоискового трафика больше 10%. Соответственно, для «метрика-» - наоборот.
  3. Посмотрим какая доля из этих выборок обладает «метрика+» и «метрика-» соответственно.
  4. Нас интересуют метрики, суммарная доля которых в обоих выборках сильно более 100%.

Также, для упрощения, данные по запросам будем брать с релевантных документов.

Посчитаем соответствующие метрики для обоих выборок и расположим друг под другом. Яндекс и Google, а также отдельно смотрим URLы и запросы.

Сразу стоит отметить, что метрики в Google ведут себя очень похоже с метриками в Яндексе.

Также интересный момент, что после введения Яндексом нового алгоритма, который подмешивает (и соответственно) опускает менее релевантные документы в верх выдачи – документы были опущены вне зависимости от показателей времени, т.е. доля «метрики+» «время лучше» - упала.

В целом, очень сильных метрик тут выявлено не было, стоит обратить внимание на:

  • «Время лучше» – время на документе лучше конкурентов
  • «Доля неПС выше» – на документе есть хотя бы 10% непоискового трафика
  • «Глубина лучше» – глубина на сессиях с документа лучше конкурентов

Таким образом, по метрикам связанным с данными по времени, глубина, отказам и составу аудитории рекомендуется:

  1. Отслеживать время, глубину по продвигаемым документам.
  2. Отслеживать наличие непоискового трафика на документы
  3. Выделять конкурентов и анализировать время, глубину и отказы по их сайтам. 
  4. Сравнивать себя с конкурентами по метрикам время и глубина. Т.к. метрики по длинным кликам, описанные далее, кажутся более универсальными, то основные рекомендации на этот счет ниже.
  5. В случае отсутствия непоискового трафика и дополнительной аудитории на нужных документах, наиболее применимыми являются работы по крауд-маркетингу и работы с социальными сетями, т.е. привлечением переходов по ссылкам на сайтах и из социальных сетей.

По крауд-маркетингу можно использовать как внутренние ресурсы компании, так и фрилансеров или команды, которые специализируются на подобных услугах.
По социальным сетям вполне эффективно использовать платные посты в различных биржах, например, через эту биржу. Стоит заметить, что тут важен креативный подход к публикуемому контенту.

Метрики про длинные клики

Длинные клики – это переходы из выдачи, после которых пользователь провел более определенного времени на сайте.

В качестве временных засечек были выбраны 60 секунд и 180 секунд. Напомним, что поиск может интерпретировать эту информацию, как факт того, что пользователь успешно решал или решил свою задачу на сайте, ну или он невозможно сложный.

Также имеет смысл смотреть не на абсолютные показатели, а на долю. В качестве отсечек были выбраны – 5%, 10%, 20% и 30%.

Длинные клики удобно считать через API как Яндекс.Метрики, так и Google Analytics. Считать можно как для запросов, так и для документов.

В случае ручного подсчета, можно воспользоваться сегментацией в новой Метрике, а также сравнением сегментов.

Пример для длинных кликов более 3 минут в Яндексе:

Для анализа влияния на ранжирование возьмем такие же выборки, что и ранее.

Как видим, метрики по URLам для Яндекса и Google ведут себя очень похоже. По запросам - примерно такая же картина. Мы по-прежнему смотрим, чтобы сумма по вкладу «метрика+» и «метрика-» была максимальна.

Для Яндекса это:

  • 10% и 5% доля длинных кликов по URL более 1 минуты и 3 минут соответственно.
  • 30% доля длинных кликов по запросу более 1 минуты.

Для Google это:

  • 10% доля длинных кликов по URL более 1 минуты и 3 минут соответственно.
  • 10% доля длинных кликов по запросу более 3 минут.

Таким образом, по работе с метриками по длинным кликам рекомендуется следующее:

  1. Собирать данные по количеству и доле длинных кликов по продвигаемым URL и запросам.
  2. Отбирать URLы и запросы, где доля ниже примерно 10% (детальней описано выше).
  3. Используя инструменты веб-аналитики составить список гипотез по изменению страниц и сайта, для исправления п.2.
  4. Используя инструменты опроса фокус групп (например, с помощью сервиса https://askusers.ru/), составлять список гипотез с той же целью.
  5. Внедрять и продолжать измерять.


Денис Нарижный: «Накрутки ПФ. Белые методы, проверенные на практике»

23 октября на конференции Сybermarketing 2015 в секции SEO, руководитель интернет-агентства StudioF1.ru, автор сервиса по улучшению юзабилити сайтов AskUsers...

Дмитрий Севальнев: «Яндекс.Метрика или как «большой брат» следит за нами?»

23 октября 2015 года в Москве состоялось крупнейшее событие в отрасли интернет-маркетинга – ежегодная конференция CyberMarketing-2015

Андрей Липатцев: «Ключевые моменты и основные ошибки при оптимизации сайта для мобильных устройств»

23 октября 2015 года в Москве состоялось крупнейшее мероприятие отрасли интернет-маркетинга – ежегодная конференция CyberMarketing-2015

SeoPult: АГС практически не затронул биржи «вечных» ссылок

Не так давно поисковая система Яндекс обновила алгоритм АГС, что вызвало бурное обсуждение в seo-сообществе

По ту сторону оптимизации: как преодолеть SEO-стагнацию?

Автор: Рэнд Фишкин (Rand Fishkin) – генеральный директор Moz. Компания занимается разработкой ПО для оптимизаторов

Обновление Минусинска: более 65% сайтов вернулись из ссылки

«Минусинск» прочно обосновался в наших краях