SeoPult: Апдейт 1 декабря в абсолютных цифрах не сильно отличается от типичных апдейтов Яндекса

Тема, связанная с фильтрацией Яндексом нескольких сотен сайтов в апдейт 1 декабря, успела нашуметь в оптимизаторской среде, и сегодня исполнительный директор SeoPult, Алексей Штарев поделился результатами исследования, которое было проведено в SeoPult.

Алексей Штарев: «SeoPult является крупнейшей аналитической платформой по поисковому продвижению в рунете. Ежедневно мы собираем статистику по нескольким миллионам ключевых слов в разных регионах. Наиболее полную картину мы видим в Московском регионе – с большой уверенностью могу сказать, что мы знаем практически о всех СЧ и ВЧ запросах. Для возможностей анализа алгоритмов поисковых систем SeoPult хранит все ТОПы за все годы работы и постоянно мониторит отклонения относительно стандартной картины, например, резкие взлеты и падения сайтов».

Для начала Алексей развеял опасения насчет массы клиентов SeoPult, пострадавших в апдейт 1 декабря и, в качестве доказательства, привел абсолютные цифры за апдейты 10, 14,21 ноября и 1 декабря:

Суммарный плюс — это суммарный рост позиций выбранных сайтов; Суммарный минус — это суммарное падение позиций выбранных сайтов; Дельта по всем запросам — это разница между повышением и понижением позиций сайта (разница между суммарным плюсом и минусом).

Как видно, апдейт 1 декабря в абсолютных цифрах не сильно отличается от типичных апдейтов Яндекса 10 и 14 ноября, кроме чуть более сильного шторма и более уверенного роста позиций продвигающихся клиентов.

При этом, Алексей отмечает, что 21 ноября был очень интересный апдейт. Если произвести анализ изменения позиций за большой период времени, видно определенную зависимость. Посмотрите на медианные значения % выхода в топ Яндекса: синяя линия, сайты с регионом Москва и МО, красная линия - сайты с остальными регионами:

Региональные сайты стоят, как вкопанные, а вот в Московском регионе видно, что Яндекс продолжил эксперименты с влиянием ссылочного ранжирования. При подробном анализе позиций сайтов выявилась очевидная тенденция: те, проекты, которые держались в основном на ссылках падали в июне и выросли сейчас примерно на те же позиции. У проектов, которые продвигаются комплексно (оптимизация, ссылки, статьи, хорошие поведенческие метрики) – изменений минимум.

Что же касается апдейта первого декабря, то система мониторинга отклонений заметила падение позиций нескольких сотен сайтов по всему рунету и специалисты SeoPult сразу начали исследовать причину. В SeoPult это коснулась 172 сайтов, когда-либо добавленных в Систему, остальные заниженные сайты были обнаружены при съеме позиций для аналитики. Как сообщалось ранее, первое, что было проверено – связь понижения позиций сайтов с технологией улучшения поведенческих факторов в SeoPult. Таких сайтов оказалось всего 32, таким образом, процент заниженных оказался не выше, чем по системе в целом. Рост позиций среди клиентов, подключивших модуль улучшения поведенческих факторов небольшой, хотя и перекрыл падение по сайтам, потерявшим позиции. Алексей также подчеркнул, что поведенческих апдейтов было недостаточно для детального исследования влияния поведенческих факторов на позиции сайтов.

Вторым этапом проверялся входящий трафик на всех упавших сайтах. В этом сильно помог установленный на 140 000 рунета аналитический счетчик Uptolike. Такая большая выборка сайтов позволяет провести репрезентативный анализ пострадавших сайтов. Для получения более полной картины, из выборки были убраны сайты по которым есть данные менее чем за 4 месяца.

Для определения интересов пользователей в Uptolike используется мощная DMP, которая умеет идентифицировать пользователя и узнавать о его присутствии впоследствии на любом сайте с установленным счетчиком от SeoPult. Если объяснять простым языком – каждой cookie приписывается набор посещенных URI, рефереры перехода, дата захода на сайт, анализируется контент посещенной страницы, показываемая поведенческая реклама известных сетей и еще огромное количество параметров. Исходя из накопленных данных, строятся краткосрочные и долгосрочные интересы для показа рекламы пользователю, и эта же методика в итоге помогла специалистам SeoPult определить причину фильтраций со стороны Яндекса.

В процессе анализа были обнаружены банальные накрутки, которые делились на 2 типа:

  • Спам-боты, ходящие по циклу определенных сайтов и изредка заходящие на другие сайты.
  • Мотивированный трафик. Здесь определить было чуть сложнее, но ввиду сильного ограничения количества мотивированного трафика в биржах заданий очевидно, что люди циклически ходящие по определенным сайтам, делают это неспроста.

Логично предположить, что если выявить подобный трафик смогли специалисты seoPult, то это смогли сделать и в Яндексе, который обладает схожими данными. Источники такого трафика могут быть разными: специализированные сервисы, биржи заданий, недобросовестные поставщики трафика и пр. Алексей считает, что обезопаситься от подобных накруток крайне сложно, главное не делать их самому.

Алексей Штарев: «Нас часто спрашивают, как мы планируем развивать технологию улучшения поведенческих факторов. В процессе разработки технологии мы изначально пошли по двум параллельным путям:

  1. Обеспечить улучшение поведенческих факторов сайта, благодаря переходам из поиска
  2. Поиск пользователей со связкой «запрос-документ» (недавний поиск - это краткосрочные интересы пользователя) и показ прямой рекламы таким пользователям

Обе технологии показывали похожие результаты, однако на ряде тестовых проектов результативность первой методики была выше, и именно эта технология пошла «в бой». На данном этапе мы заканчиваем работу с прямым трафиком, размеченным по связкам «запрос-документ» и скоро запускаем его показы для наших клиентов. Основываясь на краткосрочных интересах пользователей, которые недавно искали запросы наших рекламодателей, модуль будет демонстрировать им рекламу, ведущую напрямую на сайт рекламодателя. Такой подход более сложен для нас из-за большего объема обрабатываемых данных и более точного таргетирования, но способен достаточно эффективно влиять на поведенческие факторы, при этом обладая существенным преимуществом – такой трафик лучше конвертируется в продажи. В ближайшее время модуль улучшения поведенческих факторов будет обновлен до версии 2.0».

Задавайте вопросы в комментариях, Алексей готов на них ответить.

Google: Новые TLD не имеют преимуществ при ранжировании

Специалист отдела качества поиска Google по работе с вебмастерами Джон Мюллер (John Mueller) в очередной раз заявил о том, что сайты, размещающиеся на новых доменах верхнего...

Российский поиск Google представил ТОП самых быстрорастущих запросов 2014

Официальный блог Google Россия опубликовал ТОП самых быстрорастущих запросов за 2014 год

Google Public DNS передает данные о расположении клиентского сервера на Akamai

Google Public DNS (экспериментальный альтернативный DNS-сервер с закрытым исходным кодом) теперь передает информацию о местоположении клиентского сервера на мощности Akamai

Google вернул возможность поиска в Архиве новостей

Лидер поиска Google вернул пользователям возможность поиска в Архиве новостей, вплоть до материалов, опубликованных в 2003 году

Затраты времени на мобильные приложения превысили время на просмотр телевидения

Мобильная сфера привлекает максимум внимания в США

МегаЛемма – ПО для автоматического составления семантического ядра и кампаний Яндекс.Директ

Amazing Software вывел из бета-тестирования новое программное обеспечение «МегаЛемма» - для автоматизации составления семантического ядра и кампаний в Яндекс...