SEO 2013: Аналитика и автоматизация

18

28 мая 2013 года прошла благотворительная конференция SEO 2013 о различных проблемах SEO и интернет-маркетинга в целом.

Алексей Чекушин (КОКОС) рассказал о том, как правильно прогнозировать результаты по трафику SEO-продвижения. Существует два различных подхода: прогнозирование через математику и прогнозирование через гадание. Многие думают, что SEO — достаточно непредсказуемый процесс, что результаты можно только угадать. На самом деле, SEO — действительно, процесс вероятностный. Действительно, нельзя спрогнозировать, выйдет или нет конкретный запрос. Но при работе с большим объемом данных можно прогнозировать общий результат, основываясь на среднестатистических закономерностях.

Трафик берется из запросов, которые находятся на каких-то позициях. В зависимости от позиции, есть определенное число показов. И после того, как данная позиция была показана определенному числу пользователей, следуют клики на сайт, которые и превращаются в трафик.

Что такое позиция — вопрос не тривиальный. Один и тот же сайт может находиться на разных местах. Позиции могут изменяться по разным причинам. Во-первых, из-за персонализации поиска. Вторая причина — региональность. Пользователи из разных городов будут видеть разную выдачу по геозависимым запросам. А коммерческие запросы в большинстве своем геозависимы. Третяя причина — А/В тесты. Яндекс постоянно проводит тестирования, связанные и с ранжированием, с персонализацией, поэтому, попадая в А/В тест, видна совершенно другая выдача. То есть, нельзя однозначно сказать, на каком месте находится запрос.

Выход из такой ситуации может предложить математика. Распределение Гаусса — так называемое нормальное распределение, и оно очень хорошо описывает ситуацию, когда у нас позиции раскиданы относительно какой-то средней позиции.

Допустим, средняя позиция — 1, первое место. Если запрос находится на 10 месте, стандарт отклонения — 1, то вероятность того, что пользователь увидит его на 10 месте будет составлять 40%.

Основываясь на данных, можно подобрать ширину гауссианы, которую нужно будет использовать в конкретной модели.

В данном случае необходимо проводить так называемую нормировку. На графике — гауссианы со стандартным отклонением, равным единице, для 1, 2, 3 и 4 мест. В результате нормировки вероятность оказаться на той позиции, которая является средней, выросла существенно для 1, немного для 2, и почти не выроста для 3 и 4. Нормировка проводится просто — вероятность того, что запрос все-таки будет обнаружен, должна равняться единице. Соответственно, сумма всех значений гауссиан должна равняться единице. Если она равна 0,7, то нужно каждое значение поделить на 0,7, чтобы получить в итоге единицу.

Далее — переходы по запросам. CTR — величина зависимая, причем от многих параметров. Во-первых, от того, какой сниппет. Во-вторых — какие обвесы. Достаточно взять какое-то средневзвешенное CTR для определения прогнозов.

Закон роста каждого запроса — функция с постоянно отрицательной второй производной. Это означает, что, несмотря на то, что функция является растущей, скорость ее роста все время замедляется.

Сначала, когда совершаются базовые действия по оптимизации, прописывание title, вставление h1, закупка ссылок — рост идет быстро. А дальше, посла того, как оптимизация все лучше и лучше, все сложнее получать все тот же эффект, поэтому темпы роста замедляются. Более того, темпы роста не одинаковы для разных запросов.

Что касается расчета вывода запросов, то есть много нюансов. Во-первых, динамика не одинакова для запросов разной конкурентности. То есть, сперва необходимо каким-то образом оценивать запросы по конкурентности — по числу документов, например. Во-вторых, считать нужно отдельно для Яндекса и для Google. В-третьих, необходимо учесть, что запросы выводятся не со 100-процентной вероятностью. Для разных сайтов можно вывести разный процент запросов. В-четвертых, нужно учесть вероятность появления новых запросов.

Сначала нужно собрать семантику. Потому, что многие сеошники делают наоборот — сперва делают какой-то прогноз, заключают по нему договор на дальнейшую работу, а уже по ходу собирают семантику.

Семантика должна быть репрезентативной. 

Необходим массив данных о продвижении для правильного определения коэффициентов. Необходимо использовать коэффициенты прироста, и получить корректные коэффициенты можно из массива данных.

Методика достаточно устойчива при работе с запросами, которые в этот момент уже находятся в топ-100. Возникает ужесточение требований к семантике, ее приходится сильно фильтровать, что сложно без специальных технологий. Если предполагать вывод запросов, находящихся за топ-100, ошибки при подборе запросов становятся критичны.

Евгений Концевой (ТопЭксперт) рассказал о внутренней перелинковке сайта.

Перелинковка — схема взаимосвязи страниц, простановки ссылок. Делается ради четырех основных целей.

Цели внутренней перелинковки 

  • улучшение индексации сайта — робот быстро находит нужные страницы 
  • улучшение показателей удобства пользователя 
  • передача статистического веса 
  • повышение релевантности за счет анкоров ссылок

Чаще всего делается ради двух целей — ради передачи статистического веса и анкоров.

Если построить в Excel модель распределения веса и посмотреть, как перенаправить ссылки, то получится, что одной из самых оптимальных схем является такая, когда не продвигаемые страницы ссылаются на продвигаемые.

Основа для анкор-листа — семантика. Количество зависит от того, насколько детализирована категория, и насколько полная семантика. Есть семантическое ядро и анкор-лист, содержащий точные и неточные вхождения запросов разной частотности. Их можно использовать как для внешних, так и для внутренних ссылок.

Пример реализации — алгоритм для сайта на Joomla!. Для реализации алгоритма уже должен быть готов список анкоров для каждой продвигаемой страницы. Модуль оформляется в виде блока популярных категорий. На сайт должен быть внедрен механизм SEOHide (механизм скрытия ссылок) для обеспечения гибкости работы модуля — чтобы модуль мог выбирать, какие ссылки закрыть от индексации, какие оставить, в зависимости от условий. Модуль состоит из трех ссылок, по оной на соответствующую категорию.

Анкоры загружаются напрямую из таблицы Excel в базу данных MySQL. Таблица будет иметь пять колонок. Первая колонка — ID, уникальный идентификатор каждой строчки. Вторая колонка — URL донора, третья — анкор ссылки, четвертая — лимит употребления на сайте, пятая — текущее количество употреблений.

Шаблон модуля похож на шаблон карточки товара в списке, есть картинка и анкорная ссылка.

SEOHide используется модулем в следующих случаях: 

  • скрытие ссылки-картинки, если есть свободный анкор; 
  • скрытие анкорной ссылки, если анкоры закончились.

Таким образом, та или иная ссылка со страницы может представлять собой или ссылку-картинку, или же полноценную анкорную ссылку.

На скриншоте сверху показан вариант, когда нет безанкорных ссылок. Снизу есть скрытая анкорная ссылка

Руслан Рзаев (Seo-Index) рассказал об автоматизации в SEO — для чего нужна, в каких сферах применяется, и как облегчает труд оптимизатора.

Автоматизация нужна всем компаниям, у которых больше десяти клиентов.

Первое, для чего применяется автоматизация — для сбора позиций, процента в топе. Парсер настраивается на разную частоту, в зависимости от требований оптимизатора, и меряется результат работы оптимизатора. Проверка индексации страниц продвигаемого сайта тоже делается парсером, проверяются в отдельности каждая страница, каждый поддомен. Автоматизация применяется также в аудите внутренней отимизации сайта, для проверки, как индексирует страницы робот, и для выявления ошибок оптимизации. Автоматически можно также проверять текстовую релевантность продвигаемых страниц, вхождения.

Еще для облегчения работы можно автоматизировать создание проектов — например, автоматическое составление в файл списка landing pages для биржи ссылок. Автоматическое слежение за топом и фиксация сильного изменения позиции сайта — тоже очень полезная вещь. Реализована у MegaIndex, сервис называется Анализ ТОП-30. Смысл в том, что можно следить за топом продвигаемых сайтов по основным запросам. И, если произойдет резкий скачек или резкое падение какого-то сайта в топе, сервис об этом сообщит, и можно будет оперативно провести аналитику причин.

Внешней оптимизации автоматизация применяется для проверки и отсева доноров по заданным параметрам.

Для крупных компаний можно сделать свой агрегатор для закупки ссылок. В нем можно будет выставить много необходимых настроек, в отличие от готовых агрегаторов.

Руслан отметил, что после применения автоматизации заметно выросли результаты работы.

Обзор подготовила Александра Кирьянова