IBC Russia 2014: «Семантическое ядро: методология и инструменты в 2014 году»

С 27 по 28 ноября 2014 года, в Москве проходила крупнейшая отраслевая конференция для рынков интернет-маркетинга и веб-разработки «Интернет и Бизнес. Россия». Объединяя в себе такие многолетние и известные проекты, как «Сайт» и Optimization, Конференция «IBC Russia» стала ответом на заинтересованность бизнеса в единой экспертной площадке. Мероприятие организовано компанией «Ашманов и партнеры» совместно с Российской ассоциацией электронных коммуникаций.

На втором дне конференции в рамках секции «Инструменты и автоматизация продвижения сайтов» состоялось выступление Олега Шестакова (Rush Agency), посвящённое теме составления семантического ядра сайта: «Семантическое ядро: методология и инструменты в 2014 году».

В своем докладе спикер рассмотрел базовую парадигму семантики; на практических примерах разъяснил, какие источники следует использовать для оптимизации, а какие – нет; поделился тонкостями автоматизации при работе с семантикой.

Прежде, чем приступать к созданию списка маркетинговых запросов, имеет смысл разработать ключевые показатели эффективности семантики.

KPI семантики могут быть следующими:

  • Скорость сбора маркетинговых запросов + полнота.
  • Объем ручного труда при привязке маркер – URL.
  • Скорость сбора и качество облака запросов по страницам.
  • Объем ручного труда по финализации семантического ядра.
  • Скорость внедрения на сайт клиента (подстройка под существующую структуру сайта). Важно внедрять все изменения семантики на сайт клиента быстро – в течение двух недель либо месяца, иначе вся работа окажется бесполезной.

Методика создания маркерных запросов может быть таковой:

  • Выгрузка URL-keywords из CMS/ парсинг каталога;
  • Генерация матрицы «всё на всё» + верификация по «WS»
  • Теги для генерации должны создаваться по принципу: логические гипотезы + «жирные интенты из WS»

Алгоритм сбора облака запросов выглядит следующим образом: на первом этапе осуществляется парсинг всех возможных расширений по маркерным запросам. Далее производится отсев непопулярных ключевых слов (трешхолд по WS). Чем меньше запросов будет отсеяно, тем более тяжелым впоследствии окажется работа по финализации семантического ядра.

При внедрении семантики на сайт важно чётко следовать приоритетам, не нарушая последовательности действий:

Важно внедрять то, что можно внедрить прямо сейчас, не надо откладывать и пытаться проработать всю семантику. К моменту окончания работ она может стать уже неактуальной.

Приведённое выше утверждение подтверждается статистикой:

Что же касается собственно статистики, то её важно собирать статистику регулярно. Традиционно для этого используется Google Analytics и Яндекс.Метрика. Важно отметить, что сегодня из актуальных сервисов остается очень мало: Google Analytics уходит в историю из-за шифрования поисковых запросов. В Яндекс.Метрике же наблюдается более 45% «мусорных» запросов.

Публичные решения для получения связки URL-keyword пока отсутствуют. Чтобы выйти из положения можно использовать различные алгоритмы машинного обучения для парсера. «Парсинг метрики, который реально дет результат – сегодня осложнен», – подчеркнул докладчик.

Для парсинга поисковых запросов сегодня могут быть использованы следующие сервисы:

Если говорить о сервисе Яндекса Wordstat, то он имеет серьёзные минусы. В частности, в нем содержится множество накрученных запросов; используя Wordstat, нельзя определить корректную словоформу; есть проблемы с потоковым парсиногом (бан/кача); сервис не обеспечивает полноту и свежесть данных.

Выходом из данной ситуации может стать анализ поисковых подсказок. Это хороший источник данных о поисковых запросах. Там всегда содержится свежий поток запросов и изначально правильные словоформы, присутствует автоматическая верификация на «кривые запросы» и опечатки. Данные о поисковых запросах легко собирать.

Однако и здесь есть один важный нюанс: данные парсить следует аккуратно – если забирать данные в огромных количествах; то сервис будет отдавать «не то».

Важно учесть и ещё несколько нюансов, связанных с поисковыми подсказками:

Основное, что следует усвоить из перечисленного списка нюансов: подсказки всегда являются гео-зависимыми, и это надо учитывать при формировании семантического ядра. Встречаются искусственно «накрученные» тематики, однако в отношении коммерческих запросов данная тенденция пока не была замечена. И все же, при анализе поисковых подсказок важна жёсткая фильтрация. При правильном подходе эффективность использования поисковых подсказок будет заметно выше, чем от использования сервиса Wordstat.

Не стоит также доверять агрегаторам и сторонним сервисам «с кешем» – обычно их отличает сомнительная полнота и хаотичная выборка, неактуальная частотность. Часто это запросы самих пользователей сервисов и искусственно генерированные запросы. Главная причина такой неточности – высокая стоимость поддержки актуальности данных.

Если нужно быстро внедрить семантику и быстро получить трафик, целесообразно использовать «маркерные запросы».

После того, как семантика собрана, важно грамотно распределить ключевые слова по странице. Это можно сделать вручную, однако процесс занимает много времени и не исключает ошибок.

Так, например, для разбора полумиллиона ключевых слов требуется 5-6 месяцев работы двух специалистов. При средней заработной плате общая стоимость работы составит 360 тыс. рублей

Использование шаблонов обеспечивает до 35% эффективности, кроме того, необходимо использование дополнительных инструментов, таких как лематизаторы и т.п.

Группировка на основе подобия SERP –способна обеспечить высокую точность и полноту выборки; осуществляется максимально быстро; обеспечивает автоматическое определение коммерческого запроса, а также автоматическую привязку синонимов и переформулировок. Это сложный и многоуровневый алгоритм, ведь только 87% результатов поискового запроса одинаковы в течение дня. При таком подходе возникает необходимость парсинга большого количества SERP, а качество выборки напрямую зависит от качества выдачи поисковых систем. К примеру, из-за постоянных экспериментов Яндекса только 87% SERP по одному и тому же запросу идентичны в течение суток. На сегодняшний день в Яндексе насчитывается как минимум 4 вида SERP по одному и тому же запросу.

Тем не менее, данный способ сбора семантики является одним из самых эффективных:

Пример группировки на основе подобия SERP может выглядеть следующим образом:

Тем, кто все-таки готов серьёзно подойти к сбору семантики, Олег Шестаков порекомендовал: верифицировать данные; не перегружать сервера поисковых систем; хранить историю частотности запросов.

«На практике после грамотного внедрения семантики на страницах сайта трафик вырастает для интернет-магазина способен возрасти в разы. Так, для магазина-гаджетов он увеличился за 2 месяца на 300%; а для магазина одежды – на 80%», – подвел итог докладчик.

Редактор-переводчик портала Searchengines.ru, работает на сайте с 2010 года. Специализируется на западном интернет-маркетинге, новостях социальных сетей и поисковых систем. Постоянно принимает участие в профильных семинарах и конференциях в качестве журналиста-обозревателя. Языки: английский, французский.