Осенняя сессия 2014: Семантика как фундамент в построении контекстной рекламы

101

12 сентября 2014 года в московском event-холле «Инфопространство» прошла очередная Осенняя сессия по контекстной рекламе.

Главное отличие этой конференции – уникальный качественный контент, представленный профессионалами-практиками. Доклады и темы выступлений тщательно отбираются, чтобы поддерживать конференцию на высоком уровне из года в год. Вот и в этом году в список докладчиков вошли только практикующие специалисты по контекстной рекламе и интернет-маркетингу – представители Яндекса и Google, руководители отделов контекстной рекламы и веб-аналитики, представители рекламных агентств.

Одним из наиболее интересных был доклад Антона Данилова, представителя интернет-гипермаркета HomeMe.ru, под названием «Каверзный контекст в «перегретой» нише: какой путь оптимальнее?».

Антон посвятил своё выступление рассмотрению основных понятий и формул в контекстной рекламе, семантике, аналитике и вопросам биддинга.

Для начала он привёл формулу оборота, который получает компания: средний чек, умноженный на количество заказов. Количество заказов – это коэффициент конверсии, умноженный на клики, что в свою очередь представляет собой показатель кликабельности, умноженный на релевантные показы.

Однако без учёта расходов формула выручки не полная. Для их вычисления нужно посчитать доходы и из выручки вычесть расходы на рекламу (cost).

Антон процитировал Алексея Довжикова, гендиректора и директора по развитию TRINET: «90% успеха кампаний – это проработанная семантика и хорошо сделанные объявления».

Далее он остановился на определениях «поисковый запрос» и «ключевое слово». «Яндекс говорит, что не хранит статистику по поисковым запросам, потому что каждый день приходит более 10 млн уникальных поисковых запросов. Поэтому они хранят статистику ключевых слов. Но что Яндекс называет «ключевым словом» никто не знает», – подчеркнул докладчик. 

Он предложил поисковым запросом называть то, что пользователи вводят в поисковую строку, а ключевым словом (квазиключевым словом) – то, что владельцы сайтов задают в систему контекстной рекламы. «Оно может быть как поиск запросом, так и ключевым словом», – добавил Антон Данилов.

В проработке семантики он выделил три подхода.

Первый – достаточно простой, так делают рекламные агентства: берётся высокочастотное ключевое слово и к нему добавляется большой список минус-слов. Поскольку их количество больше, чем можно загнать в соответствующую ячейку, охватность не теряется, но релевантность и эффективность низкая. «Много показов, мало переходов. Этот способ быстрый, но плохой», – заявил Антон.

Второй подход предпочитают фрилансеры. Они берут поисковые запросы, которые считают наиболее релевантными, загоняют в точные фразовые соответствия и кидают в систему. «Получается достаточно неплохой контекст, но сильно страдает охват. Подход хорош, но не идеален», – пояснил докладчик.

Третий подход – смешанный или схема «дерево». Чтобы перейти к нему, эксперт предложил сначала разобрать частотность ключевых слов на три составляющие. Первое – это частота ключевого слова во фразовом соответствии. Далее можно брать трёх- и четырёхсловники – тут будут слова релевантные и нерелевантные. Затем следует рассчитать вероятность релевантного показа.

Где альфа рассчитывается по формуле:

Основная формула контекста выглядит следующим образом:

Итак, в корне схемы «дерево» лежит высокочастотный запрос, показывать который не имеет смысла. От него идут ключевики из двух, трёх и более слов («маски») из которых убираются те, что не будут заданы в систему.

«На самом деле с этим методом можно работать до бесконечности и при этом релевантность показов будет максимальной, а мы не теряем никакого охвата», – сказал Антон Данилов.

Для такой схемы нужен «движок», помогающий работать с ключевыми словами. При его написании важно учесть 

  • стоп-слова;
  • учесть буквы, являющиеся стоп-словами (в русском алфавите их 11);
  • учесть опечатки;
  • убрать спецсимволы;
  • аккуратно минусовать;
  • проверить полноту.

В высококонкурентной нише фразовые соответствия можно проработать более детально и сделать семантическую матрицу. Она поможет писать более релевантные объявления за счёт огромного пула ключевых слов, которые близки к поисковым запросам.

Где можно собрать семантику: 

  • Вордстат Spywords (http://spywords.ru/) 
  • АДВСЁ (http://advse.ru/) 
  • Semrush (http://semrush.com/) 
  • Продвигатор (http://prodvigator.ua/) 
  • Подсказки 
  • Искусственные

В качестве примера искусственных слов Антон Данилов привёл привязку слов «сдать квартиру» – к станциям метро или улицам; обуви – к размерам; диванов – к цвету обивки.

Второй блок своего доклада представитель HomeMe.ru посвятил релевантности и CTR. Он привёл пример того, как изменяется второй показатель при редактировании объявлений, а затем задал вопрос: как сравнить CTR двух объявлений при А/В-тестировании в Яндекс.Директе? Ответом является биддинг или торг в реальном времени.

«Для начала нужно определить, что такое CPC, что такое бид и как он вводится, – заявил Антон. – Есть CPA – это стоимость, по которой мы готовы привлекать наших клиентов». Рассчитывается она делением расходов на рекламу на произведение коэффициента конверсии (CR) и кликов. CPC – это CPA умноженная на CR.

«Так как у нас аукцион второй цены, мы платим соответственно не ту ставку, которую задаём в системе, поэтому бид будет меньше. Бид можно на начальном этапе задать некоей надбавкой к CPC», – пояснил эксперт.

Следующий шаг после расчёта ставок и их включения в систему – корректировка ставок. «Вы можете уменьшать и увеличивать ставки для показа рекламы в определённые дни недели, часы и другие интервалы времени», написано в cправке Google Adwords. Но никто не говорит, как это делать», – подчеркнул Данилов.

При построении отчёт в Google Analytics он предложил провести корректировку по дням недели и времени суток, а затем свести в единую таблицу:

«В Яндексе мы такую корректировку сделать не можем, потому что там нет корректировки вверх, только вниз. Соответственно нужно делать перенормировку. Нужно максимальное значение взять за 100%, остальное – пойдёт вниз», – сказал докладчик.

Последним пунктом доклада Антона Данилова значились кейсы и задачи: 

  • хеджирование («Как делают прогноз на уровне ключевых слов – непонятно», – сказал он);
  • корректировка для устройств (компьютеров, мобильных устройств и планшетов); 
  • точка или запятая (в частности, при определении размера обуви с дробями – допустим, 38,5 – стоит задать три ключевых слова – с точкой, запятой и пробелом); 
  • провал в гарантию («Когда мы максимально углубляемся в семантику, можем более детально управлять ставками, у нас биддер будет лучше работать», – подчеркнул эксперт).

В конце доклада он кратко напомнил основные пункты построения контекста: 

  1. Определяем «корни». 
  2. Собираем поисковые запросы. 
  3. БД – для хранения поисковых запросов. 
  4. Нормализация поисковых запросов (исправляем опечатки, убираем спец символы \/ | = -–) ( " " & ? : ; № # @ « » ! ` + ‘ ~ ^ * <> { }[ ] %$).
  5. Определяем «маски». 
  6. Строим «деревья» для ключевых слов. 
  7. Определяем ставку 
  8. По итогам вносим коррективы.

Тему оптимально эффективного и быстрого подбора ключевых фраз для рекламной кампании продолжило выступление Андрея Иванова, руководителя проектов Advse.Ru, который представил доклад «От списка запросов — к ключевым фразам рекламной кампании».

Докладчик считает, что основная задача, которая стоит перед каждым рекламодателем при создании рекламных кампаний заключается в том, чтобы получить из списка запросов список фраз для рекламных объявлений.

Логично было бы думать, что подобный алгоритм получения ключевых фраз должны были реализовать сами поисковые системы, так как у них есть все данные, но информация о запросах в поисковых системах покрыта налетом тайны. Это было понятно, когда не было контекстной рекламы, но сейчас это уже странно.

Сегодня рекламодатель не может узнать, из первых рук, ни какие запросы с заданным словом вводят пользователи, ни в ответ на какие запросы были показаны его рекламные объявления, ни в ответ на какие запросы ссылка на интересующий сайт была показана пользователям в органической выдаче… Поисковики не выдают информацию о запросах, только о показах по ключевым словам. Известны лишь те запросы, в ответ на которые пользователи кликнули по рекламным объявлениям. Если показ был, но клика не было – запрос не передается.

И все же, запросы получить можно при помощи других средств: 

  • Wordstat Яндекса + KeyCollector 
  • Advse.Ru 
  • База Пастухова 
  • Оптимизаторские сервисы и др.

Запросы обычно получаются вот в таком виде:

Что с ними дальше делать? Просматривать просто списки сложно, там встречаются нецелевые запросы, одинаковые запросы с простой перестановкой слов, разные словоформы одного и того же слова и т.д. Поэтом алгоритм подготовки списка должен быть следующим: 

  • Перестановки – склеиваем, приводим к одному виду 
  • Словоформы – склеиваем, приводим к одному виду 
  • Частоты – суммируем склейки, ранжируем по убыванию 
  • В группе запросов находим самое частотное слово списка – выписываем первым 
  • Убираем все запросы с первым словом в отдельную группу 
  • В оставшихся запросах находим самое частотное слово списка – выписываем вторым 
  • Убираем все запросы со вторым словом в отдельную группу 
  • И т. д. – до 100 раз.

Далее список должен быть разделен на группы – ключевые слова, запросы, синтаксис, количество показов. Работа должна вестись только со списками реальных запросов.

Андрей сообщил, что быстро получить максимум данных из Вордстата и Яндекса можно при помощи сервисов КeyCollector и AdVse.

Как известно, Вордстат Яндекса отдает не более 2000 строк по запросу. Поэтому берем самое частотное ключевое слово – получаем первые 2000 строк, обрабатываем их в Advse – выбираем ключевые словосочетания из двух слов, чтобы они не дублировали друг друга. Вводим этот список в KeyCollector и быстро получаем максимум необходимых данных.

Для более продуктивной работы с Вордстатом Андрей Иванов рекомендует новый сервис подбора ключевых слов , который является своеобразной интеллектуальной надстройкой над Вордстатом Яндекса.

Сервис обеспечивает автоматическое получение всех описываемых ранее данных, а также обработку по рассмотренному выше алгоритму – т. е. быстрое получение точных ключевых словосочетаний с максимальным охватом.