Pubcon 2014: Как приручить алгоритмы Google и выжить в условиях шифрования запросов

С 7 по 9 октября в Лас-Вегасе проходит конференция Pubcon 2014. В этом году мероприятие отмечает 15-летие. Pubcon Las Vegas является масштабным событием в серии конференций, посвящённых вопросам поисковой оптимизации, проблемам продвижения ресурсов в социальных медиа, технологиям интернет-маркетинга и рекламы. Традиционно все конференции серии проходят в несколько потоков и отличаются большим количеством выступлений. На конференции нашли отражение все инновации в области поисковой оптимизации и социальных медиа.

В рамках секции «Taming Algo Chaos and [NOT PROVIDED]» первым свой доклад представил Брюс Клэй (Bruce Clay), президент Bruce Clay, Inc.

Спикер отметил, что сама по себе идея полного шифрования данных о поисковых запросах пользователей является не достаточно разумной, поскольку в чистом виде данные о статистике поиска в Google никогда не были доступны вебмастерам и оптимизаторам на 100%. История началась около 6 лет назад, когда Google начал показывать строку «More details», сообщая более точные данные о запросах.

Однако в статистике веб-поиска всегда есть место погрешностям и неточностям данных. Если проанализировать все более детально, то станет ясно, что эту информацию о поисковых запросах пользователей нельзя расценивать как истину в последней инстанции.

К примеру, если ввести в поисковую строку Google запрос [drug rehab] (лечение от наркотической зависимости), то в выдаче будет показано огромное количество страниц, содержащих теоретическую информацию обо всех существующих методиках лечения. Если же в строку поиска ввести запрос [drug rehab in Hollywood], находясь именно в этом городе и его окрестностях, то, скорее всего, в результатах поисковой выдаче пользователю будут показаны адреса ближайших клиник и центров. Результаты поиска будут основаны на сопоставлении геозависимого запроса с IP-адресом пользователя. История предыдущих поисков также напрямую влияет на результаты выдачи для последующих запросов.

Отсюда следует весьма любопытный вывод: Google по-своему интерпретирует результаты пользовательских запросов, опираясь на историю поиска и геолокацию. В ряде ситуаций результаты выдачи могут не соответствовать основной цели поиска.

Кроме того, согласно официальной статистике, 20% поисковых запросов, совершаемых пользователями ежедневно, являются новыми или не совершались за последние полгода; 70% поисковых запросов демонстрируют неполное совпадение по ключевым словам; 54,5% запросов пользователей содержат более 3 слов.

И всё же, до сих пор существует целый ряд источников, откуда можно почерпнуть информацию о поисковых запросах пользователей. Прежде всего, это:

Google Instant или Живой поиск Google. Функция позволяет просматривать результаты непосредственно при вводе запроса. Функционал на 100% основан на информации о наиболее актуальных поисковых запросах. Его использование позволяет перепроверить частотность запроса. Рядом с ключевым словом запроса можно обнаружить слова, которые пользователи чаще всего употребляют, вводя запрос. Учитывая эти данные можно формировать семантическое ядро сайта, ведь появление в Google Instant напрямую коррелируют с частотой употребления поискового запроса.

Геолокация. В зависимости от того, в каком городе находится пользователь, и какую геозависимую информацию ищет, будут меняться и результаты поиска. Простой пример: если в запросе упоминается разная степень удаленности объекта от станции метро, то и результаты выдачи будут различаться. Случается и такое, что одни и те же ключевые слова в поисковом запросе обозначают в разных городах разные реалии – это тоже влияет на результаты. Таким образом, можно утверждать, что внешний вид SERP зависит от целого ряда факторов. В частности, от местонахождения пользователя и ключевых слов в геозависимых запросах. Также Брюс Клэй предложил вебмастерам и владельцам ресурсов обратить внимание на запросы с мобильных устройств.

Атрибуция имеет значение. Ресурсу важен высокий трафик при низком показателе отказов. Одна и та же целевая страница может ранжироваться по множеству ключевых слов. И на практике нельзя утверждать, что страница имеет хорошую посещаемость только потому, что продвигается по определённым ключевым словам. Такая корреляция, конечно, существует, но её очень тяжело установить. создание лендингов, заточенных под ключевые фразы.

В заключение докладчик посоветовал слушателям: составить список ключевых фраз; начать всерьез заниматься контент-наполнением сайтов и целевых страниц; и… молиться.

Следующим выступил Прашант Пори (Prashant Puri), сооснователь AdLift.com.

Прежде всего, спикер порекомендовал слушателям делать бэкап поисковых запросов, как минимум, каждые три месяца. Однако лучше делать это ежемесячно. Чтобы чётко понимать, по каким поисковым запросам следует продвигаться, имеет смысл установить поддиректории сайта, описав их как отдельные сайты в «Инструментах для веб-мастеров Google». Это позволит получить гораздо больше данных для анализа.

Важно проводить аналитику лендингов. При этом имеет смысл оценивать не только посещения страниц, но и ценность страницы (page value). Важно, чтобы показатель ценности лендинга превышал отметку в 50%. Далее, основываясь на показателях ценности страницы, имеет смысл осуществлять сегментацию ключевых слов. Здесь важно найти ключевики, которые не ранжируются, но связаны с лендингом с высокой ценностью страницы, и работать с ними.

Важное место занимает работа с моделью атрибуции. Здесь важно понятие последнего клика. На практике анализ модели атрибуции часто показывает, что для 35% конверсий характерно наличие нескольких точек соприкосновения с пользователем. До совершения целевого действия обычно происходит до нескольких кликов.

Основные выводы докладчика были таковы:

  • Имеет смысл извлечь исторические данные из «Инструментов для веб-мастеров Google».
  • Следует извлечь папки и описать их в Google Webmaster Tools как отдельные сайты.
  • Важно определить ценность страницы на основе связанных с ней ключевых слов.
  • Целесообразно анализировать все данные о запросах по трём аспектам: Not Provided, брендированные и небрендированные.
  • Важно постоянно совершенствовать модель атрибуции с тем, чтобы она работала на ресурс.

Завершил секцию доклад Джейка Бохалла (Jake Bohall),вице-президента по маркетингу в Virante, Inc.

Чтобы подробнее разъяснить ситуацию, создавшуюся вокруг поисковых запросов, спикер обратился к высшей математике. Напомнив, что теория хаоса – это раздел математики, который изучает сложные системы, поведение которых отличается высокой чувствительностью к небольшим изменениям условий. Применительно к ситуации с поисковыми запросами это означает следующее: даже небольшие изменения могут привести к весьма заметным изменениям.

Сегодня глобальная сеть представляет собой огромный массив хаотично размещаемых документов и Google пытается всеми силами разобраться в этом хаосе и упорядочить структуру.

Конечно же, ссылочное продвижение до сих пор работает, однако вебмастерам и оптимизаторам уже приходится меняться, чтобы подстраиваться под эффективно развивающийся рынок поиска.

Главные принципы сегодняшнего дня сводятся следующем: важно использовать на сайте лучший контент для повышения релевантности; размещать лучшие ссылки для повышения авторитетности и уникальности ресурса. Умелая работа с UGC позволит продемонстрировать поисковым системам вовлеченность пользователей сайта во взаимодействие с его контентом. Не менее важно привлекать к созданию контента признанных экспертов отрасли.

Имеет смысл использовать микроразметку и структурированные данные – это позволит повысить видимость и кликабельность сниппета в результатах выдачи.

Джейк Бохалл также привел полезный совет по работе с «мёртвыми» ссылками. Он заключается в следующем: важно отыскать страницу, на которую ведет «мёртвая» ссылка, и наполнить ее новым качественным и релевантным контентом. После этого можно попросить дружественные площадки разместить у себя эти ссылки.

«И всё же, производите качественный контент, привлекающий дополнительные ссылки, и не занимайтесь копированием», — подытожил докладчик.

Редактор-переводчик портала Searchengines.ru, работает на сайте с 2010 года. Специализируется на западном интернет-маркетинге, новостях социальных сетей и поисковых систем. Постоянно принимает участие в профильных семинарах и конференциях в качестве журналиста-обозревателя. Языки: английский, французский.