Pubcon 2014: Как приручить алгоритмы Google и выжить в условиях шифрования запросов

С 7 по 9 октября в Лас-Вегасе проходит конференция Pubcon 2014. В этом году мероприятие отмечает 15-летие. Pubcon Las Vegas является масштабным событием в серии конференций, посвящённых вопросам поисковой оптимизации, проблемам продвижения ресурсов в социальных медиа, технологиям интернет-маркетинга и рекламы. Традиционно все конференции серии проходят в несколько потоков и отличаются большим количеством выступлений. На конференции нашли отражение все инновации в области поисковой оптимизации и социальных медиа.

В рамках секции «Taming Algo Chaos and [NOT PROVIDED]» первым свой доклад представил Брюс Клэй (Bruce Clay), президент Bruce Clay, Inc.

Спикер отметил, что сама по себе идея полного шифрования данных о поисковых запросах пользователей является не достаточно разумной, поскольку в чистом виде данные о статистике поиска в Google никогда не были доступны вебмастерам и оптимизаторам на 100%. История началась около 6 лет назад, когда Google начал показывать строку «More details», сообщая более точные данные о запросах.

Однако в статистике веб-поиска всегда есть место погрешностям и неточностям данных. Если проанализировать все более детально, то станет ясно, что эту информацию о поисковых запросах пользователей нельзя расценивать как истину в последней инстанции.

К примеру, если ввести в поисковую строку Google запрос [drug rehab] (лечение от наркотической зависимости), то в выдаче будет показано огромное количество страниц, содержащих теоретическую информацию обо всех существующих методиках лечения. Если же в строку поиска ввести запрос [drug rehab in Hollywood], находясь именно в этом городе и его окрестностях, то, скорее всего, в результатах поисковой выдаче пользователю будут показаны адреса ближайших клиник и центров. Результаты поиска будут основаны на сопоставлении геозависимого запроса с IP-адресом пользователя. История предыдущих поисков также напрямую влияет на результаты выдачи для последующих запросов.

Отсюда следует весьма любопытный вывод: Google по-своему интерпретирует результаты пользовательских запросов, опираясь на историю поиска и геолокацию. В ряде ситуаций результаты выдачи могут не соответствовать основной цели поиска.

Кроме того, согласно официальной статистике, 20% поисковых запросов, совершаемых пользователями ежедневно, являются новыми или не совершались за последние полгода; 70% поисковых запросов демонстрируют неполное совпадение по ключевым словам; 54,5% запросов пользователей содержат более 3 слов.

И всё же, до сих пор существует целый ряд источников, откуда можно почерпнуть информацию о поисковых запросах пользователей. Прежде всего, это:

Google Instant или Живой поиск Google. Функция позволяет просматривать результаты непосредственно при вводе запроса. Функционал на 100% основан на информации о наиболее актуальных поисковых запросах. Его использование позволяет перепроверить частотность запроса. Рядом с ключевым словом запроса можно обнаружить слова, которые пользователи чаще всего употребляют, вводя запрос. Учитывая эти данные можно формировать семантическое ядро сайта, ведь появление в Google Instant напрямую коррелируют с частотой употребления поискового запроса.

Геолокация. В зависимости от того, в каком городе находится пользователь, и какую геозависимую информацию ищет, будут меняться и результаты поиска. Простой пример: если в запросе упоминается разная степень удаленности объекта от станции метро, то и результаты выдачи будут различаться. Случается и такое, что одни и те же ключевые слова в поисковом запросе обозначают в разных городах разные реалии – это тоже влияет на результаты. Таким образом, можно утверждать, что внешний вид SERP зависит от целого ряда факторов. В частности, от местонахождения пользователя и ключевых слов в геозависимых запросах. Также Брюс Клэй предложил вебмастерам и владельцам ресурсов обратить внимание на запросы с мобильных устройств.

Атрибуция имеет значение. Ресурсу важен высокий трафик при низком показателе отказов. Одна и та же целевая страница может ранжироваться по множеству ключевых слов. И на практике нельзя утверждать, что страница имеет хорошую посещаемость только потому, что продвигается по определённым ключевым словам. Такая корреляция, конечно, существует, но её очень тяжело установить. создание лендингов, заточенных под ключевые фразы.

В заключение докладчик посоветовал слушателям: составить список ключевых фраз; начать всерьез заниматься контент-наполнением сайтов и целевых страниц; и… молиться.

Следующим выступил Прашант Пори (Prashant Puri), сооснователь AdLift.com.

Прежде всего, спикер порекомендовал слушателям делать бэкап поисковых запросов, как минимум, каждые три месяца. Однако лучше делать это ежемесячно. Чтобы чётко понимать, по каким поисковым запросам следует продвигаться, имеет смысл установить поддиректории сайта, описав их как отдельные сайты в «Инструментах для веб-мастеров Google». Это позволит получить гораздо больше данных для анализа.

Важно проводить аналитику лендингов. При этом имеет смысл оценивать не только посещения страниц, но и ценность страницы (page value). Важно, чтобы показатель ценности лендинга превышал отметку в 50%. Далее, основываясь на показателях ценности страницы, имеет смысл осуществлять сегментацию ключевых слов. Здесь важно найти ключевики, которые не ранжируются, но связаны с лендингом с высокой ценностью страницы, и работать с ними.

Важное место занимает работа с моделью атрибуции. Здесь важно понятие последнего клика. На практике анализ модели атрибуции часто показывает, что для 35% конверсий характерно наличие нескольких точек соприкосновения с пользователем. До совершения целевого действия обычно происходит до нескольких кликов.

Основные выводы докладчика были таковы:

  • Имеет смысл извлечь исторические данные из «Инструментов для веб-мастеров Google».
  • Следует извлечь папки и описать их в Google Webmaster Tools как отдельные сайты.
  • Важно определить ценность страницы на основе связанных с ней ключевых слов.
  • Целесообразно анализировать все данные о запросах по трём аспектам: Not Provided, брендированные и небрендированные.
  • Важно постоянно совершенствовать модель атрибуции с тем, чтобы она работала на ресурс.

Завершил секцию доклад Джейка Бохалла (Jake Bohall),вице-президента по маркетингу в Virante, Inc.

Чтобы подробнее разъяснить ситуацию, создавшуюся вокруг поисковых запросов, спикер обратился к высшей математике. Напомнив, что теория хаоса – это раздел математики, который изучает сложные системы, поведение которых отличается высокой чувствительностью к небольшим изменениям условий. Применительно к ситуации с поисковыми запросами это означает следующее: даже небольшие изменения могут привести к весьма заметным изменениям.

Сегодня глобальная сеть представляет собой огромный массив хаотично размещаемых документов и Google пытается всеми силами разобраться в этом хаосе и упорядочить структуру.

Конечно же, ссылочное продвижение до сих пор работает, однако вебмастерам и оптимизаторам уже приходится меняться, чтобы подстраиваться под эффективно развивающийся рынок поиска.

Главные принципы сегодняшнего дня сводятся следующем: важно использовать на сайте лучший контент для повышения релевантности; размещать лучшие ссылки для повышения авторитетности и уникальности ресурса. Умелая работа с UGC позволит продемонстрировать поисковым системам вовлеченность пользователей сайта во взаимодействие с его контентом. Не менее важно привлекать к созданию контента признанных экспертов отрасли.

Имеет смысл использовать микроразметку и структурированные данные – это позволит повысить видимость и кликабельность сниппета в результатах выдачи.

Джейк Бохалл также привел полезный совет по работе с «мёртвыми» ссылками. Он заключается в следующем: важно отыскать страницу, на которую ведет «мёртвая» ссылка, и наполнить ее новым качественным и релевантным контентом. После этого можно попросить дружественные площадки разместить у себя эти ссылки.

«И всё же, производите качественный контент, привлекающий дополнительные ссылки, и не занимайтесь копированием», - подытожил докладчик.

SEO XXL, или Менеджмент при продвижении больших SEO-проектов

Работа с крупными компаниями – это большой плюс для портфолио, большие деньги в бюджет и, нередко, большие проблемы

Джим Бойкин на Pubcon 2014: Об обновлениях алгоритма Google, ссылках и контент-маркетинге

На юбилейной конференции Pubcon 2014 свой доклад на тему «Обновления алгоритма Google» представил ветеран поисковой оптимизации Джим Бойкин (Jim Boykin

SMX 2014: лучшие примеры структурированных данных и их использование

На ежегодной конференции SMX East 2014 состоялась секция «25 лучших примеров структурированных данных» (Smart Examples Of Structured Data You Can Use Now

Pubcon 2014: Семантический поиск, Сеть знаний и другие изменения в SERP Google

В рамках юбилейной 15-й конференции Pubcon Las Vegas 2014 состоялась секция «Семантический поиск, Сеть знаний и другие изменения в SERP» (Semantic Web, Knowledge Graph, and...

6 эффективных SEO-тактик для управления репутацией

Перевод статьи Рэнда Фишкина - генерального директора компании Moz. Компания занимается разработкой ПО для оптимизаторов

Энни Кушинг на SMX East 2014: Визуализация данных и новые возможности брендирования

На конференции SMX East 2014, в рамках работы секции «SEO is Never Dead», выступила Энни Кушинг (Annie Cushing), консультант по вопросам SEO и аналитики Annielytics...