SearchLove 2014: SEO, основанное на данных

0

27-28 октября в Лондоне прошла двухдневная конференция SearchLove 2014. Во время этого мероприятия традиционно были рассмотрены вопросы поискового продвижения, внутренней аналитики сайтов и оптимизации, разработки стратегий ссылочного продвижения и маркетинговых кампаний.

В рамках программной части конференции прозвучал доклад Дэвида Соттимано (David Sottimano), ведущего SEO-консультанта компании Distilled, «SEO, основанное на данных» («Data Driven SEO»), посвященный автоматизации поискового продвижения интернет-ресурсов.

IMG_4341.JPG

Может ли пост ранжироваться только по ключевым словам в URL? Ответ: Да.

Что делает мета-тег noindex? Зачем его проставлять? Атрибут noindex удаляет страницу из индекса поисковых систем. Кроме того, он влияет на показатель сканирования робота Googlebot:

searchlove-london-dave-sottimano-using-data-to-win-arguments-6-638.jpg

По мнению спикера, основной вопрос, который волнует пользователей,  можно ли доверять информации, представленной в статье на сайте? Важное значение при этом имеют следующие элементы страницы:

  • Указание автора;
  • Наличие информации об авторе;
  • Наличие фото автора;
  • Логотип;
  • Контактная информация;
  • Кнопки социальных сетей (social proof).

searchlove-london-dave-sottimano-using-data-to-win-arguments-24-638.jpg

Вот зачем нужно управляемое данными SEO, отметил докладчик. Фраза «лучшие специлисты» – всего лишь общее выражение, которое не имеет ничего общего с действительностью. Пользователь хочет знать, чей контент он читает, и иметь возможность составить свое впечатление о его авторе при помощи поиска в интернете.

По словам докладчика, постулат "Больше исходящих, меньше входящих ссылок" – работает, но не всегда.

Чем проще применяемые схемы – тем лучше. Иногда нужны дополнительные данные. Вопрос состоит в том, где и как их получать. Сводные таблицы и графики, которые SEO-специалисты делают для клиентов выглядят примерно так:

searchlove-london-dave-sottimano-using-data-to-win-arguments-34-638.jpg

Этого можно избежать. «Нужно направить подходящих людей на подходящие страницы, и не надо ничего изобретать с трафиком!», — отметил докладчик.

Докладчик также сообщил, что для многоязычных версий веб-сайтов необходимо использовать атрибуты hreflang и rel=“canonical”, чтобы помочь сканирующему боту Google определить качество контента и его целевую аудиторию. Если все сделать правильно, Google будет считать, что контент предназначен именно для этого региона.

Атрибут hreflang (hreflang: rel=“alternate” hreflang=“x”) применим к многоязычным веб-сайтам, страницы которых наполнены в основном одним и тем же контентом, либо к страницам, с дублированным контентом на одном языке, но ориентированном на разные регионы. А многоязычный канонический тег (rel=“canonical”) сообщает гуглоботу, что определенный URL предпочтительнее остальных; что это наиболее важная переведенная версия контента какого-то URL.

Перед использованием атрибуты hreflang и canonical обязательно нужно протестировать. Перед началом тестирования важно тщательно продумать всё, что будет проверяться:

searchlove-london-dave-sottimano-using-data-to-win-arguments-42-638.jpg

Как понять, работает ли конфигурация? Для этого нужно обратить внимание на следующие данные:

  • Ранжирование ресурса в выдаче;
  • Органический трафик;
  • Правильные страницы, которые отображаются в правильных странах.

Иногда имеет смысл правильно настроить региональные версии сайтов, и ресурс будет лучше ранжироваться в выдаче, отметил докладчик.

Он также дал слушателям несколько советов:

Сценарий № 1: Я забыл отследить данные. 

Чтобы увидеть историю страницы, можно использовать такие инструменты, как Semrush.com; Screenshots.com или Spyfu.com.

Сценарий № 2: Как найти примеры в Сети? 

Чтобы пофиксить различные сценарии на страницах, можно использовать такие инструменты, как Nerdydata.com и Linkrisk.com.

Сценарий № 3: Не получается открыть CSV-файл в Excel. 

Проблемы с тайтлами веб-страниц помогут решить Delimite и reCsvEditor:

searchlove-london-dave-sottimano-using-data-to-win-arguments-65-638.jpg

Сценарий № 4: Нужны данные по всем веб-страницам. 

Помогут инструменты Import.io и Scrappinghub.com:

searchlove-london-dave-sottimano-using-data-to-win-arguments-67-638.jpg

Дэвид Соттимано обратил внимание аудитории на то, что в будущем поиск будет становиться всё более сложным. Зачем SEO-специалисты пытаются анализировать огромные массивы машинных данных?

searchlove-london-dave-sottimano-using-data-to-win-arguments-74-638.jpg

Докладчик рассказал, что он использует данные по органическим сессиям пользователей в качестве объективного показателя хорошей или плохой работы ресурса. Ниже показано, как с помощью статистики поисковых запросов по блогу можно определять эффективность работы:

searchlove-london-dave-sottimano-using-data-to-win-arguments-76-638.jpg

В процентах это выглядит так:

searchlove-london-dave-sottimano-using-data-to-win-arguments-77-638.jpg

В настоящее время, отметил спикер, технологии машинного обучения набирают силу. Поисковые системы лучше аналитиков умеют определять качество каждой из составляющих веб-сайта: как контента, так и технических аспектов.

Изменилось многое, если раньше можно было списаться с блогером по e-mail и обменяться гостевыми постами, то сегодня этот контент, да и способ его распространения, совершенно бесполезны. 

Дэвид Соттимано настоятельно порекомендовал слушателям не использовать метрики, которые сильно коррелируют со статистикой ранжирования.