Три пункта, которые обязательно должны быть в плане SEO-аудита

Автор: Энн Смарти (Ann Smarty) – комьюнити и бренд-менеджер агентства Internet Marketing Ninjas. Бывший главный редактор Search Engine Journal и CEO одного из самых популярных сервисов гостевого блоггинга MyBlogGuest.com.

Подготовка качественной SEO-отчётности – это непростая задача. В нашей отрасли так много противоречащих друг другу и устаревших советов, что во многих случаях оптимизаторы склонны фокусироваться на популярных терминах, а не действительно важных моментах.

За время своей работы в SEO я просмотрела сотни отчётов и часто сталкивалась с трудностями при разработке плана дальнейших действий по оптимизации сайта.

Но в этой статье мы поговорим о другом: о тех важных пунктах, которые обязательно нужно проверять во время SEO-аудитов, но большинство оптимизаторов этого не делает. Исходя из последних просмотренных мною отчётов, таких пунктов будет три.

  1. Завершающие слеши в URL

Одной из самых частых проблем со структурированием URL-адресов является отсутствие проверки того, работают ли ваши URL с завершающим слешем и без него.

Я уже писала статью на эту тему в 2009 году, но она актуальна до сих пор.

Основные выводы:
  • Лучшей практикой является корректная работа обеих версий.
  • Google официально рекомендует настраивать переадресацию 301 с одной версии на другую, что можно делать даже в том случае, если обе версии работают.
  • Помимо случайного появления нерабочих ссылок (например, некоторые HTML-редакторы добавляют «/» в конец URL автоматически), это может привести к более низким позициям в ранжировании и потере трафика/конверсий (если другие сайты ссылаются на нерабочие версии страниц).

Для диагностики таких страниц можно использовать бесплатный Website Crawler от SEOchat. Как показала практика, он находит эти проблемы чаще, чем другие инструменты.

Вы также можете пропустить несколько случайно выбранных URL через инструмент Header Checker, чтобы посмотреть, работают ли они.

Стивен Кенрайт (Stephen Kenwright) из Branded3 предлагает следующую схему действий:

  • Настройте 301 редиректы с одной версии на другую через файл .htaccess.
  • Если это невозможно, используйте rel=canonical. Это также сократит риск дублирования контента [Примечание: это решение может использоваться только в том случае, когда обе версии страницы работают].
  • Будьте последовательны в своём выборе.
  1. Отсутствие подзаголовков

Раньше мы называли подзаголовки h2-h3 «семантической структурой» и рекомендовали использовать их для того, чтобы сделать ключевые слова более заметными.

Согласно руководству W3C по структуре HTML-документа, теги h1-h6 кратко описывают тему того раздела, к которому относятся и могут использоваться агентами пользователя для автоматического создания оглавления документа.

Других выгод от их использования на тот момент не было.

На сегодняшний день всё изменилось, поскольку использование тегов h2 и добавление в них ключевых слов помогает сайту попасть в блоки с ответами Google – так называемые «featured snippets».

Алгоритм, который отвечает за формирование и ранжирование блоков с ответами, меняется практически ежедневно. Поэтому попасть в них нелегко, но с помощью тегов подзаголовков сделать это проще.

Netpeak Spider – отличный инструмент для диагностики h-структуры сайта в целом. Сервис предоставляет подробный отчёт:

  1. Некачественный контент

Так называемый «thin content» (неинформативное содержимое, не имеющее ценности для пользователей; букв. «тонкий» контент) может значительно влиять на позиции сайта в поисковой выдаче.

Как определяется такой контент:

  • Малое количество оригинального содержимого на странице (обычно, параграф или два);
  • Отсутствие положительных сигналов (ссылки, клики/трафик, упоминания/репосты. Последний пункт также является индикатором вовлечённости пользователей).

Практически все оптимизаторы слышали о «тонком» контенте, но в отчётах этот пункт практически не встречается.

Почему? Этому есть две причины:

  • Такой контент сложно диагностировать;
  • Такой контент сложно объяснить (как убедить клиента со 100-страничным сайтом в необходимости инвестиций в улучшение существующего контента и консолидацию низкокачественных страниц?).

Наличие большого количества низкокачественнего контента на сайте может негативно сказаться на позициях ресурса в целом. Если краулеры поисковых систем находят большой процент такого содержимого на сайте, они могут решить, что сайт в целом также не имеет большой ценности. В итоге он может попасть под фильтр «Панда», который теперь является частью поискового алгоритма Google.

Так, директор Internet Marketing Ninjas Джим Бойкин (Jim Boykin) считает, что низкокачественный контент очень часто является причиной снижения позиций сайтов:

«Когда ваш сайт попадает под санкции, то практически всегда ответ о причинах звучит так: «У вас слишком много “тонкого” контента».

Именно по этой причине сайт может медленно, но верно, терять свои позиции в ранжировании Google. Однако диагностировать это очень сложно:

  • Google больше не сообщает об обновлениях, связанных с низкокачественным контентом;
  • Потеря позиций происходит постепенно, поэтому сложно выяснить, когда и почему это началось;
  • Страницы, теряющие позиции, могут быть лучшего качества, чем остальные страницы сайта. «Тонкий» контент не может ранжироваться вечно. При этом он начинает негативно влиять на те страницы, которые продолжают ранжироваться.

Как и в случае дублированного контента, эти пессимизации нельзя назвать санкциями. Даже если «тонкий» контент тянет ваш сайт вниз, это не санкции. Это часть деятельности Google, направленной на предоставление пользователям более качественных результатов поиска.

Источник: Search Engine Watch
preview Правда и мифы об LSI в SEO

Правда и мифы об LSI в SEO

В этой статье мы развенчаем теорию о том, что использование «LSI-ключевых слов» оказывает положительное влияние на SEO, и предложим несколько более эффективных стратегий взамен
preview RankBrain-оптимизация: стратегия и советы

RankBrain-оптимизация: стратегия и советы

RankBrain меняет фокус SEO-стратегии - это не классический алгоритм, вроде Panda или Penguin, под который можно проводить оптимизацию в привычном понимании этого слова...
preview 13 лучших практик по оптимизации XML-карты сайта

13 лучших практик по оптимизации XML-карты сайта

Создание XML-карты сайта – это важный шаг в оптимизации любого ресурса. В этой статье мы обсудим самые важные моменты, которые нужно знать при работе с файлами Sitemap
preview Еще один альтернативный метод определения аффилиатов в Яндексе

Еще один альтернативный метод определения аффилиатов в Яндексе

Несмотря на то, что гибкий и универсальный способ определения аффилированности двух сайтов в Яндексе, предложенный мной в статье «Проверка аффилированности двух сайтов в...
preview 10 способов ускорить загрузку сайта

10 способов ускорить загрузку сайта

В этой статье мы рассмотрим 10 способов, с помощью которых можно повысить скорость загрузки сайта и улучшить пользовательский опыт
preview Яндекс тестирует новую вертикаль поиска по рекламным объявлениям

Яндекс тестирует новую вертикаль поиска по рекламным объявлениям

Яндекс проводит тестирование новой вертикали поиска по объявлениям Директа на странице выдачи. Об этом сообщил попавший в экспериментальную выборку seo-эксперт Павел Лукин