Автор: Сергей Сухоплюев, руководитель SEO-отдела в Goaudit.ru 

Если вы наняли специалиста по SEO, то, скорее всего, немного изучили поисковый маркетинг. Наверняка вы слышали про индексацию, ключевые слова, внешние ссылки. Об этом часто пишут в статьях для новичков.

Существуют и другие аспекты оптимизации, о которых знают толковые сеошники, но не подозревают их клиенты. Пример — пункты из чек-листа для SEO-аудита, о которых мы расскажем в этой статье. Эти параметры важны для поисковиков, при этом неочевидны для компаний и почти всегда на сайтах настроены неверно.

Мы не будем углубляться в технические детали, но расскажем достаточно, чтобы даже неспециалист понял, какие именно аспекты поискового маркетинга стоит обсудить с подрядчиком по SEO.

Хостовые факторы

К ним относятся:

— Характеристики 404 страницы

— Скорость загрузки страниц

404 страница должна быть корректно оформлена:

  • Шаблон соответствует дизайну сайта
  • Страница дает возможность вернуться назад или на главную
  • Страница дает возможность посетить важные разделы
  • Страница отдает код ответа 404

Это позволит минимизировать потери трафика. В идеале нужно оформить страницу интересно, чтобы уменьшить количество отказов.

Скорость загрузки — проблема не новая, но это все еще беда многих сайтов. Исследования показывают, что ускорение загрузки сайта приводит к увеличению просмотренных страниц одним пользователем и увеличению доходов для коммерческих сайтов. Задержка на 1 секунду снижает конверсию на 7%. 75% пользователей утверждают, что не вернутся на сайт, который грузится дольше 4 секунд. Почти половина пользователей ждут, что сайт загрузится за 2 секунды или меньше.

Google тоже ценит скорость: с 2010 г. это один из факторов ранжирования.

Несколько советов по оптимизации скорости. Для реализации подключайте разработчиков:

  • Сделать все возможное по рекомендациям PageSpeed Insights
  • Переместить загрузку всех CSS и JS-файлов в конец страницы
  • Включить Gzip-сжатие: checkgzipcompression.com
  • Задать отложенную загрузку компонентов страницы при скроллинге поэкранно, чтобы не требовалась полная загрузка страницы
  • Проверить, не нужно ли вам сменить или оптимизировать сервер
  • Сделать так, чтобы на странице сначала грузилась картинка плохого качества, потом — хорошего
  • Хранить картинки не на сервере, а в CDN (Content Delivery Network)

Сравнение индексов

Очень часто встречается ситуация, когда в Google проиндексировано намного больше страниц, чем в Яндексе. Проблема в том, что Google учитывает все: технические страницы, документы, служебные выгрузки товаров, аккаунты пользователей, PDF-ки. Яндекс же индексирует более избирательно.

Поисковая машина определяет значение сайта с точки зрения поведения пользователей. Что делал пользователь внутри станицы с прайсов в PDF, поисковику непонятно. Чтобы «непонятные» страницы не появлялись в выдаче, Google будет снижать рейтинг вашего сайта.

Кроме того, у поисковика есть лимит на количество страниц, которые он индексирует для каждого сайта. Точное количество индексируемых страниц неизвестно, но лучше не расходовать эту норму на неинформативные разделы. В противном случае страницы с хорошим контентом могут не попасть в выдачу.

Попросите своего программиста сделать так, чтобы технические страницы для пользователей не генерировались. Если же там опубликовано что-то важное, закройте страницу паролем.

Файл robots.txt

Этот файл показывает поисковым системам, какие страницы индексировать, а какие нет. Для Google он сейчас не в приоритете, но Яндекс на 100% следует тому, что написано в robots.txt.

Этот файл всегда находится по адресу site.ru/robots.txt. Обязательно проверьте, не закрыт ли он от индексации. Мы еще такого не видели, но теоретически это может произойти.

Главное зеркало

Скажем, у нас есть два домена: https://goaudit.ru и www.goaudit.ru. С точки зрения поисковых систем это два разных ресурса с одинаковым контентом — значит, в топе выдачи им не место. Кроме того, если пользователи будут вводить разные адреса, ссылочная масса «размажется» между двумя вариантами.

Главное зеркало — тот адрес, который индексирует поисковая система. Его настраивают в файле robots.txt, а также в панелях вебмастера Google и Яндекса. Кроме того, разработчик или сеошник должен «склеить» зеркала в файле htaccess, чтобы переадресовать все страницы на нужный вариант.

Кеширующие заголовки

На каждом сайте содержится информация о том, что там поменялось в последнее время: картинки, тексты, заголовки. Если все настроено корректно, то сайт отдает эту информацию поисковику с помощью заголовка Last-Modified и ответа сервера на запрос If-Modified-Since.

Когда поисковая машина заходит на сайт и видит, что данные не изменились, она не обрабатывает страницу, а восстанавливает ее из кеша. Это уменьшает нагрузку на сервер и ускоряет индексацию.

Специалист по SEO должен следить за тем, чтобы кеширующие заголовки работали корректно, и сервер отдавал правильный ответ на запрос If-Modified-Since. Проверить работу можно с помощью этого сервиса:

Содержимое поддоменов

У каждого второго сайта мы находим индексированные поддомены, на которых опубликована копия сайта, спамный контент, вирусы.

Например, на поддомене может располагаться архивная версия форума, которая уже не работает и не обновляется. Используя ошибки в движке форума, спам-боты могут оставлять ссылки на спамные ресурсы.

Иногда разработчики закрывают поддомены в robots.txt, но Google все равно их находит. Такие страницы нужно закрыть паролем, а неактуальные поддомены — удалить.

Уровень вложенности страниц

При аудите сайтов мы почти всегда находим страницы, до которых можно добраться только после 6-7 кликов от главной. Чем дальше «запрятана» страница, тем худшие параметры она имеет для поисковой системы. Поэтому если на недосягаемой странице лежит товар, который важен для компании, это нужно исправлять.

Пользователь должен приходить на любую страницу сайта максимум за 3-4 клика. Если товар находится на десятой странице каталога, для него можно создать «псевдокатегорию» — подборку или листинг по ссылке с 2-3 уровнями вложенности.

AMP-страницы

Допустим, на вашем ресурсе есть страница со статьей. У нее дизайн как у сайта, есть картинки, попапы, формы подписки и т.д. Эти крупные элементы не нужны пользователям мобильных устройств. Поэтому Google внедрил AMP-страницы — облегченный вариант обычных страниц сайта:

Обычная страница

AMP-страница

Google сохраняет в кеш именно AMP-страницу. Если пользователь переходит на сайт с мобильного устройства, у него открывается не полноценная статья, а облегченная версия из кеша.

Теперь мобильной версии сайта не достаточно для поисковых систем. К ней добавляются AMP-станицы.

Доля естественных ссылок

Внешние ссылки на ваш ресурс увеличивают эффективность оптимизации в поисковых системах. Проблема в том, что некоторые ссылки имеют коммерческую направленность: раньше сеошники закупали их на биржах. И даже если вы больше этим не грешите, искусственная ссылочная масса может навредить SEO.

Чтобы определить долю естественных ссылок, можно использовать сервис МегаИндекс:

Если на сайте хотя бы 30-40% покупных ссылок — это проблема. Как ее исправить:

  1. Купить ссылки (как ни странно). Но они должны быть естественные с точки зрения поисковых систем: например, с тематических форумов, которые помогают людям. На эти ссылки должны кликать реальные пользователи
  2. Выгрузить все коммерческие ссылки и собрать базу доменов, где они опубликованы. Далее, найти контактные данные владельцев всех ресурсов и договориться с ними об удалении ссылок.

Мы перечислили самые неочевидные и массовые ошибки в SEO, которые находим при аудитах. Ошибки в текстах, метатегах, использовании ключевиков тоже распространены, но про них и так достаточно информации в интернете. Теперь вам будет легче найти общий язык с SEO-специалистом и оценить результаты его работы.

Счастливого пути в ТОП!

Журналист, новостной редактор, работает на сайте с 2009 года. Специализация: интернет-маркетинг, SEO, поисковые системы, обзоры профильных мероприятий, отраслевые новости рунета.
Языки: румынский, испанский.
Кредо: Арфы нет, возьмите бубен.