Автор: Пратик Долакия (Pratik Dholakiya) – сооснователь и вице-президент агентства интернет-маркетинга E2M, Индия.

SEO – это больше, чем входящий маркетинг. Между ними есть пересечения, но нередко техническая часть SEO игнорируется. Особенно теми, кто не слишком глубоко интересуется поисковой оптимизацией.

Как тот, кто тратит много времени, анализируя сайты на предмет возможностей для оптимизации, я замечаю паттерны, которые часто повторяются: технические ошибки, возникающие вновь и вновь.

Давайте подробнее рассмотрим эти ошибки. Если мой опыт мне не изменяет, высока вероятность, что вы допускаете как минимум одну из них.

1. Использование атрибута Nofollow для собственных URL

В жизни каждого SEO-специалиста наступает момент, когда возникает необходимость убрать страницу из результатов поиска: чтобы предотвратить появление дублей контента, скрыть определённые области сайта, не допустить попадания страниц с некачественным контентом в индекс поисковой системы, скрыть архивы и внутренние страницы поиска и т.п. Всё это достаточные причины, но:

Никогда не используйте атрибут Nofollow с этой целью!

Атрибут Nofollow не предотвращает индексацию страницы поисковыми системами, но нарушает поток PageRank, проходящий через сайт.

По этой же причине, не следует пытаться скульптурироватьPageRank, используя этот атрибут. Позвольте объяснить, почему.

Атрибут Nofollow не предотвращает передачу PageRank через ссылку, но Google по-прежнему принимает во внимание общее количество ссылок на странице при определении того, сколько PR должно быть передано. Другими словами, ссылки передадут одинаковое количество PageRank, независимо от того, были ли другие ссылки на странице закрыты атрибутом Nofollow.

Тем не менее, я по-прежнему часто вижу эту ошибку: новички в SEO и вебмастера используют атрибут Nofollow для собственного контента, думая, что это поможет предотвратить показ страницы в результатах поиска, или же думая, что таким образом они смогут перенаправить PageRank к самым важным страницам. Атрибут Nofollow не решает ни одну из этих задач.

Когда вы используете атрибут Nofollow, вы попросту выбрасываете PageRank. Не делайте этого – даже на тех страницах, которые вы не хотите индексировать. Если вы хотите, чтобы страница выпала из индекса, используйте заголовок HTML:

<meta name="robots" content="noindex, follow">

Эта директива предотвращает попадание страницы в результаты поиска, но рекомендует поисковой системе пройти по ссылкам на странице. В результате PageRank, который перетекает на неиндексируемую страницу, будет передан обратно сайту через ссылки на странице, а не пропадёт впустую.

2. Отказ от каноникализации

Элемент <link> с атрибутом rel=»canonical» в разделе <head> выглядит так:

<link rel="canonical"href="http://www.example.com/url-a.html"/>

Он сообщает поисковым системам, что вместо текущей страницы нужно индексировать другой URL как основной.

Зачем использовать этот атрибут? Его цель – предотвратить индексацию дублированного контента, которая может привести к разводнению авторитетности сайта в поисковой системе. Использование канонического тега также позволяет передать PageRank из неканонической страницы на каноническую. Поэтому в таком случае нет причин волноваться о потере PageRank, который аккумулирован неканонической страницей.

Это то место, где специалисты по оптимизации конверсии часто терпят неудачу.  На странице, которая изменяется в ходе A/B-теста, должен использоваться канонический тег. Это нужно для того, чтобы альтернативная страница не индексировалась (а приобретаемая ею авторитетность передавалась основной странице).

Дубликаты также могут создаваться каждый раз, когда в URL-адресах используются строки запросов. По этой причине каноникализация на уровне сайта в целом может быть хорошим решением для тех ресурсов, которые используют строки запросов. Канонические страницы, которые ссылаются сами на себя, также обычно не расцениваются как ошибка.

3. Ошибки в использовании исходящих ссылок

Если вы ссылаетесь на другой сайт в меню навигации на уровне сайта, и это не один из ваших профилей в соцсетях, тогда вам следует удалить эту ссылку.

С точки зрения PageRank, внешние ссылки разводняют авторитетность, которая передаётся сайту. Это не значит, что вам не следует ссылаться на другие сайты. Однако внешние ссылки в навигации сайта увеличивают потери, затрагивая каждую страницу.

Конечно, работа алгоритма PageRank за все годы его существования претерпела некоторые изменения. Однако есть ещё одна причина, почему нужно отказаться от внешних ссылок в меню навигации: их легко принять за спам.

Ещё хуже, если в тексте ссылок используется ключевое слово или же ссылки расположены там, где их можно принять за внутреннюю навигацию по сайту.

Исходящие ссылки в основном контенте обычно не являются проблемой. Но важно отслеживать их качество. Ссылки на спам-ресурсы могут привести к попаданию сайта под санкции Google или снижению его позиций в выдаче.

Кроме того, критически важно всегда закрывать атрибутом Nofollow рекламные ссылки любого вида.

4. Недостаточное количество исходящих ссылок

Здесь определённо применима идея, которая звучит так: «Мало знаний – много бед». Ограниченное понимание того, как работают поисковые системы, приводит к мнению о том, что на другие сайты ссылаться нельзя. Хотя это мнение может быть оправдано с точки зрения концепции «чистого» PageRank, на самом деле всё не совсем так. И исследование RebootOnline ясно это показало.

Специалисты компании создали 10 сайтов, которые содержали бессмысленные ключевое слово. При этом пять из них содержали авторитетные исходящие ссылки, а пять – нет.

Полученные данные показали, что все пять сайтов с исходящими ссылками демонстрировали лучшие результаты, чем ресурсы без них.

В посте о скульптурировании PageRank бывший глава команды по борьбе с веб-спамом Мэтт Каттс также упомянул, что «отдельные части системы Google поощряют ссылки на хорошие сайты». Это высказывание подтверждает мнение о том, что ссылаться на другие сайты можно и нужно.

Позже Джон Мюллер заявил, что исходящие ссылки не являются фактором ранжирования Google. При этом он добавил, что они могут добавить ценности контенту и сделать его более релевантным для поисковой системы. В контексте исследования Reboot Online и заявления Мэтта Каттса это высказывание можно интерпретировать так: добавление упоминаний повышает уверенность в контенте.

Независимо от этого, наличие контента с хорошими источники – это необходимость, поскольку он может оказывать непрямое, но положительное влияние на ранжирование сайта в поиске.

5. Ошибки в структуре внутренних ссылок

Существует несколько способов структурировать ссылки. При этом некоторые из них могут привести к проблемам для ресурса.

Давайте начнём с основ. В руководстве по оптимизации сайтов для Google говорится следующее:

«Создавайте сайт с использованием логической структуры ссылок. На каждую страницу должен быть доступен переход хотя бы по одной статической текстовой ссылке».

Современная система управления контентом обычно делает это автоматически. Тем не менее, иногда случаются сбои.

Один из опасных мифов гласит, что в качестве канонической страницы можно указывать главную. В реальности, лучше оставить всё, как есть, или поставить каноническую ссылку на страницу, которая содержит полную версию публикации. То же самое справедливо для архивов и похожих страниц. Каноникализация этих страниц может привести к удалению ссылок, расположенных на них, из индекса поисковой системы.

Ещё одна распространённая проблема – плоская ссылочная архитектура. Некоторые специалисты считают, что практически каждая страница должна быть доступна через ссылки в меню навигации. С точки зрения пользователя, это создаёт очевидную проблему, затрудняя нахождение нужных страниц.

То же замешательство передаётся и поисковым системам и влияет на то, как они интерпретируют сайт. Без чёткой иерархии поисковикам очень трудно понять, какие страницы на сайте являются самыми важными, какие страницы какие темы освещают и т.п.

Помните, что PageRank – это не единственный алгоритм в составе Google. Иерархия категорий помогает поисковым системам понимать сайт семантически, что очень важно для ранжирования.

Следите за облаками тегов и длинными списками датированных архивов. В современных CMS-темах они отображаются намного реже, но они по-прежнему часто встречаются. Поэтому вы должны знать, что их нужно избегать. Списки датированных архивов, в частности, не добавляют никакой семантической информации в ссылочную архитектуру сайта. При этом ссылки категорий – намного лучше организовывают материалы на сайте, чем облака тегов.

Наконец, мы настоятельно рекомендуем вам ссылаться на свой контент в теле документа. Обычно считается, что контекстуальные ссылки в теле документа имеют больший вес, чем ссылки в навигации. Поэтому они определённо добавляют семантической ценности ресурсу.

6. Ошибки в адресной архитектуре

Оптимизация адресной архитектуры (URL architecture) может быть сложной задачей без знания других аспектов SEO. Поэтому мы не рекомендуем спешить с этим вопросом, чтобы не принести сайту больше вреда, чем пользы.

Частые проблемы при использовании папок для организации контента:

  • Дублирование контента. Если посты в блогах включают несколько категорий, то это приводит к их попаданию в несколько папок и появлению дублированного контента.
  • URL-ы, которые не включены ни в одну папку, кроме родительского домена. Хотя это наиболее подходящая форма для важных страниц, те страницы, которые расположены ниже в иерархии, должны включаться в папки для их категоризации.
  • URL с папками, которые являются страницами 404. Если URL-адрес указан в папке, многие пользователи ожидают, что эта папка будет расположена на действующей странице. С точки зрения архитектуры, это вводит в заблуждение. С точки зрения внутренних ссылок, идеальный вариант – наличие ссылок на эти страницы из родительской папки.
  • «Мусорные» URL, заполненные номерами и буквами. В наши дни они преимущественно зарезервированы за страницами результатов поиска и запросами в базах данных, которые не предназначены для индексирования и нахождения в поисковых системах. Ваши URL должны содержать полезную информацию, чтобы занимать высокие позиции в поисковой выдаче.

При решении этих проблем важно избежать создания страниц с ошибкой 404 и потери существующей авторитетности ссылок. Когда вы меняете архитектуру URL, вам нужно убедиться, что пользователи с помощью 301 редиректа перенаправляются со старых страниц на новые. В идеале, все внутренние ссылки на старые страницы должны быть обновлены, поскольку PageRank уменьшается всякий раз, когда он проходит через ссылку или 301 редирект.

Примечание. Если посты в блоге отнесены к нескольким категориям, 301 редирект не всегда необходим. Но это верно только в том случае, если вы добавили каноническую ссылку на предпочитаемую страницу.

7. Использование фреймов

Фреймы и плавающие фреймы (iframe) не следует использовать для всего, что должно быть проиндексировано.

В справке Google Search Console о фреймах говорится следующее:

«Google поддерживает фреймы и так называемые плавающие фреймы (iframe) настолько, насколько это возможно. Фреймы могут мешать работе поисковых систем, поскольку они не соответствуют концептуальной модели Интернета. Согласно этой модели, на одной странице должен быть только один URL. Страницы, использующие фреймы или плавающие фреймы, содержат несколько URL-адресов (по одному на каждый фрейм). Google пытается установить соответствие между содержанием, заключенным во фрейме, и страницей, содержащей фреймы, однако сделать это удаётся не всегда».

Это не значит, что вы никогда не должны использовать фреймы. К примеру, встроенные видео YouTube – это пример плавающего фрейма.

Что определённо не стоит делать, так это использовать фреймы как метод навигации по контенту на сайте. Это не только затрудняет индексацию содержимого ресурса, но и разрушает его архитектуру и усложняет поиск контента для пользователей.

8. Использование неиндексируемых форматов

Поисковые системы обладают ограниченными возможностями по сканированию и индексированию контента в изображениях, Flash-файлах, Java-апплетах и видео.

Как и в случае фреймов, это не значит, что вы никогда не должны использовать эти форматы на сайте. Это означает лишь то, что не следует полностью полагаться на поисковые системы, если речь идёт о правильной индексации контента в этих форматах. При их использовании всегда нужно предоставлять альтернативный контент – как для пользователей, так и для поисковых систем.

9. Отсутствие транскрипции для видео

Отказ от загрузки транскрипции или субтитров для видео – одна из основных ошибок, связанных с неиндексируемыми форматами. Транскрипция и субтитры позволяют поисковым системам (и YouTube) понять видео, что в противном случае не всегда возможно.

Исследование Liveclicker показало, что по 37 веб-страницам при добавлении транскрипции доход увеличивался на 16%. А в Digital Discovery Networks  в свою очередь выявили, что видео с субтитрами получают в среднем на 7,32% больше просмотров.

Если транскрипция занимает слишком много места на странице – наилучшим решением будет использовать блок с прокруткой. Альтернативные варианты, которые заключаются в добавлении контента в HTML, что скрывает его от пользователей, могут расцениваться как клоакинг. Поэтому их нужно избегать.

10. Некорректное использование атрибута alt

Как упоминалось выше, следует избегать использования изображений вместо текста, поскольку поисковым системам сложно их интерпретировать, и вряд ли они понимают их так же хорошо, как текст.

Эту проблему помогает решить атрибут alt, который предоставляет текстовое описание изображения в том случае, если оно не может быть показано. Другими словами, если пользователь использует устройство для чтения с экрана, или же используемое человеком устройство не может загрузить изображение, то вместо картинки он увидит текст атрибута alt.

Проблема в том, что многие вебмастера используют атрибут alt некорректно. В частности, для добавления ключевых слов, которые мало связаны с самим изображением. Даже если ключевые слова релевантны содержанию картинки, они зачастую не предоставляют ту информацию, которая нужна тем пользователям, которые не могут увидеть или загрузить изображение.

В целом считается хорошей практикой, если описание изображение не превышает 125 символов. Если картинка представляет собой большую таблицу или инфографику, то этот текст должен быть добавлен в другое место.

11. Непреднамеренный клоакинг

Google расценивает использование клоакинга (маскировки) как нарушение рекомендаций для вебмастеров. Но клоакинг не всегда применяется намеренно. Вероятность того, что Google накажет сайт за непреднамеренный клоакинг, относительно невысока. Тем не менее, чтобы обезопасить себя, лучше полностью избегать этого приёма на сайте.

Как происходит непреднамеренный клоакинг?

Классическим примером клоакинга является размещение на сайте текста, цвет которого совпадает с цветом фона. Это делает контент невидимым для пользователей. При этом поисковые роботы видят его и индексируют.

В прошлом спамеры добавляли в текст, скрытый таким способом, ключевые слова в надежде повысить свою видимость в результатах поиска. Этот приём уже давно не работает, однако некоторые спамеры по-прежнему его используют.

К сожалению, клоакинг может возникнуть случайно, когда некоторые элементы таблицы стилей отображаются в том же цвете, что и фон. Этого следует избегать.

Ещё один пример – это пустые анкорные текстовые ссылки: href-ссылки без анкорного текста. Слишком большое количество таких ссылок может расцениваться как клоакинг.

12. Скрытая переадресация

Скрытыми считаются те редиректы, при использовании которых поисковые системы и пользователи видят разные страницы, или же пользователи перенаправляются на страницу, которую они не собирались посещать.

С мнением Google по этому вопросу можно ознакомиться в Справке SearchConsole.

Мы настоятельно не рекомендуем использовать любой метод переадресации, отличный от перенаправления 301, за редким исключением для 302 редиректов, если они действительно используются как временные. Использование других методов переадресации несёт риски для пользователей, а не для поисковых систем, что приводит к непреднамеренному клоакингу.

Также следует избегать цепочек редиректов и настройки переадресации на нерелевантную страницу. К сожалению, обе эти практики довольно распространены.

Многие вебмастера считают, что больше несуществующие URL не должны возвращать ошибку 404. Поэтому они настраивают переадресацию на нерелевантные страницы. Но Google предпочитает, чтобы вебмастера оставляли страницу 404 вместо перенаправления на нерелевантную страницу, такую как главная.

Редиректы призваны перенаправлять пользователей на идентичные страницы или страницы, которые служат той же цели, что и исходная страница. Редиректы на нерелевантные страницы в лучшем случае рассматриваются как ошибки «soft 404», в худшем – как скрытая переадресация.

Цепочки редиректов приводят к уменьшению передаваемого PageRank из-за демпинг-фактора Google. Кроме того, они также могут расцениваться как скрытая переадресация, если они вводят в заблуждение пользователей и поисковых роботов – намеренно или нет.

13. Отсутствие или дублирование метаописаний

Меня удивляет, как часто встречаются сайты, владельцы которых, как кажется, даже не слышали о метаописаниях. Это одно из тех немногих мест, где поисковые системы дают вам полный контроль. Поэтому вы не можете растрачивать эту возможность впустую. Мне нечего добавить по этому пункту, кроме того, что можно найти везде. Поэтому остановимся на этом. Я не мог просто пропустить этот пункт, потому что этот тип ошибок всё ещё встречается и довольно часто.

Менее очевидной проблемой является дублирование метаописаний. Обычно это происходит потому, что шаблон включает метаописание. В результате на сайте получаются целые разделы с одним и тем же описанием.

Зачастую это делается намеренно, поскольку разработчики слышали о том, что у каждой страницы должно быть метоописание – и это их способ решения этого вопроса. К сожалению, это приносит больше вреда, чем пользы.

Метаописания занимают место автоматического поискового сниппета Google. Поскольку описания, автоматически формируемые Google – это не всегда оптимальный вариант, то используются метаописания.

При этом метаописания не всегда нужны. Моя позиция может показаться спорной, но по моему мнению не каждой странице нужно метаописание, и есть случаи, когда его использование может быть контрпродуктивным.

Например, посты в блоге, ориентированные на long-tail запросы. В описание, формируемое Google автоматически, попадут те фрагменты контента, которые связаны с поисковыми фразами. В некоторых случаях это означает, что автоматические сниппеты Google будут лучше, чем созданные вручную.

Если пост в блоге создан под long-tail запросы, невозможно включить в метаописание все возможные фразы, по которым пользователь может совершать поиск. Добавление метаописания в этом случае может привести к тому, что пользователь не увидит пересечений со своим запросом, и в итоге не кликнет по этому результату.

Как понять, когда нужно добавлять метаописание, а когда – нет?

Этот вопрос по большей части сводится к вашей стратегии по ключевым словам. Для высоко специализированных страниц с чёткой темой пользовательские метаописания – это наилучший выбор. Если же содержимое страницы охватывает большое количество тем, стоит учесть тот риск, что созданное вручную метаописание может фактически препятствовать переходам на сайт из поиска.

Кроме того, важно избегать коротких метаописаний, а также слишком длинных. В большинстве случаев оптимальная длина описания составляет 130-150 символов.

14. Отсутствие XML-карты сайты (или устаревшая карта)

В настоящее время Google сканирует и индексирует сайты намного быстрее, чем в прошлом. Поэтому многие вебмастера не создают карту сайта. Тем не менее, XML Sitemap всё ещё ценный инструмент. И я по-прежнему считаю, что он нужен каждому сайту.

Исследование, опубликованное BruceClay, показало, что после добавления XML-карты количество проиндексиованных страниц увеличивалось с 24% до 68%. Проблемы индексации по-прежнему возникают, и XML-карта сайта всё ещё может помочь их решить.

Убедитесь, что вы отправили файл Sitemap через Google Search Console, и поисковая система знает о наличии карты сайта.

Проверьте, не устарела ли карта? Если вы не используете CMS, которая автоматически обновляет XML Sitemap каждый раз при обновлении контента, то это нужно изменить. В наше время, когда сайты обновляются так часто, статические XML-карты стали практически бесполезными.

15. Некорректное использование подзаголовков

Есть несколько часто встречающихся ошибок, связанных с подзаголовками:

  • Использование тегов H1 для подзаголовков. Пожалуйста, не делайте этого. Тег H1 предназначен для заголовка страницы в целом. Использование его более одного раза может сбить с толку поисковые системы. В результате они не смогут понять тему страницы.
  • Непоследовательное использование подзаголовков. Здесь имеется в виду такие ситуации, когда теги H2 пропускаются и сразу используются теги H3; теги H2 используются в качестве подразделов ещё одного тега H2 и т.п. Теги заголовков создают очень чёткую иерархию для поисковых систем, облегчая сканирование и понимание контента. Поэтому, этот порядок не следует нарушать.
  • Использование тегов заголовков в навигации или меню. Я встречал такие сайты, где целые разделы имели один и тот же тег H1, потому что он был включен в общий заголовок раздела. Это может привести к каннибализации ключевых слов и подобным проблемам. Включение тегов подзаголовков в меню навигации также может вызвать непонимание того, какой контент принадлежит телу документа.
  • Выделение текста жирным или изменение размера вместо тегов подзаголовков. Хотя это не совсем проблема, мы настоятельно рекомендуем использовать теги подзаголовков, за исключением подразделов в подзаголовках. Повторимся, подзаголовки дают поисковым системам очень чёткую и понятную иерархию, что помогает им семантически интерпретировать сайт. Если вы будете менять размер шрифта, использовать жирный шрифт и подобные приёмы, то понять иерархию контента на странице поисковым системам будет сложнее.

16. Ошибки в использовании жирного текста

Хотя корреляционные исследования указывают на то, что выделение ключевых слов жирным положительно влияет на ранжирование, эти результаты легко интерпретировать ошибочно.

SEOPressor провёл эксперимент, чтобы посмотреть, как добавление тегов bold или strong к ключевым словам повлияет на ранжирование. Эксперимент был катастрофой.

Позиции страницы упали с 64 до 84. Понятно, что эксперимент не проводился на ценной странице и не был сопряжён с высокими рисками. Однако полученные результаты говорят сами за себя. Особенно, если учесть тот факт, что после удаления форматирования, позиции страницы вскоре восстановились.

Sycosure провёл своё собственное исследование и получил похожие результаты. После добавления тегов bold к основным ключевым словам в одной из статей, эта страница полностью выпала из результатов поиска. В конечном итоге позиции страницы были восстановлены ещё до удаления тегов bold. Возможно, это произошло благодаря другим сигналам качества, но последствия выделения ключевых слов жирным очевидны.

Таким образом, выделение текста жирным как SEO-тактики следует избегать. При этом можно выделять отдельные фразы или подразделы, чтобы людям было проще воспринимать содержимое страницы. Но если вы выделяете ключевые слова, то сайту могут грозить проблемы.

Ваша очередь

Поймали ли вы себя хотя бы на одной из этих ошибок? Если да, не волнуйтесь – они чрезвычайно часто встречаются. Главное, вовремя их устранять и отказываться от непродуктивных и спорных SEO-тактик.

Редактор-переводчик. Специализируется на западном интернет-маркетинге и SEO. Освещает события в этой области с 2014 года.