5 глупых SEO-ошибок, которые допускают даже профессионалы

По мере того, как комплексный интернет-маркетинг прочно закрепился на Олимпе онлайн-продвижения, поисковая оптимизация несколько отошла на задний план. Зачем тратить время на ключевые слова, теги и ссылки (все эти технические штуки), если есть платная реклама, соцсети и контент? Несмотря на пренебрежительное к нему отношение, SEO все еще играет очень важную роль для поисковой эффективности сайта.

Используя потенциал внутренней и внешней оптимизации, можно хорошенько прокачать свой сайт (например, улучшить результаты поисковой выдачи, привлечь больше трафика, повысить конверсии). Проблема в том, что грамотное применение SEO звучит просто лишь на словах. SEO не стоит на месте, а Google продолжает разрабатывать обновления для поисковых алгоритмов одно за другим.

Достаточно сложно постоянно оставаться в курсе событий и поддерживать свой сайт на уровне, в соответствии с новыми поисковыми реалиями. Немудрено, что SEO профессионалы постоянно мониторят информационное пространство, чтобы выудить ценные крохи информации о предстоящих изменениях и обновлениях. Беда в том, что в постоянной погоне за новыми фактами многие допускают элементарные ошибки.

В этой статье я представляю обзор пяти глупых, но губительных SEO-ошибок, которые допускают даже профессионалы. Избегайте их любой ценой, потому что они могут разрушить всю вашу маркетинговую кампанию. Итак, поехали!

5 SEO-ошибок, которых нужно избегать

#1 Закрытый от индексации сайт в .htaccess

Если занимаетесь SEO, тогда, вероятнее всего, вы слышали о .htaccess. Одним словом, это файл конфигурации, который используется для хранения определенных директив, которые блокируют или предоставляют доступ к корневым каталогам.

Не могу в очередной раз не акцентировать внимание на важности файлов .htaccess. Если вы знаете, как ими управлять, то вы можете:

● Создать более детальную карту сайта

● Сгенерировать более понятные и читабельный УРЛы

● Усовершенствовать кеширование, чтобы улучшить время загрузки

Если короче, то .htaccess – это очень важный инструмент для отладки процесса индексирования и, соответственно, улучшения поисковой выдачи.

Однако, нужно быть настоящим профессионалом, чтобы правильно установить файл .htaccess. Даже маленькая ошибка может привести к печальным последствиям. Например, можно полностью закрыть свой сайт от индексации вот таким образом:

RewriteCond %{HTTP_USER_AGENT} ^Google.* [OR]

RewriteCond %{HTTP_USER_AGENT} ^.*Bing.*

RewriteRule ^/dir/.*$ – [F]

Если вы видите эти строки кода в своем файле .htaccess, поисковые боты не смогут просмотреть и проиндексировать ваш сайт. Попросите разработчиков удалить код или сделайте это сами.

Проверяйте ваш файл .htaccess каждый раз перед запуском очередного проекта. Некоторые сеошники продвигают и оптимизируют сайты месяцами, даже не подозревая, что все их попытки напрасны. А вы ведь не хотите оказаться в их числе.

#2 Запрет на индексацию в CMS

SEO-плагины CMS платформ, таких как WordPress, Joomla и Drupal, могут поставить под угрозу всю вашу оптимизацию. У них есть встроенные функции, которые дают пользователям возможность задавать поисковым системам инструкции о том, что сайт индексировать не надо. Все, что нужно сделать, это зайти в раздел Настройки – Чтение – Запретить поисковым системам индексировать сайт. Ставите галочку напротив пункта и запрещаете поисковым ботам индексировать сайт.

Проверяйте этот пункт по крайней мере раз в неделю. В конце концов, каждый, у кого есть доступ к CMS, может по ошибке поставить галочку, а это несомненно окажет негативный эффект на вашу кампанию.

На заметку: Иногда поисковые системы могут продолжать индексировать ваш сайт даже если вы поставили галочку. Поэтому, если вы действительно хотите закрыть сайт от индексации, то лучше это сделать через файлы .htaccess и robots.txt.

#3 Открытый для индексации файл robots.txt

Хуже этого не придумать. Запомните: никогда не оставляйте свой файл robots.txt полностью открытым для индексации, поскольку это чревато серьезными проблемами по части конфиденциальности. Можно потерять свой сайт полностью из-за утечки информации.

Если вы новичок, то потратьте какое-то время на изучение информации о настройке и управлении файлом robots.txt. И действуйте незамедлительно, если увидите что-то похожее:

User-Agent: *

Allow: /

Это значит, что поисковые боты могут пройти на каждую страницу сайта и проиндексировать ее. Например, проиндексировать админку, страницу авторизации, корзину, а также динамические страницы (поиск и фильтры). Закрывайте и защищайте персональные страницы ваших пользователей. Просесть в выдаче за десятки спамных динамических страниц вам явно не хочется, так?

Как бы там ни было, убедитесь в том, что вы закрыли страницы, которые должны быть заблокированы, и открыли те, которые должны подлежать индексации. Звучит просто, но требуется время, чтобы научиться этому.

#4 Исходящие ссылки без атрибута “nofollow”

Сеошники знают, что ссылки до сих пор являются важным фактором ранжирования. К сожалению, они сосредотачиваются на внешних ссылках и иногда забывают, что их сайты могут отдавать практически весь ссылочный вес другим сайтам. Что вам нужно, так это и привлекать высококачественные внешние ссылки, и удерживать весь вес у себя на сайте.

Итак, ваша стратегия выглядит просто:

● Пропустите свой сайт через сканнер (Я использую Xenu)

● Отсортируйте ссылки по адресам, чтобы определить исходящие

● Создайте файл Excel со всеми исходящими ссылками (или скачайте стандартный HTML отчет)

● Перепроверьте каждую ссылку из списка на наличие атрибута “nofollow”, если в нем есть необходимость

Однако не переусердствуйте с атрибутом “nofollow”. В попытках приберечь весь «сок» ссылок для себя, вы провоцируете других добавить “nofollow” к ссылкам на ваш сайт. Словом, не злоупотребляйте.

#5 Непроверенный в валидаторе код

Ваш сайт состоит из кода, и чем лучше его качество, тем лучше будут результаты выдачи вашего сайта. Все это потому, что стройный и понятный код позволяет поисковым ботам индексировать ваш сайт более эффективно, не оставляя незамеченной ни одну страницу.

Поэтому каждый раз, когда вы получаете новый проект под продвижение и оптимизацию, убедитесь в том, что вы проверили код. Для этого совсем не нужно быть разработчиком. Вы просто копируете URL сайта и вставляете его в адресную строку The W3C Markup Validation Service. А после – попросите разработчиков исправить ошибки. На картинке ниже изображен типичный отчет из валидатора:

Хотя Google и не наказывает сайты за невалидный HTML и CSS, вам все равно лучше воспользоваться валидатором. В конце концов, это не занимает много времени, но улучшает производительность сайта в глазах пользователей и ботов.

Выводы

Поисковая оптимизация эволюционирует, и SEO-специалистам нужно постоянно трудиться, чтобы успевать за последними обновлениями тактик и алгоритмов. Хорошо, если вы постоянно держите руку на пульсе SEO (это обязательно, вообще-то), только не забывайте об элементарных вещах. От глупых ошибок всегда больше вреда.

А что думаете вы? С какими SEO-ошибками обычно имеете дело вы? Делитесь вашими мыслями в комментариях.

preview Машинное обучение в поиске Яндекса или Как устроен Матрикснет

Машинное обучение в поиске Яндекса или Как устроен Матрикснет

Матрикснет – это градиентный бустинг на деревьях решений, который поддерживает все основные режимы: классификации, мультиклассификации, регрессии, ранжирования и др
preview 4 самых важных фактора ранжирования Google в 2017 году

4 самых важных фактора ранжирования Google в 2017 году

Какие факторы будут оказывать наиболее сильное влияние на ранжирование сайтов в нынешнем году? Рассмотрим в статье
preview Настройка индексирования нового сайта

Настройка индексирования нового сайта

При работе над новым сайтом перед вебмастером возникает огромное количество вопросов: как организовать каталог, куда разместить информационные статьи, что делать с фильтрами… У...
preview Ошибки настройки систем веб-аналитики, ведущие к неверным решениям

Ошибки настройки систем веб-аналитики, ведущие к неверным решениям

Как известно, самые простые счетчики, которые есть у всех, это Яндекс.Метрика и Google Analytics...
preview 5 современных тактик внутренней оптимизации

5 современных тактик внутренней оптимизации

По мере развития поисковых систем традиционные методы оптимизации теряют свою актуальность, уступая место новым приёмам...
preview Кастрация языка запросов Яндекса

Кастрация языка запросов Яндекса

31 января 2017 года в блоге разработчиков поисковой системы Яндекс появилась новость об изменении языка запросов, а именно, о прекращении поддержки ряда операторов: • & – поиск...