По мере того, как комплексный интернет-маркетинг прочно закрепился на Олимпе онлайн-продвижения, поисковая оптимизация несколько отошла на задний план. Зачем тратить время на ключевые слова, теги и ссылки (все эти технические штуки), если есть платная реклама, соцсети и контент? Несмотря на пренебрежительное к нему отношение, SEO все еще играет очень важную роль для поисковой эффективности сайта.
Используя потенциал внутренней и внешней оптимизации, можно хорошенько прокачать свой сайт (например, улучшить результаты поисковой выдачи, привлечь больше трафика, повысить конверсии). Проблема в том, что грамотное применение SEO звучит просто лишь на словах. SEO не стоит на месте, а Google продолжает разрабатывать обновления для поисковых алгоритмов одно за другим.
Достаточно сложно постоянно оставаться в курсе событий и поддерживать свой сайт на уровне, в соответствии с новыми поисковыми реалиями. Немудрено, что SEO профессионалы постоянно мониторят информационное пространство, чтобы выудить ценные крохи информации о предстоящих изменениях и обновлениях. Беда в том, что в постоянной погоне за новыми фактами многие допускают элементарные ошибки.
В этой статье я представляю обзор пяти глупых, но губительных SEO-ошибок, которые допускают даже профессионалы. Избегайте их любой ценой, потому что они могут разрушить всю вашу маркетинговую кампанию. Итак, поехали!
5 SEO-ошибок, которых нужно избегать
#1 Закрытый от индексации сайт в .htaccess
Если занимаетесь SEO, тогда, вероятнее всего, вы слышали о .htaccess. Одним словом, это файл конфигурации, который используется для хранения определенных директив, которые блокируют или предоставляют доступ к корневым каталогам.
Не могу в очередной раз не акцентировать внимание на важности файлов .htaccess. Если вы знаете, как ими управлять, то вы можете:
● Создать более детальную карту сайта
● Сгенерировать более понятные и читабельный УРЛы
● Усовершенствовать кеширование, чтобы улучшить время загрузки
Если короче, то .htaccess – это очень важный инструмент для отладки процесса индексирования и, соответственно, улучшения поисковой выдачи.
Однако, нужно быть настоящим профессионалом, чтобы правильно установить файл .htaccess. Даже маленькая ошибка может привести к печальным последствиям. Например, можно полностью закрыть свой сайт от индексации вот таким образом:
RewriteCond %{HTTP_USER_AGENT} ^Google.* [OR]
RewriteCond %{HTTP_USER_AGENT} ^.*Bing.*
RewriteRule ^/dir/.*$ – [F]
Если вы видите эти строки кода в своем файле .htaccess, поисковые боты не смогут просмотреть и проиндексировать ваш сайт. Попросите разработчиков удалить код или сделайте это сами.
Проверяйте ваш файл .htaccess каждый раз перед запуском очередного проекта. Некоторые сеошники продвигают и оптимизируют сайты месяцами, даже не подозревая, что все их попытки напрасны. А вы ведь не хотите оказаться в их числе.
#2 Запрет на индексацию в CMS
SEO-плагины CMS платформ, таких как WordPress, Joomla и Drupal, могут поставить под угрозу всю вашу оптимизацию. У них есть встроенные функции, которые дают пользователям возможность задавать поисковым системам инструкции о том, что сайт индексировать не надо. Все, что нужно сделать, это зайти в раздел Настройки – Чтение – Запретить поисковым системам индексировать сайт. Ставите галочку напротив пункта и запрещаете поисковым ботам индексировать сайт.
Проверяйте этот пункт по крайней мере раз в неделю. В конце концов, каждый, у кого есть доступ к CMS, может по ошибке поставить галочку, а это несомненно окажет негативный эффект на вашу кампанию.
На заметку: Иногда поисковые системы могут продолжать индексировать ваш сайт даже если вы поставили галочку. Поэтому, если вы действительно хотите закрыть сайт от индексации, то лучше это сделать через файлы .htaccess и robots.txt.
#3 Открытый для индексации файл robots.txt
Хуже этого не придумать. Запомните: никогда не оставляйте свой файл robots.txt полностью открытым для индексации, поскольку это чревато серьезными проблемами по части конфиденциальности. Можно потерять свой сайт полностью из-за утечки информации.
Если вы новичок, то потратьте какое-то время на изучение информации о настройке и управлении файлом robots.txt. И действуйте незамедлительно, если увидите что-то похожее:
User-Agent: *
Allow: /
Это значит, что поисковые боты могут пройти на каждую страницу сайта и проиндексировать ее. Например, проиндексировать админку, страницу авторизации, корзину, а также динамические страницы (поиск и фильтры). Закрывайте и защищайте персональные страницы ваших пользователей. Просесть в выдаче за десятки спамных динамических страниц вам явно не хочется, так?
Как бы там ни было, убедитесь в том, что вы закрыли страницы, которые должны быть заблокированы, и открыли те, которые должны подлежать индексации. Звучит просто, но требуется время, чтобы научиться этому.
#4 Исходящие ссылки без атрибута “nofollow”
Сеошники знают, что ссылки до сих пор являются важным фактором ранжирования. К сожалению, они сосредотачиваются на внешних ссылках и иногда забывают, что их сайты могут отдавать практически весь ссылочный вес другим сайтам. Что вам нужно, так это и привлекать высококачественные внешние ссылки, и удерживать весь вес у себя на сайте.
Итак, ваша стратегия выглядит просто:
● Пропустите свой сайт через сканнер (Я использую Xenu)
● Отсортируйте ссылки по адресам, чтобы определить исходящие
● Создайте файл Excel со всеми исходящими ссылками (или скачайте стандартный HTML отчет)
● Перепроверьте каждую ссылку из списка на наличие атрибута “nofollow”, если в нем есть необходимость
Однако не переусердствуйте с атрибутом “nofollow”. В попытках приберечь весь «сок» ссылок для себя, вы провоцируете других добавить “nofollow” к ссылкам на ваш сайт. Словом, не злоупотребляйте.
#5 Непроверенный в валидаторе код
Ваш сайт состоит из кода, и чем лучше его качество, тем лучше будут результаты выдачи вашего сайта. Все это потому, что стройный и понятный код позволяет поисковым ботам индексировать ваш сайт более эффективно, не оставляя незамеченной ни одну страницу.
Поэтому каждый раз, когда вы получаете новый проект под продвижение и оптимизацию, убедитесь в том, что вы проверили код. Для этого совсем не нужно быть разработчиком. Вы просто копируете URL сайта и вставляете его в адресную строку The W3C Markup Validation Service. А после – попросите разработчиков исправить ошибки. На картинке ниже изображен типичный отчет из валидатора:
Хотя Google и не наказывает сайты за невалидный HTML и CSS, вам все равно лучше воспользоваться валидатором. В конце концов, это не занимает много времени, но улучшает производительность сайта в глазах пользователей и ботов.
Выводы
Поисковая оптимизация эволюционирует, и SEO-специалистам нужно постоянно трудиться, чтобы успевать за последними обновлениями тактик и алгоритмов. Хорошо, если вы постоянно держите руку на пульсе SEO (это обязательно, вообще-то), только не забывайте об элементарных вещах. От глупых ошибок всегда больше вреда.
А что думаете вы? С какими SEO-ошибками обычно имеете дело вы? Делитесь вашими мыслями в комментариях.