По мере того, как комплексный интернет-маркетинг прочно закрепился на Олимпе онлайн-продвижения, поисковая оптимизация несколько отошла на задний план. Зачем тратить время на ключевые слова, теги и ссылки (все эти технические штуки), если есть платная реклама, соцсети и контент? Несмотря на пренебрежительное к нему отношение, SEO все еще играет очень важную роль для поисковой эффективности сайта.

Используя потенциал внутренней и внешней оптимизации, можно хорошенько прокачать свой сайт (например, улучшить результаты поисковой выдачи, привлечь больше трафика, повысить конверсии). Проблема в том, что грамотное применение SEO звучит просто лишь на словах. SEO не стоит на месте, а Google продолжает разрабатывать обновления для поисковых алгоритмов одно за другим.

Достаточно сложно постоянно оставаться в курсе событий и поддерживать свой сайт на уровне, в соответствии с новыми поисковыми реалиями. Немудрено, что SEO профессионалы постоянно мониторят информационное пространство, чтобы выудить ценные крохи информации о предстоящих изменениях и обновлениях. Беда в том, что в постоянной погоне за новыми фактами многие допускают элементарные ошибки.

В этой статье я представляю обзор пяти глупых, но губительных SEO-ошибок, которые допускают даже профессионалы. Избегайте их любой ценой, потому что они могут разрушить всю вашу маркетинговую кампанию. Итак, поехали!

5 SEO-ошибок, которых нужно избегать

#1 Закрытый от индексации сайт в .htaccess

Если занимаетесь SEO, тогда, вероятнее всего, вы слышали о .htaccess. Одним словом, это файл конфигурации, который используется для хранения определенных директив, которые блокируют или предоставляют доступ к корневым каталогам.

Не могу в очередной раз не акцентировать внимание на важности файлов .htaccess. Если вы знаете, как ими управлять, то вы можете:

● Создать более детальную карту сайта
● Сгенерировать более понятные и читабельный УРЛы
● Усовершенствовать кеширование, чтобы улучшить время загрузки

Если короче, то .htaccess – это очень важный инструмент для отладки процесса индексирования и, соответственно, улучшения поисковой выдачи.
Однако, нужно быть настоящим профессионалом, чтобы правильно установить файл .htaccess. Даже маленькая ошибка может привести к печальным последствиям. Например, можно полностью закрыть свой сайт от индексации вот таким образом:

RewriteCond %{HTTP_USER_AGENT} ^Google.* [OR]
RewriteCond %{HTTP_USER_AGENT} ^.*Bing.*
RewriteRule ^/dir/.*$ – [F]

Если вы видите эти строки кода в своем файле .htaccess, поисковые боты не смогут просмотреть и проиндексировать ваш сайт. Попросите разработчиков удалить код или сделайте это сами.

Проверяйте ваш файл .htaccess каждый раз перед запуском очередного проекта. Некоторые сеошники продвигают и оптимизируют сайты месяцами, даже не подозревая, что все их попытки напрасны. А вы ведь не хотите оказаться в их числе.

#2 Запрет на индексацию в CMS

SEO-плагины CMS платформ, таких как WordPress, Joomla и Drupal, могут поставить под угрозу всю вашу оптимизацию. У них есть встроенные функции, которые дают пользователям возможность задавать поисковым системам инструкции о том, что сайт индексировать не надо. Все, что нужно сделать, это зайти в раздел Настройки – Чтение – Запретить поисковым системам индексировать сайт. Ставите галочку напротив пункта и запрещаете поисковым ботам индексировать сайт.

Проверяйте этот пункт по крайней мере раз в неделю. В конце концов, каждый, у кого есть доступ к CMS, может по ошибке поставить галочку, а это несомненно окажет негативный эффект на вашу кампанию.

На заметку: Иногда поисковые системы могут продолжать индексировать ваш сайт даже если вы поставили галочку. Поэтому, если вы действительно хотите закрыть сайт от индексации, то лучше это сделать через файлы .htaccess и robots.txt.

#3 Открытый для индексации файл robots.txt

Хуже этого не придумать. Запомните: никогда не оставляйте свой файл robots.txt полностью открытым для индексации, поскольку это чревато серьезными проблемами по части конфиденциальности. Можно потерять свой сайт полностью из-за утечки информации.

Если вы новичок, то потратьте какое-то время на изучение информации о настройке и управлении файлом robots.txt. И действуйте незамедлительно, если увидите что-то похожее:

User-Agent: *
Allow: /

Это значит, что поисковые боты могут пройти на каждую страницу сайта и проиндексировать ее. Например, проиндексировать админку, страницу авторизации, корзину, а также динамические страницы (поиск и фильтры). Закрывайте и защищайте персональные страницы ваших пользователей. Просесть в выдаче за десятки спамных динамических страниц вам явно не хочется, так?

Как бы там ни было, убедитесь в том, что вы закрыли страницы, которые должны быть заблокированы, и открыли те, которые должны подлежать индексации. Звучит просто, но требуется время, чтобы научиться этому.

#4 Исходящие ссылки без атрибута “nofollow”

Сеошники знают, что ссылки до сих пор являются важным фактором ранжирования. К сожалению, они сосредотачиваются на внешних ссылках и иногда забывают, что их сайты могут отдавать практически весь ссылочный вес другим сайтам. Что вам нужно, так это и привлекать высококачественные внешние ссылки, и удерживать весь вес у себя на сайте.

Итак, ваша стратегия выглядит просто:

● Пропустите свой сайт через сканнер (Я использую Xenu)
● Отсортируйте ссылки по адресам, чтобы определить исходящие
● Создайте файл Excel со всеми исходящими ссылками (или скачайте стандартный HTML отчет)
● Перепроверьте каждую ссылку из списка на наличие атрибута “nofollow”, если в нем есть необходимость

Однако не переусердствуйте с атрибутом “nofollow”. В попытках приберечь весь «сок» ссылок для себя, вы провоцируете других добавить “nofollow” к ссылкам на ваш сайт. Словом, не злоупотребляйте.

#5 Непроверенный в валидаторе код

Ваш сайт состоит из кода, и чем лучше его качество, тем лучше будут результаты выдачи вашего сайта. Все это потому, что стройный и понятный код позволяет поисковым ботам индексировать ваш сайт более эффективно, не оставляя незамеченной ни одну страницу.

Поэтому каждый раз, когда вы получаете новый проект под продвижение и оптимизацию, убедитесь в том, что вы проверили код. Для этого совсем не нужно быть разработчиком. Вы просто копируете URL сайта и вставляете его в адресную строку The W3C Markup Validation Service. А после – попросите разработчиков исправить ошибки. На картинке ниже изображен типичный отчет из валидатора:

Хотя Google и не наказывает сайты за невалидный HTML и CSS, вам все равно лучше воспользоваться валидатором. В конце концов, это не занимает много времени, но улучшает производительность сайта в глазах пользователей и ботов.

Выводы

Поисковая оптимизация эволюционирует, и SEO-специалистам нужно постоянно трудиться, чтобы успевать за последними обновлениями тактик и алгоритмов. Хорошо, если вы постоянно держите руку на пульсе SEO (это обязательно, вообще-то), только не забывайте об элементарных вещах. От глупых ошибок всегда больше вреда.

А что думаете вы? С какими SEO-ошибками обычно имеете дело вы? Делитесь вашими мыслями в комментариях.

Сергей Грибняк
Основатель digital агенства Singree.com. Основатель проектов opporty.ru и сооснователь проекта vericost.com. Сфера интересов - машинное обучение, разработка и продвижение сложных интернет проектов, с уклоном в сторону торговых площадок и услуг для бизнеса.

Прокомментировать

8 Комментарий на "5 глупых SEO-ошибок, которые допускают даже профессионалы"

Notify of
Sort by:   newest | oldest | most voted
Николай
Гость

спс кеп

Viktor Rosiyenko
Гость

Мдя, иногда лучше жевать…
№4 — ссылки на внешний ресурс ничего не отбирают у ресурса-донора.
№5 — валидность кода вообще не имеет значения. Имеют значение только критические ошибки в разметке, способные искажать выводимый в браузере контент, да и то, только с позиций посетителей, но не ботов ПС.

Михаил Чижов
Гость

Виктор, не согласен с Вами. Валидность кода улучшает индексирование. С ссылками согласен абсолютно. Они конечно передают сок, но не понижают авторитет страницы, для Гугл даже рекомендуется ставить ссылки на релевантные источники.

Viktor Rosiyenko
Гость

Михаил, что в Вашем понимании есть улучшение индексирования?
Любая ПС выделяет сайтам лимит своего ресурса на сканирование.
Его размер зависит от множества параметров сайта, определяющих его качество.
Чем выше качество — тем больше ресурса на сканирование.
Я выше написал, что могут быть ошибки, которые искажают видимый контент, а соответственно, могут немного понижать его качество. Это и есть единственная причина.
А все эти мульки, которые показывают валидаторы — это ПС в настоящее время не волнует. Потому, что в этом нет практического смысла.

Maxim Kazakov
Гость

ниочем 🙂

Твой Дед
Гость

Опа… Любимый Сергей Грибняк снова бьет по наковальне, чтобы порадовать всех нас! Конечно, вряд ли писал всю эту ахинею он, скорее всего какой-нибудь несчастный и зае*анный сеошник, которому дали задачку придумать статью для серча.

Seogik
Гость

по моему очевидно, что это перевод с английского

Dmitry
Гость

уф…а ято думал

wpDiscuz