Аудит ссылочной структуры сайта: нюансы и тонкости

 Rob Kerry

Автор: Роб Керри (Rob Kerry), руководитель департамента поискового продвижения в агентстве Mode Digital Ltd.

Из года в год в среде оптимизаторов не прекращаются разговоры о том, на каких ресурсах, и каким образом можно получить качественные ссылки. Не секрет, что прибыли Google, а значит, и цена на акции компании целиком и полностью зависят от качества поиска и удовлетворенности пользователей результатами выдачи. Чтобы проследить за эволюцией поисковых алгоритмов, имеет смысл обратиться к истокам. Еще в начале 2000-х годов, суть поисковой оптимизации сводилась к наращиванию PageRank или авторитетности страницы за счёт ссылочной массы, в то время как оптимизации страниц сайта уделялось гораздо меньше внимания. Обилие ссылок, ведущих на страницу, гарантировало ей высокие позиции.

Однако в 2007 году ситуация начала меняться. Первым серьёзным сигналом со стороны Google стала борьба с биржами ссылок и попытка их полного искоренения. Дорвеи перестали работать, а их создание потеряло всякий смысл. На этой волне в топ-выдачи стали попадать страницы, которые содержали большое количество анкорных ссылок, перенасыщенных ключевыми словами. Нащупав тренд , SEO-компании стали активно размещать ссылки на ресурсы клиентов в частных блогах и на сайтах-партнёрах. Анкорные тексты стали новым этапом развития рынка поисковой оптимизации. Успех продвижения сайта в поиске по коммерческим запросам, к примеру: [онлайн-казино], [кредиты] и т.п. зависел исключительно от объёмов вложений заказчика. Отдельные компании специализировались исключительно на анкорном продвижении. Таким же способом в то время продвигались и многие крупные бренды. Принятие радикальных мер в отношении ряда сайтов означало для Google резкое изменение поисковой выдачи, которое бы вызвало недовольство пользователей.

Тем не менее, в 2011 году с запуском алгоритма «Пингвин» ситуация на рынке поиска заметно изменилась. Первыми из выдачи исчезли сайты, которые продвигались по запросам [краткосрочные займы] и [мгновенные кредиты]. Запуск «Пингвина» стал первым серьёзным шагом, поставившим под угрозу существование SEO-отрасли. Инженеры Google остались довольны запуском и продолжили совершенствоваться в борьбе с веб-спамом. Цель поисковика – полностью искоренить платные ссылки; ссылки с коммерческими анкорами; иные виды веб-спама. Поисковая система стала негативно относиться к ссылкам в гостевых постах.

На сегодняшний день Google практически полностью исключил для владельцев сайтов возможности получения выгоды от обмена ссылками, в том числе качественными. На этом фоне масштабное развитие получило, так называемое, «негативное SEO». Нечистые на руку оптимизаторы стали проставлять спам-ссылки на ресурсы конкурентов, чтобы их сайты потеряли позиции в выдаче.

В этих условиях аудит ссылочной структуры сайта приобрёл особое значение. Анализ ссылочной массы сайта хотя бы раз в квартал рекомендуется производить ресурсам, прибыль которых напрямую зависит от позиций в органической выдаче. Умение заработать качественные ссылки и избавиться от плохих сегодня стало основным фактором, определяющим, на какой позиции в SERP окажется ресурс – на 1-й или на 99-й.

Самое обычное снятие некачественных ссылок и последующая переиндексация ресурса способны избавить сайт от ряда санкций и воздействий алгоритмов. Ссылочный аудит стал своеобразным SWOT-анализом сайта, позволяющим выявить сильные и слабые стороны в стратегии ссылочного продвижения ресурса.

Что касается способов проведения аудита ссылочной структуры сайта – все они имеют как плюсы, так и минусы. Так, аудит, заказанный в SEO-агентстве хорош тем, что проводить его будут профессионалы в области поискового продвижения, знающие о качестве ссылок буквально все. Однако эксперты агентства смогут ограничиться лишь общими советами в рамках SEO, не вникая глубоко в бизнес компании и его специфику.

Аудит ссылочной структуры сайта можно также производить при помощи специальных инструментов и сервисов. Автоматизированная проверка качества ссылочной массы сайта позволит владельцу получить полную информацию о ссылочном профиле ресурса, однако не даст осуществить качественную классификацию ссылок на ресурсе.

Сегодня на рынке SEO-сервисов предлагаются следующие решения:

Тем, кто намерен инвестировать средства в покупку подобного инструмента, сначала следует убедиться в том, что на ресурс поступают большие объёмы ссылок. Сделать это можно с помощью инструментов, предоставляемых сервисами: Moz, Ahrefs и Majestic. При покупке инструмента стоит экономить деньги: важно подбирать тариф сообразно объёму ссылочного профиля сайта и масштабам ресурса. Лучше всего, если поставщиками данных для решения будут такие сервисы, как: Ahrefs, Majestic и Google Webmaster Tools. Если разработчики инструмента предусмотрели бесплатный льготный период его использования, лучше воспользоваться инструментом в тестовом режиме. Такой подход позволит выбрать из нескольких сервисов подходящий.

Так, например, инструмент LinkRisk позволяет с лёгкостью вычленить спам-ссылки в комментариях, обнаружить платные ссылки и покупные ссылки низкого качества.

Самостоятельный аудит ссылочного профиля сайта отнимает значительные силы и средства, однако при заинтересованности владельца бизнеса процесс может быть реализован на высоком уровне.

По итогам анализа ссылочного профиля сайта важно отсортировать потенциально «опасные» для ресурса ссылки; создать списки ссылок на отклонение в «Инструментах для веб-мастеров» Google и в Bing Webmaster Tools; найти контакты сторонних ресурсов и потребовать у владельцев снятия некачественных ссылок, ведущих на сайт; удалить с сайта все некачественные ссылки. Результаты анализа ссылочной массы ресурса могут выглядеть примерно так:

Что касается качества ссылок с форумов, то система аудита LinkRisk классифицирует их следующим образом:

Система также позволяет экспортировать собранные из различных источников данные в Excel для формирования отчетов. Ссылки распределяются по группам на основе 26 анализируемых системой сигналов. Вебмастерам вовсе не обязательно пытаться воспроизвести принцип работы алгоритмов Google, чтобы понять, какие ссылки на их ресурсах – качественные, а какие – нет.

Анализируя собранные данные, важно уделять внимание следующим ключевым аспектам:

  • Следует учитывать регион ссылающегося домена верхнего уровня – он должен соотноситься с региональностью сайта-акцептора.
  • Полезно, если на ресурс будут поступать ссылки с качественных сайтов, зарегистрированных в доменной зоне .info.
  • Лучше всего, если на сайт ведут ссылки с ресурсов той доменной зоны, в которой зарегистрирован аудируемый сайт. Этот фактор не слишком сильно влияет на отношение поисковых систем к качеству ссылок. Однако он важен с точки зрения привлечения более качественного трафика на сайт. Такой подход к выбору доноров ссылок позволит сайту привлечь на его страницы региональных посетителей, заинтересованных в сотрудничестве с ним, а также потенциальных клиентов. К примеру, для англоязычного ресурса это могут быть домены в зонах: .com, .net, .co.uk.

Куда более значимым сигналом для поисковой системы выступает расположение ссылки. Если на ресурс ведет большое количество ссылок, размещаемых в рекламных блоках сайтов сбоку, - поисковые системы безошибочно распознают их как ссылки из объявлений. Что касается ссылок, ведущих на сайт с форумов, то при оценке ссылочной массы алгоритмы поисковых систем оценивают тематику таких ресурсов, а также качество и естественность комментариев, содержащих ссылки.

Большое значение имеет оценка авторитетности и трастовости ресурсов-доноров. В процессе аудита ссылочной массы сайта, важно уделить внимание анализу TrustFlow и Ahrefs Rank ссылающихся страниц. Чем выше эти показатели, тем большую ценность для ресурса имеет ссылка. По итогам анализа качества сайтов-доноров полезно составить список ресурсов для обмена ссылками в дальнейшем.

В файле Excel полезно создать отдельные графы для каждого значимого фактора и, анализируя соответствие качества ссылок каждому из критериев, присвоить значение каждому пункту:

Такой подход позволит выявить наиболее проблемные аспекты и скорректировать стратегию линкбилдинга.

На заключительном этапе необходимо составить список ссылок, которые следует удалить с сайта при помощи инструмента Disavow или закрыть атрибутом nofollow. Для небольших сайтов можно производить данный анализ «вручную». Лучше, если делать это будет маркетолог, знающий специфику бизнеса; сильные и слабые стороны конкурентов; особенности клиентов-посетителей ресурса; учитывает тематику и особенности ссылающихся ресурсов. Если на сайт ведут ссылки с нежелательных ресурсов – необходимо обратиться к администраторам этих сайтов и попросить их о снятии этих ссылок. Контакты можно найти как самостоятельно, так и используя специальные инструменты.

Заключительные выводы статьи сводятся к следующему:

  • Страницы сайта, содержащие более 25% анкорных ссылок с коммерческими ключевиками, имеют все шансы быть исключенными из выдачи поисковых систем и угрожают успешному ранжированию всего сайта.
  • Важно учитывать расположение входящих ссылок на сайте-доноре.
  • Следует внимательно анализировать качество входящих ссылок из частных блогов, не злоупотреблять гостевыми постами и платным размещением ссылок в публикациях. Google сегодня уделяет большое внимание данному аспекту.
  • Приобретая ссылки на биржах и в директориях, важно учитывать тематику и трастовость ссылающихся ресурсов, жестко отфильтровывая ссылки с нетематических сайтов.
  • Наконец, не стоит забывать учитывать регион ссылающегося на сайт домена верхнего уровня и место фактического расположения ссылки на странице.

Доклад Роба Керри состоялся в рамках международной конференции SMX London 2015.

Подбираем ключевые слова для нового сайта

Автор: Мэтью Барби (Matthew Barby), консультант в области интернет-маркетинга и стратегий конент-продвижения в агентстве Wyatt International; преподаватель Института цифрового...

Что будет с поисковым трафиком, если снять все покупные ссылки сразу?

Среди оптимизаторов бытует мнение, что нельзя удалять все покупные ссылки сразу – якобы резкое снижение ссылочной массы всегда приводит к просадке позиций в выдаче и потере...

Платон мне друг, но… истина где-то рядом

4 июня в блоге собирательного образа службы поддержки пользователей поисковой системы Яндекс Платона Щукина появился весьма любопытный документ «Популярные заблуждения в...

Самые распространённые ошибки в использовании популярных отчётов Google Analytics

Автор: Том Каппер (Tom Capper), ведущий консультант Moz в области аналитики. Работает в агентстве с 2013 года, сертифицированный специалист Google Analytics

Как получить НЧ-трафик из поиска или «Антиминусинск»

Евгений Суминов, аналитик MOAB.PRO В моей предыдущей статье описывались стратегические выводы по Минусинску: что произошло, и почему произошло именно так

Применение TrustRank для анализа качества ссылающихся ресурсов

Автор: Диксон Джонс (Dixon Jones), директор по маркетингу Majestic SEO