SEO 2016: Ловкость рук и никакого рандома

Автор: Евгений Тарасов, создатель сервиса «Левша Инструментс»

 

Анализируя ситуацию, сложившуюся сегодня на рынке продвижения, хочется начать с фильтров, которыми в прошлом году нас осчастливил Яндекс - АГС-- и Минусинск.

По сути, это стороны одной медали - новый АГС карает сайты, которые продают SEO-ссылки, в то время как Минусинск наказывает сайты, покупающие эти ссылки. Существуют некие пороги качества и количества ссылок, и они работают с двух сторон. Именно так и планировалось использовать эти фильтры - совместно, но, с точки зрения безопасности, Яндексом они были включены последовательно.

Механизм работы этих фильтров довольно прост и логичен. Существует порог веса ссылки, то есть, число, меньше которого ссылка считается SEO-ссылкой или bad-ссылкой. Для каждого сайта рассчитывается среднеарифметический вес ссылки N. Если он оказывается меньше фиксированного порога, и если число SEO-ссылок больше X, то срабатывает Минусинск. Поэтому из Минусинска можно выйти, закупив хороших ссылок и подняв тем самым среднеарифметический вес одной ссылки. Ротация сайтов в Минусинске объясняется большой погрешностью Яндекса в измерении ссылочных весов. С АГС-фильтром все то же самое, только для исходящих.

Сам Яндекс не обозначает допустимые пороги, при превышении которых сайт неминуемо будет пессимизирован, однако Садовский, во время запуска Минусинска говорил, что с каждой итерацией «безопасный» порог будет понижаться, чтобы, в конце концов, явление массовых закупок ссылок исчезло совсем. Это так и происходит, порог постепенно повышается, то есть, вес нормальной не SEO-ссылки после каждой итерации становится выше, чем предыдущее значение. Ну, или другими словами, понижается порог чувствительности. Практика показывает, что 45% индустрии ссылкоторговли Яндекс убил за последний год с небольшим. Это действительно ощущается при закупке ссылок, например, в Сапе, - выбор стал значительно меньше.

Садовский утверждает, что закупка ссылок – явление социальное, так как они давно не влияют на ранжирование, и Яндекс просто дает возможность владельцам сайтов перестроиться. Это так и не так, а точнее – обычные недоговорки Яндекса. Садовский имел в виду только SEO-ссылки, они действительно не оказывают влияния на ссылочное ранжирование, а то, что они оказывают влияние на текстовое ранжирование документа - зачем кому-то знать, правда? Ссылки продолжают работать, и нет никакой разницы, где они были куплены, смотрится только качество конкретной ссылки.

Грамотное продвижение сегодня невозможно без измерения ссылочного веса. Яндекс перестал учитывать ссылки только в зоне bad, а в зоне good нужно и можно измерять ссылочный вес. Без измерения веса ссылок, можно просто накупить треша по 500 рублей и думать, что это отличные ссылки. Измерение веса ссылки дает возможность сэкономить в среднем 85-90% ссылочного бюджета при том же ссылочном весе. Когда каждая копейка на счету, это очень важно.

Кроме того, можно использовать вместе с измерением веса и другие продвинутые SEO-технологии, обусловленные правильным пониманием технологий ссылочного ранжирования.

При ранжировании любого запроса и Яндекс и Google опираются на идеальные модели релевантности по каждому запросу, согласно текстовой (семантической) релевантности. Для построения таких моделей используются запросные графы, которые строятся статистическим образом, исходя из частоты взаимного упоминания ключевых слов друг с другом в общей коллекции документов. То есть, чем чаще слова используются взаимно, тем короче ребро графа (длина каждого ребра графа указывает на силу связанности одного ключа с другим). Вот так выглядит сам граф:

Крупные кружочки соответствуют ВЧ запросам. Таким образом, для каждого ключа в графе находится свое место, и для каждого ключа можно выделить самые близкие к нему запросы (их и показывает Яндекс в выдаче со словами «что еще искали», т.е. они берутся из графа.

Граф по конкретному ключу можно представить в виде табличного списка ключей, отсортированных по убыванию меры связанности его с остальными (по длине ребер). Это и есть идеальная модель для семантического ранжирования, которую надо повторить на сайте или на конкретном документе (если список ключей мал). Поскольку сайт перелинкован внутренними ссылками, наиболее релевантные страницы для связанных запросов могут находиться на разных страницах сайта, поэтому для оценки релевантности по какому-то конкретному ключевому запросу, смотрится весь сайт целиком.

Если релевантности по всем ключевым запросам численно повторят идеальные пропорции графа, то релевантность такого сайта по выбранному ключу, стоящему в основе построения графа, окажется максимальна, и сайт окажется в самом выгодном положении для ранжирования по этому ключу в выдаче. Этот же принцип можно использовать и для создания специальной рекламной кампании в Директе, для обеспечения идеального соотношения трафика по запросам на сайт, и, как следствие, будут идеальные поведенческие факторы на сайте (такая, своего рода легальная, безопасная и максимально эффективная накрутка ПФ).

Однако, максимальная семантическая релевантность это всего лишь 50% условия попадания в ТОП, остальная часть включает в себя траст и поведенческие метрики, поэтому не надо думать, что соответствие по графу является пилюлей для ТОПа. Это не так. Реальные соотношения релевантностей ключевых запросов на сайте далеки от совершенства, и их можно скорректировать, покупая те или иные ссылки с нужным весом, и таким образом выравнивая ссылочным давлением неидеальную ситуацию.

Почему я говорю «покупая» ссылки? Потому что, по сути, нет таких понятий, как «естественная» или «купленная» ссылка, эту терминологию ввел Яндекс для того, чтобы все запутались. Есть понятия «полезная» ссылка и «бесполезная», и, соответственно, вес ссылки - это и есть мера ее полезности, а она, в свою очередь, определяется, исходя из семантического анализа донора, акцептора и анкора. Пересечение релевантностей обоих документов и их отношение к релевантности анкора определяет вероятность клика по этой ссылке, что и является метрикой полезности, это базовая метрика. Есть и другие критерии, но все они, так или иначе, обслуживают и дополняют базовую метрику, потому что не всегда семантический анализ дает целостную картинку.

Многие сегодня уповают на качественный контент и ручную закупку ссылок. Качественный контент важен, но если речь идет о качественном копирайтинге не по 2 доллара, а по 6 - то это неправильный путь. Ручная покупка ссылок, безусловно, лучше автоматической, но это тоже не панацея. Правильно было бы со стороны продавца ссылок тоже принимать участие в поиске покупателя ссылки, а не ждать, пока его найдут на бирже. Дело в том, что ссылка с одного и того же донора на разные акцепторы может иметь сильно разный вес, а значит, и продать ее можно сильно по другой цене, не по 5 рублей например, а по 500.

Сейчас вообще очень уникальная ситуация на рынке. Такой ситуации никогда не было и потом уже больше не будет, года полтора осталось. Дело в том, что сейчас можно купить ссылку в Сапе за 5 рублей, а реальная ее польза будет, скажем 700 р или даже 3000 р, если измерить ее вес. Вебмастера, продающие ссылки не понимают пока, что правильно подобранный анкор и документ донора с акцептором, может увеличить стоимость и значимость его ссылки в 100-200 и даже более раз. Они продают ссылки всем подряд и ждут, пока найдут их, вместо того, чтобы самим искать покупателя, который даст за их ссылку максимально денег. Вот пока обе стороны не поймут, как покупать и продавать самые эффективные ссылки, можно буквально за 1000 р покупать ссылочное, которое будет эквивалентно по своему весу купленному в 100 К рублей. Чувствуете, какой гигантский профит?

Вот для таких измерений и сделан сервис «Левша Инструментс». Ну а пока мы с вами наблюдаем, как Яндекс методично убивает говносайты, и растет средняя стоимость ссылок тупо потому, что выбор сокращается. Пока к качеству ссылок этот рост цен вообще никакого отношения не имеет, и покупать хорошие ссылки по 5 рублей очень сложно, но можно, чем я собственно сейчас и зарабатываю. К концу 2016-го я так полагаю, выбор арендных ссылок будет совсем скудным, а ценник вырастет раз в пять. Вот тогда, по идее, специалисты отрасли и начнут проявлять массовый интерес непосредственно к измерению веса ссылок, а на более ранний профит от своего сервиса я особо не рассчитываю.

Google, кстати, в прошлом году, в отличие от Яндекса, очень мало говорил о ссылках, потому что ничего глобального в этой ПС не менялось и не планируется. Яндекс же очень сильно прокачался новым алгоритмом и заплатить за такую прокачку ему предстоит очень дорого. Последствия очистки экосреды рунета от ссылочного еще долго будут отражаться серьезными багами в системе и снижением качества выдачи. Это, кстати, и есть настоящая причина наступившего «детерменированного хаоса», которую от всех скрывают.

По этой причине я считаю глупостью мнения некоторых о том, что введя рандомизацию и раскидав из ТОПов сайты, упакованные ссылочным, Яндекс, фактически, провоцирует новую эру дорвеев. Просто оптимизаторы не понимают причин рандомизации, ее задач, вот и думают, что этим можно воспользоваться. Проблемы Яндекса, которые выдаются за рандомизацию в ссылочном ранжировании, к дорвеям не имеют никакого отношения. Таким любителям я посоветую обратиться к Google, который гораздо тупее Яндекса. Базовая метрика оценки качества ссылок у него та же, но из-за плохой реализации, погрешность измерения - просто адовая. Для Google лучше всего использовать как можно больше разных типов ссылок с разного типа контента, эта поисковая система любит разнообразие.

В условиях наступившей рандомизации я хотел бы напомнить всем старое доброе правило – «поперло - не трогай». Это старая добрая истина. Тут не надо даже ничего объяснять, просто надо использовать. Можно было бы расписать, почему так происходит, но чисто не хочу быть занудой. Это правило работает, работало и будет работать. Вообще, оно для всего, не только для поисковых систем, а и для бизнеса в целом. Меня часто спрашивают, что надо делать с сайтом, чтобы не навредить? Тут тоже есть правило – «не знаешь что делать, делай правильно». Во всяком случае, так меньше шансов что-то испортить. Но этим надо всем заниматься тогда, когда «пер» уже прошел, конечно же.

Рандомная выдача Яндекса - как с этим жить дальше

Ваш сайт внезапно и беспричинно теряет позиции в выдаче Яндекса? Что делать, и кто виноват? Вероятнее всего, дело в рандомизации поисковой выдачи
preview Как разбить SEO-задачи по приоритетности и добиться максимальной эффективности в работе

Как разбить SEO-задачи по приоритетности и добиться максимальной эффективности в работе

Автор: Рэнд Фишкин (Rand Fishkin) – генеральный директор Moz. Компания занимается разработкой ПО для оптимизаторов

Построение вектора релевантности согласно формуле BM25

На сегодняшний день в интернете существует множество материалов, касающихся эффективного продвижения, информации о факторах ранжирования от представителей поисковых систем

Максим Матиков: SEO 2.0 – оптимизацию можно и нужно делать эффективной

Разговоры о SEO 2.0 в сети ведутся достаточно давно, первые упоминания в рунете появились еще в 2008 году
preview Алексей Штарев: Хороним SEO?

Алексей Штарев: Хороним SEO?

Последние три года наблюдается не самая позитивная тенденция встречать новогодние праздники с достаточно грустным, отчасти пессимистичным настроением