Как работали ссылки в «доминусинскую» эпоху

Сегодня мне хотелось бы поделиться некоторыми нюансами опыта исследования работы ссылочных факторов до того, как Яндекс объявил «крестовый поход» против SEO-ссылок.

Плотную работу по исследованию работоспособности ссылок я начал еще в середине 2000-х годов, когда ссылочные факторы начали набирать вес в алгоритме ранжирования Яндекса. Сам алгоритм тогда был относительно несложен, а язык запросов, наоборот, очень богат различными полезными для исследования возможностями. В то время для исследования поисковой выдачи широко использовался так называемый метод ортогональных запросов, впервые предложенный Игорем Козловым, известным в то время на форуме Searchengines под ником Миныч.

Суть метода заключалась в том, чтоб конструировать запрос, состоящий из нескольких частей, разделяемых оператором | (логическое ИЛИ). По тому, как ранжируются между собой в выдаче документы, релевантные разным частям запроса, можно было делать определенные выводы. Так, например, изначально эта методика предлагалась для оценки относительной конкурентности запросов.

Я решил применить ее для оценки работоспособности ссылок. В одну часть запроса я помещал точную фразу из анкора исследуемой ссылки. Для чистоты исследования этот анкор должен был быть уникальным, то есть в выдаче по такому запросу должны были находиться только два документа – донор, на котором располагается ссылка, и акцептор, на который ведет эта ссылка. Причем, сам акцептор в своем тексте не должен был содержать анкор данной ссылки, т.е. показываться в выдаче как «Найден по ссылке». Вторая часть запроса, отделенная от первого оператором «логическое ИЛИ», имел целью построить своеобразную «линейку», на которой можно было замерять положение акцептора. Важно, чтоб эта «линейка» была независима от первой части запроса, т.е. акцептор не должен был находиться по второй части запроса отдельно. В общем случае схема запроса была такова: (“уникальный анкор” << url:адрес-акцептора) | (запрос-для-построения-линейки)

Конечно же, в процессе разработки рабочей методики пришлось столкнуться с множеством нюансов, например, одна из основных сложностей состояла в том, чтоб подобрать удачный запрос для «линейки», на котором можно было бы наглядно увидеть различия в ранжировании по анкорам различных ссылок для одного акцептора. Нужно было построить выдачу с относительно небольшим количеством документов, имеющих достаточно близкие значения релевантности. Такие запросы удалось найти, используя редко встречающиеся слова. Затем удалось еще больше усовершенствовать «линейку», используя поиск по внутренним страницам одного сайта.

Оказалось, что на хорошо подобранной «линейке» можно выделить два четких уровня, на которых располагается акцептор в зависимости от анкора, используемого в первой части запроса. Также определенные требования пришлось предъявить и к структуре используемых анкоров, в частности, со временем, для подавления искажающих шумов потребовалось при генерации текстов анкоров использовать одинаковые слова в рамках одного акцептора.

Полное понимание физического смысла наблюдаемого процесса пришло вовремя одной любопытной ситуации в 2010-м году, когда, очевидно, по недосмотру, в выдаче для тестового запроса сервиса Яндекс.XML несколько месяцев демонстрировалось численное значение релевантности документа. Оказалось, что для тех случаев, когда акцептор находился на верхнем уровне «линейки» это значение состояло из 11 цифр, например, 10 182 636 000. Для случаев нижнего уровня «линейки» число состояло из 10 цифр, например, 9 898 345 000.

Наблюдения за различными запросами позволили с достаточно высокой степенью достоверности предположить, что число 10 000 000 000 соответствует уровню релевантности, равному нулю (такое значение наблюдалось, к примеру, у ряда жестко пессимизированных документов). А вот семиразрядное значение означало в таком случае ни что иное, как отрицательную релевантность. Которая могла возникнуть точно в одном случае – применении пост-штрафа, по своему значению превышающего вычисленное значение релевантности документа запросу.

Кстати, кроме вышеупомянутой ситуации периодически возникали и другие возможности заглянуть «по ту сторону» поисковой выдачи. Можно вспомнить, к примеру, выдачу с «жучком» – кнопкой с изображением божьей коровки, за которой скрывался внутренний интерфейс для сотрудников поиска. Эту выдачу можно было наблюдать, придя в офис Яндекса и подключившись к местному wi-fi. Некоторое время оптимизаторы целенаправленно ходили на семинары Яндекс.Директа, чтобы поизучать то, что скрывается за «жучком», пока сотрудники Яндекса смекнули, что что-то тут не так. Тем не менее, выдача с «жучком» периодически возникала и на удаленных компьютерах в результате различных нестандартных манипуляций со страницей поисковой выдачи.

Эти редкие, но весьма плодотворные возможности получить дополнительную информацию о результатах поиска позволили сделать следующий вывод о природе санкций за ссылки. Часть ссылок классифицировалась как плохие. Если общее кол-во плохих ссылок, ведущих на документ, превышало некоторое пороговое значение, он мог получать пост-штраф для рассчитанного значения его релевантности запросу, т.е. это значение попросту уменьшалось на определенную величину. Но делалось это не для всех запросов, а только для тех, где доля плохих ссылок, анкоры которых были релевантны запросу, была относительно велика. Для вышеуказанной методики, использующей результаты с единственной ссылкой, релевантной запросу, в случае, если эта ссылка считалась плохой, эта доля составляла 100% и штраф срабатывал.

Таким образом плохие ссылки по умолчанию вполне себе работами, и могли навредить только в том случае, если их становилось слишком много.

Причем, далеко не все платные ссылки считались плохими. Яндекс в то время руководствовался соображениями, что следует считать плохими ссылки только с откровенно некачественных сайтов. Эксперимент по простановке тестовых ссылок на нескольких десятков тысяч доноров, выставляющих на поисковых биржах на продажу места под ссылки по самой низкой цене, показал, что только примерно половина из них классифицируется, как плохие. То есть, даже при абсолютно случайной покупке каждая вторая ссылка оказывалась хорошей. А более вдумчивый подход к закупке ссылок, позволяющий отсеивать откровенно некачественные сайты, сводил вероятность закупки большого числа плохих ссылок, а, следовательно, и возможность получения пост-штрафа, к минимуму.

Более того, со временем пороги срабатывания штрафа постепенно смягчались. Если поначалу задача найти подходящих для методики акцепторов, которые демонстрировали на «линейке» четкие уровни, не составляла особого труда, то, со временем это сделать было все труднее и труднее. Складывалось впечатление, что для того, чтоб получить от Яндекса штраф за некачественную ссылочную массу, нужно было очень сильно постараться, скупая все подряд в огромных количествах. Поэтому для успешного ссылочного продвижения никакой особой аналитики и не требовалось, нужно было быть хоть немного разборчивым в «ссылочных связях». В общем, все складывалось для оптимизаторов, покупающих ссылки, и вебмастеров, их продающих, как нельзя более удачно.

И тут вдруг Яндекс решил поменять правила игры.

Теперь перед оптимизаторами стоит задача понять, каким образом учитываются платные ссылки, которые Яндекс называет SEO-ссылками и уже прямым текстом квалифицирует как поисковый спам: https://yandex.ru/support/webmaster/yandex-indexing/algorithm-minusinsk.xml

По сути «минусинские» санкции можно сравнить с тем самым прежним пост-штрафом за превышение порога некачественной ссылочной массы, только действие его распространяется уже на все запросы. А вот, что произошло собственно с учетом SEO-ссылок – вопрос пока остается для многих открытым. Сотрудники Яндекса утверждают, что они могут распознать 99% платных ссылок, и их влияние на ранжирование сведено к нулю. Среди оптимизаторов же имеет место мнение, что это влияние все-таки есть, нужно только более тщательно подходить к процессу покупки. Эти точки зрения подразумевают разные стратегии к формированию ссылочной массы. Первая – поиск доноров, ссылки с которых имеют минимальную вероятность быть классифицированы как SEO-ссылки. Вторая – продолжать закупки на ссылочных биржах. Ну, а какая стратегия окажется выигрышной, несомненно, покажет время.

preview Андрей Калинин: «Интерливинг поисковой выдачи»

Андрей Калинин: «Интерливинг поисковой выдачи»

26-27 ноября 2015 года в Москве проходила крупнейшая в SEO-отрасли конференция – Optimization-2015. Поисковый маркетинг и продвижение бизнеса в интернете
preview Вред и польза от традиционных ссылок в Wizard.Sape

Вред и польза от традиционных ссылок в Wizard.Sape

Автор: Юрий Софин — ведущий аналитик Wizard.Sape. Занимается интернет-маркетингом более 7 лет

Николай Мациевский: «Как скорость и доступность влияют на позиции в поиске»

26-27 ноября 2015 года в Москве прошла крупнейшая в SEO-отрасли конференция – Optimization-2015. Поисковый маркетинг и продвижение бизнеса в интернете

Виталий Шаповал: «SEO-2016: Что делать? Как обороняться и наступать?»

26-27 ноября 2015 года в Москве проходит крупнейшая в SEO-отрасли конференция – Optimization-2015. Поисковый маркетинг и продвижение бизнеса в интернете

Алиса Лудянская: «Как заслужить ссылки – методы, за которые вас не накажут»

20 ноября 2015 года в Москве состоялась четвёртая Вебмастерская Яндекса. В этом году тематикой конференции стала поисковая оптимизация
preview Александр Садовский: «Некорректно делить вебмастеров по тому, как они хотят или не хотят обмануть Яндекс»

Александр Садовский: «Некорректно делить вебмастеров по тому, как они хотят или не хотят обмануть Яндекс»

Вчера, в рамках Школы вебмастеров, вместо Дмитрия Степанова, который находится в Амстердаме, выступил руководитель поисковых сервисов Яндекса Александр Садовский с лекцией...