На что повлияют нейронные сети?

Как бедным оптимизаторам помешает жить новый алгоритм "Яндекса"

1877

Человеку при виде глобальных изменений свойственно предполагать, как это отразится на его планах на отпуск и размере премии. Оптимизаторам при любом анонсе со стороны Яндекса (или любой другой поисковой системы) свойственно начинать упражняться в прогнозах — как изменения в алгоритмах повлияют на позиции и, соответственно, трафик подшефных сайтов. Тем более, что за время существования поискового маркетинга примеры были самые разные и вполне вопиющие.

Разумеется, запуск нового алгоритма «Королёв» спровоцировал новый раунд прогнозов. Тем более, что компания решила устроить из этого масштабный новостной повод, очень заранее объявила о запуске, разыгрывала билеты на презентацию в необычном месте, а во время самой презентации бригада разработчиков торжественно нажимала кнопку, после чего последовал сеанс связи с настоящими космонавтами. Вполне возможно, что у многих ёкнуло там, где обычно располагается душа оптимизатора — где-то между сердцем и кошельком.

Но ёкало зря и сейчас мы разберемся, почему.

Я очень рекомендую прочесть не только официальный пост в блоге Яндекса, но намного более технический текст, опубликованный в блоге на Хабрахабре. Он написан понятным языком и вы можете разобраться в нем, даже если ничего не знаете о нейронных сетях. И уж точно легко понять одна из основных мыслей авторов — применение нейросетей на данный момент является довольно дорогим удовольствием для поисковой системы, поскольку вычислительная сложность задачи не позволяет полноценно её решить в режиме реального времени — то есть когда пользователь ввел запрос и ждет ответа. Условно говоря, себестоимость такого ответа довольно высокая — поскольку нужно больше памяти, больше процессорного времени, а это в итоге выливается в дополнительные серверные мощности и ресурсы разработки для неустанной оптимизации алгоритмов.

А теперь поставьте себя на место поисковика. У вас есть, условно, существующий дешевый алгоритм поиска и перспективный, но дорогой, новый. Будете ли вы огульно применять новый, очень дорогой по ресурсам, но прогрессивный алгоритм, или будете обращаться к нему лишь тогда, когда работающий алгоритм не даёт качественного ответа? Надо ли вычислять семантические векторы, чтобы определить, наскольку страница установщика пластиковых окон отвечает запросу [установка пластиковых окон]?

Разумеется, не надо. Интенты и смысл большинства запросов поиску понятны и так, тем более учитывая накопленную за много лет статистику. Поэтому, очевидно, что новый алгоритм будет применяться лишь на определенных классах запросов. Причем, как следует из постоянно повторявшейся фразы о том, что пользователи обучают поиск (что они делали примерно всегда, я новости про учет времени нахождения на странице после перехода с серпа могу вспомнить и из 2001-го года), наиболее вероятное его применение — это классы запросов, плохо покрытые асессорскими оценками или не покрытые ими вовсе, то есть — очень низкочастотные. И так в документе и пишется:

Поэтому в «Палехе» мы применяли наши нейронные модели только на самых поздних стадиях ранжирования (L3) – приблизительно к 150 лучшим документам. С одной стороны, это неплохо. В большинстве случаев все документы, которые нужно показать в десятке, находятся где-то среди этих 150 документов, и нужно лишь правильно их отсортировать. С другой стороны, иногда хорошие документы все же теряются на ранних стадиях ранжирования и не попадают в топ. Это особенно характерно для сложных и низкочастотных запросов.

Выдыхайте, бобры. Конечно, оптимизация для низкочастотных запросов тоже существует, но она на порядок менее уязвима к подобным сменам алгоритма.

И еще одно соображение, на будущее. Конечно, это очень увлекательно, в ответ на каждый продуктовый запуск большого поисковика устраивать сеансы гадания на выдаче, но глобально я уже давно не припомню ни одного изменения алгоритмов поиска, которые бы затронули большую долю сайтов — я говорю о процентах и десятках процентов сайтов. Не стоит забывать, что алгоритмы поиска изменяются не только, и не столько для того, чтобы навредить вебмастерам, сколько для того, чтобы сохранять качество ответа на изменяющиеся запросы пользователей. Человечество инертно по сути и быстро измениться не может. Так что глобально алгоритмы поиска изменятся тогда, когда изменится способ людей искать информацию.

Например, когда они перестанут печатать и начнут говорить. Вот тогда, чтобы понять, что имел в виду человек, понадобится нейросеть, которая переведет его путаную фразу в поисковый запрос с семантическим вектором. Вот тогда оптимизаторы устроят новые гадания.

Основатель Searchengines.ru. С 2005 по 2014 год работал генеральным директором компании «Яндекс.Украина». Основатель и директор крупнейшего коворкинга Одессы — «Терминал 42». Ведет блог, участвует в подкастах. Больше ничего не умеет.