Поисковая оптимизация: от внешнего к внутреннему

Что самое трудное в работе оптимизатора? Вопрос риторический. Для профессионала, будь то свободный специалист или целая компания, вывод сайта по перспективным запросам на первую страницу или в первую пятерку — не проблема. Это — нормальные трудовые будни. Никто и не обещал, что будет легко. А вот когда клиент, вложивший в продвижение своего ресурса немалые средства, замечает, что «за один день и бедственную ночь» его сайт вывалился за пределы первой двадцатки, начинаются настоящие проблемы. Как объяснить человеку, что все его вложения аннулированы одним-единственным фактором: незначительной сменой поискового алгоритма, каким-то крошечным новшеством в учете внешних факторов?

Что было…

Раньше всё было проще. Тогда, на заре интернет-бизнеса, поисковые машины были не более разумны, чем, например, функция поиска в «Ворде». Впрочем, и Всемирная Сеть была не такой уж и глобальной, и пользователь мог решить задачу поиска нужной информации простым перебором дословных совпадений. Тогда и в самом деле можно было за адекватное время пересмотреть все сайты соответствующей тематики. Давно это было…

Потом пришли первые оптимизаторы. Назывались они как-то по-другому, но разве сейчас это важно? Пришли оптимизаторы, и работа ископаемых поисковиков была парализована. Обмануть кондовые алгоритмы оказалось не просто, а очень просто, чем новоявленные бизнесмены и пользовались. Пользователи поисковых систем, однако, новшество в должной мере не оценили. Так и началась беспрецедентная гонка поисковиков и оптимизаторов — гонка, выгодная для обеих сторон. Кроме, разумеется, владельцев сайтов.

Найти контент, максимально соответствующий поисковому запросу (то есть, содержащий информацию, необходимую пользователю поисковика) — задача, к решению которой можно подойти с самых разных сторон. Можно идти вслед за оптимизаторами (напомним, речь идет о наших предках — об оптимизаторах, основная задача которых заключается в обмане поисковых машин) и «учить» поисковые алгоритмы отличать самые популярные методы «накруток». Это делалось и делается до сих пор: многие белые методы оптимизации на наших глазах приобретают серый оттенок, а потом и вовсе чернеют. Можно вводить какие-то дополнительные факторы, например, правила оптимизации, исключающие возможность обмана, и внешние показатели вроде индекса цитируемости, позволяющие (в идеале) оценить «авторитетность» ресурса. Это тоже делалось и делается. Проблема в другом: и разработчики поисковых систем, и оптимизаторы, все понимали, что это — лишь костыли, позволяющие урегулировать какие-то частные проблемы, и вместе с тем открывающие путь для проблем новых.


Что есть…

Казалось бы, явление совершенно очевидное и предсказуемое. Но лежащую на поверхности истину, гласящую, что магистральный путь развития поиска в интернете — совершенствование алгоритмов анализа самого текста, — мало кто воспринял всерьез.

Многие специалисты, по долгу службы или по велению сердца отслеживающие все тенденции в этой области, всерьез насторожились не так давно, около года назад — когда стало очевидно, что Google коренным образом сменил алгоритмы ранжирования. Сайты, обладающие хорошим контентом, стремительно полезли вверх, вытесняя хорошо оптимизированные, богатые внешними ссылками ресурсы куда-то в подвал. Это заметили все, кого хоть сколько-нибудь интересует данный вопрос. Заметили — и пожали плечами. Да, Google, при всей своей популярности, «продажного» трафика почти не дает. Или дает, но в количествах, несопоставимых затратам на оптимизацию под прогрессивный алгоритм.

Всё бы это было, наверное, правильно, если бы не один нюанс: хорошо известно, что именно Google идет в авангарде поискового прогресса. И алгоритмы, применяемые этим поисковиком, рано или поздно вынуждены копировать разработчики других, более коммерциализированных поисковых машин. В том числе и всенародно любимого Яндекса. И для тех оптимизаторов, которых этот нюанс не обошел стороной, внезапное «падение» в Яндексе сайтов с высоким показателем цитируемости неожиданностью не стало. Поисковые алгоритмы совершенствуются и всё меньше нуждаются в «костылях» наподобие учета внешних факторов.

И что будет

Дальше будут неожиданности. Или, напротив, вполне предсказуемые изменения — в зависимости от уровня информированности наблюдателя. Задача, стоящая перед поисковиком — найти контент, максимально релевантный запросу, — будет решаться всё лучше. И роль технических факторов в самом ближайшем времени будет сведена к минимуму. Поисковые машины, включая Яндекс, всё более уверенней отличают хороший контент от плохого. Хороший — разумеется, в контексте запроса.

Характерно, что для этого поисковая машина вовсе не должна обладать искусственным интеллектом. Всё гораздо проще: задача может быть успешно решена (и уже решается тем же Гуглом, в меньше степени — Яндексом) при помощи обыкновенного контекстного анализа. Скажем, релевантность текста запросу «Наполеон» может быть вычислена просто на основе анализа слов и словосочетаний, наиболее часто употребляемых в этом контексте. Например, «торт», «полководец», «коньяк», «император». Так, текст, рассказывающий о Наполеоне Буонапарте, будет несравнимо более релевантен, чем повествование о новом ресторане «Наполеон». А разве не этого хочет пользователь, набравший «наполеона» в строке поисковика?

Преимущество метода контекстного анализа текста заключается в том, что углублять его можно до бесконечности — позволяли бы машинные ресурсы, да была бы обширная база данных. Контекстные базы пополняются день за днем, да и с ресурсами у крупных поисковых систем проблем особых не возникает. А это означает, что уже в самом ближайшем времени роль внешних факторов и даже метатэгов может быть низведена практически до нуля. Поисковик получает возможность работать с контентом напрямую, всё более уверенно отличая качественный информативный текст от «мусора». Так что у нас есть все основания полагать, что недалек тот день, когда понятия «оптимизация» и «разработка контентного наполнения» станут синонимами.

Надолго ли — бог его знает. Скорее всего, надолго. Может быть, навсегда — если в распоряжении оптимизаторов не попадут полные и достоверные контекстные базы, что практически исключено. А следовательно, единственная методика поискового продвижения сайтов, которая выживет в новых условиях, единственная методика, на которую стоит делать ставку — это SEO-копирайтинг.

По крайней мере, мы в этом твердо уверены.

Об авторе
Евдокимов Николай Владимирович
С 2003 года является коммерческим директором и совладельцем “Лаборатории Контента”. Среди клиентов — РИА РосБизнесКонсалтинг, М-Видео, Эдил, РУСКАРТ, Федеральный кадастровый центр, группа компаний ПИК. До 2003 г. — заместитель директора по маркетингу издательского объединения “Аванта+”.

Основатель Searchengines.ru. С 2005 по 2014 год работал генеральным директором компании "Яндекс.Украина". Основатель и директор крупнейшего коворкинга Одессы — "Терминал 42". Ведет блог, участвует в подкастах. Больше ничего не умеет.