Google представил BERT Update – крупнейший прорыв в работе поиска за последние 5 лет

3127

Google официально представил BERT Update – обновление, которое компания назвала «крупнейшим прорывом за последние 5 лет и одним из самых крупных качественных скачков в истории поиска».

Новый алгоритм помогает Google лучше понимать запросы на естественном языке. Он охватывает 1 из 10 запросов в США на английском языке. Со временем Google планирует расширить этот подход на большее количество стран и языков.

Google открыл исходный код технологии Bidirectional Encoder Representations from Transformers или сокращённо BERT, работающей на базе машинного обучения, в прошлом году. Эта технология позволяет тренировать системы ответа на вопросы.

Google применяет модели BERT в ранжировании и при формировании избранных сниппетов (featured snippets). В ранжировании – только для запросов на английском языке, для избранных сниппетов – в более чем 20 странах мира, где работает эта функция. Благодаря BERT поисковику удалось достичь значительных улучшений в области featured snippets на таких языках, как корейский, португальский и хинди.

BERT помогает Google «понимать» более длинные запросы, сформулированные на естественном языке, где большое значение имеют предлоги, такие как «for» и «to».

В качестве одного из примеров Google привёл запрос [2019 brazil traveler to usa need a visa]. Раньше поисковик возвращал по нему результаты о гражданах США, путешествующих в Бразилию. Хотя на самом деле речь идёт о о посещении Соединённых Штатов бразильскими туристами. Теперь Google правильно понимает такие запросы, учитывая предлог «to».

Google также применяет BERT для улучшения поиска по всему миру – выводы, сделанные в отношении одного языка, применяются к другим. Это помогает возвращать более релевантные результаты не только на английском, но и на многих других языках.

Данный прорыв стал результатом исследований Google в области «трансформеров» — нейросетей новой архитектуры для работы с последовательностями, которые обрабатывают слова в их связи со всеми остальными словами в предложении, а не по порядку. Анализируя слова перед словом и после него, модели BERT способны определять его полный контекст, что особенно полезно для понимания интента, стоящего за поисковым запросом.

При этом некоторые из моделей BERT настолько сложны, что Google пришлось использовать новое аппаратное обеспечение. В частности, компания впервые начала использовать для предоставления результатов поиска новейшие облачные TPU.

Согласно Search Engine Roundtable, в конце прошлой недели зарубежные вебмастера начали замечать признаки обновления поискового алгоритма Google. Есть предположения, что эти колебания были связаны с запуском BERT Update.

Дмитрий Запорожец — руководитель SEO-отдела Profitator (Kokoc Group):

«Все поисковики с каждым годом всё дальше будут уходить от классических алгоритмов ранжирования в сторону машинного обучения. Надо сказать, что тут Яндекс сильно опередил Google и начал использовать нейросети для понимания смысла запроса и сопоставления его с текстом ещё в 2016 году с алгоритмом Палех и годом позже, введя алгоритм Королёв. Так что принципиально нового нас ничего не ждёт.

Из-за обновления алгоритма, скорее всего, станет меньше нерелевантных ответов, особенно по НЧ-запросам. По частотным же запросам, вероятно, ничего не поменяется.

Если вспомнить ввод Палеха Яндексом — тогда они говорили, что алгоритм не заменяет основную формулу, а дополняет её, ещё один параметр в ней. Так же и Google говорит, что BERT не заменит тот же RankBrain. Где-то будут применяться оба, где-то только один — тот, который даст тут лучший результат».

Редактор-переводчик. Специализируется на западном интернет-маркетинге и SEO. Освещает события в этой области с 2014 года.

8
Прокомментировать

avatar
4 Цепочка комментария
4 Ответы по цепочке
5 Последователи
 
Популярнейший комментарий
Цепочка актуального комментария
5 Авторы комментариев
СтасДмитрийReporterДмитрийАнтон Авторы недавних комментариев
  Подписаться  
новее старее большинство голосов
Уведомление о
Стас
Гость
Стас

Спасибо за грамотную компоновку новости. Только не понятно, зачем тут комментарий Кокоса? Тем более, что он говорит какой-то бред про «передовой Яндекс», учитывая, что алгоритм Hummingbird был в Гугле с 2013 года.

Антон
Гость
Антон

В Hummingbird не применялись нейросети.

Дмитрий
Гость
Дмитрий

Комментатор болен ?

Reporter
Гость
Reporter

Про Яндекс было смешно

Дмитрий
Гость
Дмитрий

Печально, что некоторые оптимизаторы когда видят фразу-красную тряпку «Яндекс опередил Гугл» перестают дочитывать и осмыслять фразу до конца и идут острить в комментарии. 1) Как уже верно заметил Антон — Hummingbird в 2013 году был не про нейросети. Единственное, что его связывало с Бертом, Пахелом и Королевом тогда — он бы про попытки лучше понимать естественный язык. 2) Нейросети — один из видов машинного обучения. Не единственный, есть и другие. 3) Как часть Hummingbird в 2015 году у Гугла появился RankBrain. RankBrain действительно про ML, где-то даже были упоминания, что он именно про нейросети, хотя официальных подтверждений, что он использует… Подробнее »

Стас
Гость
Стас

Недопонимание возникло из-за того, что вы начали сравнивать BERT с Палехом (они вообще про разные вещи). Про то, про что в Яндексе Палех, в Гугле Hummingbird. И делать выводы типа «принципиально нового нас ничего не ждёт» — это бред, потому что Палех — это просто надстройка над DSSM (изобретение Microsoft), а BERT — это полностью новаторский подход, основанный на новой архитектуре http://www.arxiv.org/abs/1810.04805

Дмитрий
Гость
Дмитрий

Сравнение было лишь в том, что и там и там в основе именно нейросети. В этом контексте неважно было, новаторский там подход или нет. Сложно полностью раскрыть мысль и исключить все двоякие толкования в паре предложений. А принципиально нового в требованиях к оптимизации нас действительно ничего не ждет с введением Берта. Как он скорректирует ваш сегодняшний процесс по внутренней оптимизации страниц? Никак. Тут нужно сказать, что небольшая путаница возникла потому что финальный комментарий был не очень удачно урезан. В оригинальном комменте после предложения «Так что принципиально нового нас ничего не ждет. » было продолжение — «Мы давно привыкли к тому,… Подробнее »

Стас
Гость
Стас

Ну с этим согласен)