Каттс: «Панда» 4.0 стала более мягкой по отношению к сайтам, но это лишь начало большой работы

Алгоритм «Панда» 4.0 за счёт обновлённой архитектуры стал более «мягким» по отношению к сайтам, однако обновление фильтра станет лишь основой для дальнейших шагов Google по очистке поисковой выдачи от некачественных ресурсов.

Об этом в Твиттере сообщил руководитель команды Google по борьбе с веб-спамом Мэтт Каттс (Matt Cutts), отвечая на многочисленные вопросы и предположения профессионалов по поводу обновления.

@Marie_Haynes think of it like P4 is a new architecture. Brings in some of the softer side, but also lays groundwork for future iteration.

— Matt Cutts (@mattcutts) 23 мая 2014

Ещё марте 2014 года на конференции SMX West 2014 Мэтт Каттс лично сообщил о том, Google работает над алгоритмом «Панда» нового поколения, который должен стать гораздо более дружественным к представителям малого бизнеса, чем предшествующие версии. На тот момент было заявлено, что аапдейты обновлённого алгоритма будут происходить чаще, но при этом станут гораздо менее травматичными для владельцев коммерческих сайтов.

И всё же последнее обновление «Панды», выпущенное 21 мая 2014 года, стало заметным и обсуждаемым. Апдейт должен был затронуть до 7,5% запросов в англоязычной выдаче Google. После обновления «Панды» позиции в Google особенно ощутимо снизились у сайтов следующих тематик: недвижимость, мода, технологии, широкополосный интернет, туризм и отдых, страхование. Первой заметной «жертвой» обновления стал сайт крупнейшей торговой площадки eBay.com - в частности, британская версия сайта ebay.co.uk. Вторым пострадавшим стал ресурс поисковой системы Ask.com - трафик из Google перестал поступать на страницы раздела ask.com/question/ практически полностью.

Тем не менее, ситуация с понижением позиций с eBay остаётся не до конца прояснённой: источники, близкие к компании заявляют, что ресурс пострадал не столько от «Панды» 4.0, сколько от санкций вручную. Причиной могли стать дублированные карточки товаров и неуникальные отзывы.

Отечественные специалисты на форуме Searchengines.guru также отметили проседание трафика по отдельным проектам, подчёркивая, что вместо резкого падения позиции «сползают» постоянно, но очень медленно. Главным образом, позиции теряют сайты, контент с которых не являлся уникальным изначально или был впоследствии украден другими ресурсами.

Мэтт Каттс об отношении Google к нескольким ссылкам на странице, ведущим на один и тот же документ

В новом обучающем видео для вебмастеров и оптимизаторов руководитель команды Google по борьбе с веб-спамом Мэтт Каттс (Matt Cutts) рассказал о том, как поисковик относится к...

В Analytics Premium можно объединять данные по нескольким аккаунтам в один отчёт

В Google Analytics Premium запущен новый вид отчётов, способных предоставлять в единой вкладке данные по различным ресурсам, принадлежащим одному владельцу, будь-то веб-сайты...

Google запустил инструмент для просмотра страниц, содержащих файлы CSS и JavaScript, как Googlebot

Представители Google официально сообщили о запуске инструмента, который позволит вебмастерам просматривать страницы сайтов, содержащие изображения, файлы CSS и JavaScrip, как...

В SpyWords стала доступна история показателей доменов за последний год

Сервис SpyWords сообщил о запуске нового функционала, демонстрирующего историю показателей доменов за последние 12 месяцев

Новый поисковик «Спутник» в ближайшие дни станет доступен за пределами РФ

За пределами Российской Федерации государственный поисковик Спутник станет доступен в ближайшие дни, начиная с сегодняшнего. Об этом редакции Searchengines...

В «Инструментах для веб-мастеров» Google будут показаны ошибки в JavaScript-коде

Google запускает специальный инструмент, который позволит вебмастерам мгновенно видеть, какие ошибки были при написании JavaScript-кода для той или иной страницы сайта