Специалист отдела качества поиска Google по работе с веб-мастерами Джон Мюллер (John Mueller) заявил на видео-встрече в Google+, что у Google не предусмотрено каких-либо «белых списков», где были бы перечислены характеристики сайтов, гарантирующие не попадание под действие алгоритмов Penguin или Panda:
«По большей части, мы не имеем никакого специального «белого списка», в котором указано, что у этого сайта на самом деле все в порядке, поэтому действие алгоритма на него распространяться не должно.
Таким образом, для главных алгоритмов поиска мы не создаем такие спецификации, но для некоторых отдельных алгоритмов нам необходимо иметь возможность применения санкций в ручном режиме...
Например, алгоритм безопасного поиска, определяющий сайты для взрослых: когда сайт похож на взрослый, но на самом деле содержит информацию о животных или о чем-то другом, - именно в таких случаях помогает «белый список».
У нас нет «белого списка» для многих других алгоритмов, например, Penguin и Panda».
В 2011 году руководитель команды Google по борьбе с веб-спамом Мэтт Каттс (Matt Cutts) на SMX West рассказал, что компания имеет «белые списки» для алгоритмов, но не уточнил, для каких именно.
Консультант по маркетингу компании RankAbove Аарон Фридман (Aaron Friedman) считает, что наступает конец эпохи потрясений от алгоритмов Penguin и Panda.