Автор – Калимуллин Айрат, директор по развитию, веб-студия АртКлён

Вначале я расскажу многое из того, что вы знаете. Это нужно для того, чтобы вы получили полное представление о том, чем я хочу с вами поделиться. А в конце я представлю кейс, на котором вы поймёте, как из знакомого инструмента получить намного больше.

Итак, начнём с теории. Многие знают «Яндекс.Вордстат», также известный как «Подбор слов». Этот инструмент в закладках у многих специалистов, использующих выводы анализа запросов в своей работе. В нём можно узнать, как часто люди используют в поиске те или иные ключевые слова и выражения. Кроме этого можно понять, какими словами люди чаще всего изъясняются с поисковиком.

В данной статье я хочу рассказать вам, как мы из таких запросов получаем модель поискового поведения. Далее из такой модели мы получаем интеллектуальную структуру многих составляющих сайта, таких как фильтры, навигация и подсказки. Но самое важное: это позволяет нам генерировать уникальные целевые страницы под каждый поисковый запрос.

«Длинный хвост»

Вначале было слово. Такой запрос называли высокочастотным. Потом появились запросы средней и низкой частоты. В результате появился так называемый «длинный хвост».

«Хвосты» бывают и подлиннее, но для примера хватит и этого. Появление его связано ещё и с тем, что поисковая строка стала понимать голосовые запросы и люди стали активно их диктовать в свои смартфоны. Это нововведение также расширило возрастные рамки, и люди более взрослого поколения окончательно укрепили тенденцию «длинного хвоста». Например, моя мама. Обычная длина ее голосового запроса колеблется от 4 до 7 слов. Любые попытки её переучить были тщетны. Через некоторое время я убедился, что такие запросы чаще попадают в цель.

Выведем отсюда правило: чем больше хвост запроса, тем точнее результаты выдаст поисковик, и, следовательно, больше вероятности, что потребность искавшего будет удовлетворена.

Да, это выбор между качеством и количеством входящего трафика, хотя некоторые профессионалы находят компромиссы. Мы не стали исключением.

От «хвостов» к моделям

Имея в запасе собственный php-фреймворк, двух программистов и специалиста по маркетингу, мы решили пойти дальше. А именно применять «длинный  хвост» в структурах сайта, в том числе в SEO, для целей генерации заголовков и метаинформации целевых страниц сайта. Мы поняли, что особенности поисковых запросов можно преобразовать в модель, универсальную для всей целевой аудитории.

Как видно на примере, для покупателей кирпича характерны включения в запрос таких характеристик, как материал, цвет, тип, марка прочности, завод – всего около 7 характеристик.

Так как от запроса к запросу количественный и качественный состав характеристик изменяется, перед нами стояла задача создать страницы под каждое возможное пересечение.

Проще всего это можно представить как многомерную матрицу. Для упрощения представим матрицу из 3 характеристик кирпича, ведь нарисовать семимерную довольно трудно.

Каждая ячейка такой матрицы – отдельная страница с уникальным заголовком и метатегами.

Я опущу технические детали того, как это всё программировалось, скажу только, что в результате мы сгенерировали более 30 000 таких страниц.

Что это даёт нам и клиенту – на сайте есть страница под любой целевой запрос. Этим самым мы увеличили количество переходов, сохранив качество!

Кейс

Обкатав технологию на нескольких проектах, мы и наши клиенты сполна проверили её эффективность и стали предлагать, когда видели её потенциальную применимость в проектах. Это позволило вывести поисковое продвижение на новый уровень не только в компании, но и в городе.

В 2017 году к нам обратилась компания РосТрансКо, которая занимается перевозками по всей России. После интервью с директором было выявлено, что для компании совершенно неважно, из какого города в какой вести груз. Обратившись  всё к тому же Wordstat, мы выявили поисковую модель:

Далее мы определили перечень пунктов, которые будут взяты за точки отправления и доставки. Критерием было выбрано количество жителей – более 10 000 человек. Получилось, что в России таких пунктов – 1476. У компании – 8 услуг по каждому направлению. После несложных вычислений мы поняли, на будущем ресурсе будет сгененерировано свыше 17 000 000 страниц. Это был шок для всех. Благо, собственный фреймворк, прошлые наработки и компетенции программистов помогли нам претворить это в жизнь.

На данный момент проект в стадии усиленного роста, поисковики потихоньку индексируют страницы, а штат компании-клиента расширяется. Остальное я предпочту оставить в тайне.

Заключение

Мы долго искали подходящее слово для такой услуги. Перебрали много вариантов. Назвать это SEO в классическом понимании – язык не поворачивается. Пробовали назвать BigSEO – люди не понимают. Пока решили называть поисковый маркетинг. Если у вас есть вариант – пишите в комментариях – мы будем очень рады.

Модели поискового поведения становятся всё актуальнее для студий, желаю вам искать новые подходы к их применению!

Редактор-переводчик. Специализируется на западном интернет-маркетинге и SEO. Освещает события в этой области с 2014 года.

36 КОММЕНТАРИИ

  1. Инструмент конечно отличный, хотелось бы побольше в технические детали углубиться, как это всё делалось и т.п. 🙂
    А по названию — SmartSEO чем не вариант? Эпоха умных гаджетов, умных инструментов, так и тут, учитывая что каждый год поисковики становятся всё более «прошаренными», название такого SEO инструмента тоже должно быть соответствующим 🙂

    • Технически все делается руками на практически на голом php. Мы делаем выборку актуальных фильтров по характеристикам товаров, отсеивает те которые не интересны пользователям в поисковых системах. Генерируем на всю эту матрицу уникальные url, заголовки H1, метатеги title и description (если нужно). Так же мы мы оптимизируем заголовки так чтобы пользователь получал сразу же полезную информацию типа минимальной цены, если есть возможность отправляем данные в Вебмастер для спецсниппетов с ценой, но это уже другая история =)

    • И в чем тут «смарт»? Втупую генерить страницы под все возможные запросы. Я бы назвал BulkSEO, или квазидорвей. Вообще, такая технология пару лет назад была популярна, а те же Авиасейлс делали это до того, как это стало экстримом. Сейчас все, наоборот, от этого уходят, особенно те, кому важен Гугл.

      • Если «втупую генерить», то можно и так назвать. В этой же статье говориться о том, что сначала прорабатывается семантика и определяются важные для посетителя фильтра, а потом уже генерируются страницы. Сейчас мы пришли к тому что не целевые для поиска фильтры (однако важные для пользователя) «отсекаются» системой и не попадают в поиск. Если не прорабатывать проект, а тупо генерировать большое количество страниц, это ничего не принесет, кроме потери квоты обхода робота ПС.

        • «Сейчас мы пришли к тому что не целевые для поиска фильтры (однако важные для пользователя) «отсекаются» системой и не попадают в поиск» — а вот это уже тянет на «смарт». И сколько на выходе получается, из 17 миллионов?

  2. Яндекс по запросу site:rosstransco.com выдает 173т. результатов — не 17млн. конечно, но страницы в поиске есть. Причем все позавчерашние.

    А какая гарантия, что завтра эти страницы Яндекс не пометит как дубли и в следующем апдейте не выкинет их из выдачи?
    Сейчас если посмотреть с помощью SEO Frog можно увидеть множество дублирующихся тайтлов.
    А если даже не выкинет из выдачи, так и позиций у таких страниц не будет. Ассоциирует в группу и будет показывать только одну страницу.
    Ручные фильтры опять же.
    Какие комментарии по этому поводу вы можете дать?

    • Фильтрацию естественно надо настраивать на основе потребностей в интернете. если нет таких запросов, то с целью увеличения поведенческого фактора.
      По поводу 173 тысяч. Мы знаем про это. Это связанно с тем что сервер не выдержал скорости обхода страниц и упал при потоке в 2 млн хитов в сутки, сейчас переехали на новый сервер и он опять начал закидывать страницы в поиск. Видимо этот процесс вы и заметили.
      Что касается индекса. Поисковик сам отсеет интересующие его страницы. То что интересно (то что ищут) он добавит в поиск то что не ищут он выкинет.

    • На счет дублирующих тайтлов, сразу не соглашусь с вами. Если у вас не отключена опция учитывать неканоничные страницы, то вы обнаружите дубли реальных городов с разными данными по ним. Например, у нас в РФ несколько населенных пунктов с названием «Мирный». Однако у всех них есть разные расстояния и маршруты и соответственно разные данные по ценам.

      Наша модель основана на максимальной полезности для пользователя. Посмотрите какая информация содержится на сайтах подобной тематики. Если есть расстояния и цены — это скорее исключение. В основном страницы имеют портянки SEO-текстов о том, как «издревле на Руси ценились перевозки» и прочая муть. Согласитесь, не самая полезная информация для пользователя. Люди это попросту не читают и при этом поисковые системы оставляют эти страницы в поиске. Это происходит, потому что тематика грузоперевозок еще не выросла в полноценные сервисы. Наша попытка создать что-то интересное для пользователя не нова, если внимательно поискать в Интернетах, то можно найти подобные решения и они прекрасно работают. Однако наше решение основано еще на более детальном разбиении на поддоменные зоны и интеграцию в каждом регионе на уровне Вебмастера Яндекс.

      Да, проект еще на этапе индексирование. И уже были первые «ласточки» в виде высоких нагрузок на наши сервера. Однако за один месяц работ мы получили стабильное количество ЕЖЕДНЕВНЫХ лидов. Я думаю, это результат не плохой для начала.

      • «Однако наше решение основано еще на более детальном разбиении на поддоменные зоны и интеграцию в каждом регионе на уровне Вебмастера Яндекс.»
        То есть вы регистрировали каждый поддомен и определяли ему регион вручную?

        • Да, именно так. Вообще есть копания в нашем портфолио с регионами присутствия в 70 городах, поэтому для нее детально прорабатывается не только Яндекс Вебмастер, но и Яндекс Справочник. Особенно важно прорабатывать отзывы, мотивировать покупателей оставлять их и отрабатывать негатив.

          • А в API вебмастера региональность не добавляется?
            Если в ручную, это же геморрой какой! Их там сколько, поддоменов в итоге вышло?
            А как регион подтверждали? Там же страницу с адресом указать нужно, а у вас везде Наб.Челны в контактах.

    • Значит эти страницы не интересны для пользователей. Вам необходимо определить такие страницы и попытаться либо проработать их, либо скрыть от поиска. Важно понимать что нужно потенциальному покупателю на этой странице и есть вообще спрос на этот товар в интернете в вашем регионе. Если продавать кирпич в маленьком городе, достаточно сделать небольшую, но интересную для пользователя выборку. Не всегда сложные фильтры ведут к продаже, иногда лаконичность и простота лучше работают для бизнеса.

    • Вот тут как раз все отлично. По каждому запросу показывается подборка товаров и эта подборка является как раз уникальной по отношению к другим подборкам. А самое главное что уникализация происходит естественным путем.

    • Мы реализовали систему где на каждую генерируемую страницу можно вставить уникальные текст, а так же осталась возможность протянуть сквозной текст для всех страниц раздела каталога (если это нужно для маркетинговых целей).

  3. Подытоживаю:
    1) проверка сайта продажи кирпича: https://www.kirpichcom.com, который взят с сайта вебстудии: артклен, по сервису: https://www.xml-sitemaps.com — дает: 538 просканированных страниц, а не более 36000….! Что как бы уже сводит на нет весь текст статьи. (скриншот сайта кирпича с сайта вебстудии Артклен и найденный мною сайт — совпадают.)
    2) Страницы будут ПС считаться дублями. И после апдейта — будут выкинуты из выдачи…
    3) Заходов на каждую такую страницу- будет ничтожно мало. Потому — показываться ПС будет — опять же одна из группы всех похожих….
    Данная статья вызывает больше вопросов, чем ответов. ИМХО: вохможно — скрытая реклама.

  4. Мы можем долго вести полемику, в которой каждый основывается на собственном опыте и знаниях. Независимо от этого модель работает и клиенты довольны, ведь сайт активно конкурирует в ПС и это приносит свои плоды.
    Естественно, технология будет развиваться, ведь мы тоже люди и до всего доходим методом проб и ошибок.
    Спасибо за ваши комментарии, они помогут нам сделать технологию совершеннее

  5. Не совсем правильно сделано =)
    Вообще-то название есть, правда по русски: Умный СЕО фильтр.
    Вначале собирается семантика и на ее основе создаются фильтра, вернее ее переменные, а потом уже пересечения этих фильтров, в зависимости от вида бизнеса, обычно более 2 переменных в одном фильтре и пересечения более 2 фильтров по фильтрам верхнего уровня, закрываются от индекса, вот тут и состоит проблема, если движок не правильно настроен, 17 лямов это мелочь =)))

  6. Тут главное не налепить кучу страниц по которым не будет запросов. А то останетесь вообще без трафика) потому как полезных страниц будет намного меньше бесполезных. В 2016, применили данный инструмент (инхауз), результат не прям вау, большего мы добились подобравь НЧ ядро вручную и создав страницы также вручную.