Автор – Калимуллин Айрат, директор по развитию, веб-студия АртКлён

Вначале я расскажу многое из того, что вы знаете. Это нужно для того, чтобы вы получили полное представление о том, чем я хочу с вами поделиться. А в конце я представлю кейс, на котором вы поймёте, как из знакомого инструмента получить намного больше.

Итак, начнём с теории. Многие знают «Яндекс.Вордстат», также известный как «Подбор слов». Этот инструмент в закладках у многих специалистов, использующих выводы анализа запросов в своей работе. В нём можно узнать, как часто люди используют в поиске те или иные ключевые слова и выражения. Кроме этого можно понять, какими словами люди чаще всего изъясняются с поисковиком.

В данной статье я хочу рассказать вам, как мы из таких запросов получаем модель поискового поведения. Далее из такой модели мы получаем интеллектуальную структуру многих составляющих сайта, таких как фильтры, навигация и подсказки. Но самое важное: это позволяет нам генерировать уникальные целевые страницы под каждый поисковый запрос.

«Длинный хвост»

Вначале было слово. Такой запрос называли высокочастотным. Потом появились запросы средней и низкой частоты. В результате появился так называемый «длинный хвост».

«Хвосты» бывают и подлиннее, но для примера хватит и этого. Появление его связано ещё и с тем, что поисковая строка стала понимать голосовые запросы и люди стали активно их диктовать в свои смартфоны. Это нововведение также расширило возрастные рамки, и люди более взрослого поколения окончательно укрепили тенденцию «длинного хвоста». Например, моя мама. Обычная длина ее голосового запроса колеблется от 4 до 7 слов. Любые попытки её переучить были тщетны. Через некоторое время я убедился, что такие запросы чаще попадают в цель.

Выведем отсюда правило: чем больше хвост запроса, тем точнее результаты выдаст поисковик, и, следовательно, больше вероятности, что потребность искавшего будет удовлетворена.

Да, это выбор между качеством и количеством входящего трафика, хотя некоторые профессионалы находят компромиссы. Мы не стали исключением.

От «хвостов» к моделям

Имея в запасе собственный php-фреймворк, двух программистов и специалиста по маркетингу, мы решили пойти дальше. А именно применять «длинный  хвост» в структурах сайта, в том числе в SEO, для целей генерации заголовков и метаинформации целевых страниц сайта. Мы поняли, что особенности поисковых запросов можно преобразовать в модель, универсальную для всей целевой аудитории.

Как видно на примере, для покупателей кирпича характерны включения в запрос таких характеристик, как материал, цвет, тип, марка прочности, завод – всего около 7 характеристик.

Так как от запроса к запросу количественный и качественный состав характеристик изменяется, перед нами стояла задача создать страницы под каждое возможное пересечение.

Проще всего это можно представить как многомерную матрицу. Для упрощения представим матрицу из 3 характеристик кирпича, ведь нарисовать семимерную довольно трудно.

Каждая ячейка такой матрицы – отдельная страница с уникальным заголовком и метатегами.

Я опущу технические детали того, как это всё программировалось, скажу только, что в результате мы сгенерировали более 30 000 таких страниц.

Что это даёт нам и клиенту – на сайте есть страница под любой целевой запрос. Этим самым мы увеличили количество переходов, сохранив качество!

Кейс

Обкатав технологию на нескольких проектах, мы и наши клиенты сполна проверили её эффективность и стали предлагать, когда видели её потенциальную применимость в проектах. Это позволило вывести поисковое продвижение на новый уровень не только в компании, но и в городе.

В 2017 году к нам обратилась компания РосТрансКо, которая занимается перевозками по всей России. После интервью с директором было выявлено, что для компании совершенно неважно, из какого города в какой вести груз. Обратившись  всё к тому же Wordstat, мы выявили поисковую модель:

Далее мы определили перечень пунктов, которые будут взяты за точки отправления и доставки. Критерием было выбрано количество жителей – более 10 000 человек. Получилось, что в России таких пунктов – 1476. У компании – 8 услуг по каждому направлению. После несложных вычислений мы поняли, на будущем ресурсе будет сгененерировано свыше 17 000 000 страниц. Это был шок для всех. Благо, собственный фреймворк, прошлые наработки и компетенции программистов помогли нам претворить это в жизнь.

На данный момент проект в стадии усиленного роста, поисковики потихоньку индексируют страницы, а штат компании-клиента расширяется. Остальное я предпочту оставить в тайне.

Заключение

Мы долго искали подходящее слово для такой услуги. Перебрали много вариантов. Назвать это SEO в классическом понимании – язык не поворачивается. Пробовали назвать BigSEO – люди не понимают. Пока решили называть поисковый маркетинг. Если у вас есть вариант – пишите в комментариях – мы будем очень рады.

Модели поискового поведения становятся всё актуальнее для студий, желаю вам искать новые подходы к их применению!

Редактор-переводчик. Специализируется на западном интернет-маркетинге и SEO. Освещает события в этой области с 2014 года.

36
Прокомментировать

avatar
14 Цепочка комментария
22 Ответы по цепочке
0 Последователи
 
Популярнейший комментарий
Цепочка актуального комментария
19 Авторы комментариев
SvetlanaСергей ДавлятовSergei A Pricazchikovfirestarter1987Пані Яновська Авторы недавних комментариев
  Подписаться  
новее старее большинство голосов
Уведомление о
New Point
Гость
New Point

Инструмент конечно отличный, хотелось бы побольше в технические детали углубиться, как это всё делалось и т.п. 🙂
А по названию — SmartSEO чем не вариант? Эпоха умных гаджетов, умных инструментов, так и тут, учитывая что каждый год поисковики становятся всё более «прошаренными», название такого SEO инструмента тоже должно быть соответствующим 🙂

Rustem Shagitov
Гость
Rustem Shagitov

Технически все делается руками на практически на голом php. Мы делаем выборку актуальных фильтров по характеристикам товаров, отсеивает те которые не интересны пользователям в поисковых системах. Генерируем на всю эту матрицу уникальные url, заголовки H1, метатеги title и description (если нужно). Так же мы мы оптимизируем заголовки так чтобы пользователь получал сразу же полезную информацию типа минимальной цены, если есть возможность отправляем данные в Вебмастер для спецсниппетов с ценой, но это уже другая история =)

Oleg Kolyamkin
Гость
Oleg Kolyamkin

И в чем тут «смарт»? Втупую генерить страницы под все возможные запросы. Я бы назвал BulkSEO, или квазидорвей. Вообще, такая технология пару лет назад была популярна, а те же Авиасейлс делали это до того, как это стало экстримом. Сейчас все, наоборот, от этого уходят, особенно те, кому важен Гугл.

PozitronW
Гость

Если «втупую генерить», то можно и так назвать. В этой же статье говориться о том, что сначала прорабатывается семантика и определяются важные для посетителя фильтра, а потом уже генерируются страницы. Сейчас мы пришли к тому что не целевые для поиска фильтры (однако важные для пользователя) «отсекаются» системой и не попадают в поиск. Если не прорабатывать проект, а тупо генерировать большое количество страниц, это ничего не принесет, кроме потери квоты обхода робота ПС.

Oleg Kolyamkin
Гость
Oleg Kolyamkin

«Сейчас мы пришли к тому что не целевые для поиска фильтры (однако важные для пользователя) «отсекаются» системой и не попадают в поиск» — а вот это уже тянет на «смарт». И сколько на выходе получается, из 17 миллионов?

Alexandr Gushchin
Гость
Alexandr Gushchin

Яндекс по запросу site:rosstransco.com выдает 173т. результатов — не 17млн. конечно, но страницы в поиске есть. Причем все позавчерашние.

А какая гарантия, что завтра эти страницы Яндекс не пометит как дубли и в следующем апдейте не выкинет их из выдачи?
Сейчас если посмотреть с помощью SEO Frog можно увидеть множество дублирующихся тайтлов.
А если даже не выкинет из выдачи, так и позиций у таких страниц не будет. Ассоциирует в группу и будет показывать только одну страницу.
Ручные фильтры опять же.
Какие комментарии по этому поводу вы можете дать?

Айрат Калимуллин
Гость
Айрат Калимуллин

Фильтрацию естественно надо настраивать на основе потребностей в интернете. если нет таких запросов, то с целью увеличения поведенческого фактора.
По поводу 173 тысяч. Мы знаем про это. Это связанно с тем что сервер не выдержал скорости обхода страниц и упал при потоке в 2 млн хитов в сутки, сейчас переехали на новый сервер и он опять начал закидывать страницы в поиск. Видимо этот процесс вы и заметили.
Что касается индекса. Поисковик сам отсеет интересующие его страницы. То что интересно (то что ищут) он добавит в поиск то что не ищут он выкинет.

PozitronW
Гость

На счет дублирующих тайтлов, сразу не соглашусь с вами. Если у вас не отключена опция учитывать неканоничные страницы, то вы обнаружите дубли реальных городов с разными данными по ним. Например, у нас в РФ несколько населенных пунктов с названием «Мирный». Однако у всех них есть разные расстояния и маршруты и соответственно разные данные по ценам. Наша модель основана на максимальной полезности для пользователя. Посмотрите какая информация содержится на сайтах подобной тематики. Если есть расстояния и цены — это скорее исключение. В основном страницы имеют портянки SEO-текстов о том, как «издревле на Руси ценились перевозки» и прочая муть. Согласитесь, не самая… Подробнее »

Alexandr Gushchin
Гость
Alexandr Gushchin

«Однако наше решение основано еще на более детальном разбиении на поддоменные зоны и интеграцию в каждом регионе на уровне Вебмастера Яндекс.»
То есть вы регистрировали каждый поддомен и определяли ему регион вручную?

PozitronW
Гость

Да, именно так. Вообще есть копания в нашем портфолио с регионами присутствия в 70 городах, поэтому для нее детально прорабатывается не только Яндекс Вебмастер, но и Яндекс Справочник. Особенно важно прорабатывать отзывы, мотивировать покупателей оставлять их и отрабатывать негатив.

Alexandr Gushchin
Гость
Alexandr Gushchin

А в API вебмастера региональность не добавляется?
Если в ручную, это же геморрой какой! Их там сколько, поддоменов в итоге вышло?
А как регион подтверждали? Там же страницу с адресом указать нужно, а у вас везде Наб.Челны в контактах.

Ренат Зайдуллин
Гость

Тоже всегда так делаю

Илья
Гость
Илья

Добрый день, спасибо за статью. Подскажите пожалуйста, генерация посадочных страниц реализовывалась по статическим URL или динамическим ?

Ренат Зайдуллин
Гость

Покажите метрику проектров. Делал как раз по кирпичу подобную тему года 4 назад, сайт влетает в индекс, дает трафик, потом почти все страницы вылетают так как трафика там 1-2 посетителя в год на страницу.

PozitronW
Гость

Значит эти страницы не интересны для пользователей. Вам необходимо определить такие страницы и попытаться либо проработать их, либо скрыть от поиска. Важно понимать что нужно потенциальному покупателю на этой странице и есть вообще спрос на этот товар в интернете в вашем регионе. Если продавать кирпич в маленьком городе, достаточно сделать небольшую, но интересную для пользователя выборку. Не всегда сложные фильтры ведут к продаже, иногда лаконичность и простота лучше работают для бизнеса.

Рома Лишук
Гость
Рома Лишук

А что на счёт уникальности таких страниц? Текст то одинаковый будет. Если канонизировать то из всей группы страниц будет только одна страница в выдаче.

Айрат Калимуллин
Гость
Айрат Калимуллин

Вот тут как раз все отлично. По каждому запросу показывается подборка товаров и эта подборка является как раз уникальной по отношению к другим подборкам. А самое главное что уникализация происходит естественным путем.

PozitronW
Гость

Мы реализовали систему где на каждую генерируемую страницу можно вставить уникальные текст, а так же осталась возможность протянуть сквозной текст для всех страниц раздела каталога (если это нужно для маркетинговых целей).

Степан Никатин
Гость
Степан Никатин

Я это сделал еще пол года назад, модуль к Diafan.CMS. называется умный SEO Фильтр NSV.
Не знаю прокатит ли ссылка https://addons.diafan.ru/modules/modules-and-services/umnyy-seo-filtr-nsv—meta-tegi-zagolovki-karta-say/

Arslan Kinzyabulatov
Гость

Устанавливал этот фильтр на одном из сайтов, всё прекрасно работает. Рекомендую.

Pioneri Kolosov
Гость
Pioneri Kolosov

Подытоживаю:
1) проверка сайта продажи кирпича: https://www.kirpichcom.com, который взят с сайта вебстудии: артклен, по сервису: https://www.xml-sitemaps.com — дает: 538 просканированных страниц, а не более 36000….! Что как бы уже сводит на нет весь текст статьи. (скриншот сайта кирпича с сайта вебстудии Артклен и найденный мною сайт — совпадают.)
2) Страницы будут ПС считаться дублями. И после апдейта — будут выкинуты из выдачи…
3) Заходов на каждую такую страницу- будет ничтожно мало. Потому — показываться ПС будет — опять же одна из группы всех похожих….
Данная статья вызывает больше вопросов, чем ответов. ИМХО: вохможно — скрытая реклама.

Степан Никатин
Гость
Степан Никатин

Посмотрите unident-online.ru
Тут стоит мой модуль «умный SEO Фильтр NSV», сгенерировано около 60000 страниц.

Pioneri Kolosov
Гость
Pioneri Kolosov

Да. количество страниц ПОТРЯСАЕТ! Хотя онлайн проверка сайтом:
https://www.xml-sitemaps.com
Действительно, не дает увидеть многим более 500-сот страниц.
Подскажите пожалуйста, не вылетают дли эти страницы из индекса? И не попадает ли сайт под фильтры ПС?

Степан Никатин
Гость
Степан Никатин

Под фильтры никак не попадает. Нет такого фильтра, я не делаю ничего противозаконного против ПС.
По индексу основная масса всегда на месте, а некоторая часть прыгает туда сюда, сегодня допустим 3000 удалено, 3000 добавлено.

Alexandr Gushchin
Гость
Alexandr Gushchin

Сомнительная реклама, либо на другом ресурсе нужно рекламироваться.

PozitronW
Гость

Вы это серьезно?! Сервисы подобного рода дают просканировать 500 страниц сайта бесплатно, остальное как правило в pro-версиях. Не морочьте людям головы, пользуйтесь «Лягушкой» — «SEO Frog» и будет вам счастье 😉

werr
Гость
werr

и потом сайт улетает в …… за переспам и дерьмовые страницы

PozitronW
Гость

я выше ответил на счет качество страниц подобной тематики =_=

Айрат Калимуллин
Гость
Айрат Калимуллин

Мы можем долго вести полемику, в которой каждый основывается на собственном опыте и знаниях. Независимо от этого модель работает и клиенты довольны, ведь сайт активно конкурирует в ПС и это приносит свои плоды.
Естественно, технология будет развиваться, ведь мы тоже люди и до всего доходим методом проб и ошибок.
Спасибо за ваши комментарии, они помогут нам сделать технологию совершеннее

Pavel Makarov
Гость
Pavel Makarov

Спасибо за интересный кейс!!!

Пані Яновська
Гость

Не совсем правильно сделано =)
Вообще-то название есть, правда по русски: Умный СЕО фильтр.
Вначале собирается семантика и на ее основе создаются фильтра, вернее ее переменные, а потом уже пересечения этих фильтров, в зависимости от вида бизнеса, обычно более 2 переменных в одном фильтре и пересечения более 2 фильтров по фильтрам верхнего уровня, закрываются от индекса, вот тут и состоит проблема, если движок не правильно настроен, 17 лямов это мелочь =)))

Sergei A Pricazchikov
Гость

именно так и делаем сейчас

firestarter1987
Гость
firestarter1987

BigSeo, SmartSeo. А почему не называете как все : дорей страницы.

Sergei A Pricazchikov
Гость

дорВей )

Сергей Давлятов
Гость
Сергей Давлятов

Тут главное не налепить кучу страниц по которым не будет запросов. А то останетесь вообще без трафика) потому как полезных страниц будет намного меньше бесполезных. В 2016, применили данный инструмент (инхауз), результат не прям вау, большего мы добились подобравь НЧ ядро вручную и создав страницы также вручную.

Svetlana
Гость
Svetlana

Интересная статья,как по мне)