Не все Яндексу одинаково полезно! Обзор вебинара ROOKEE

Первым выступил Иван Васильевич aka Murketolog с докладом «Поисковой маркетинг в Яндексе 2011» или «Чем дальше в лес, тем круче бензопилы…»

Как настоящий футурист, Иван Васильевич решил рассказать в своем докладе о том, что будет в следующем году, и к чему нужно быть готовыми большинству сео-компаний. Начал он свое выступление с рассказа о том, как идет борьба не на жизнь, а на смерть между Яндексом и Google, сравнив не только их нынешние достижения в 2010 году, но и сделав для них прогноз на 2011 год.

Так, в этом году Яндекс:

1. ввел, скорее доводит с помощью асессоров (пользователей, которые тестируют выдачу) региональное ранжирование. Потому что, очевидно, что пользователю, который ищет пиццу во Владивостоке, в Гугле будет выдаваться пицца с московских сайтов, а в Яндексе – местная информация, понятно, что все регионы руками и ногами за Яндекс

2. вводит поиск в реальном времени, то есть можно будет видеть результаты поиска по блогам, например, когда по какому-то нашему запросу, с помощью Аякса загружается информация, которая есть в твиттере

3. ну и совсем недавнее нововведение, когда по одному и тому же запросу, может выводиться по нескольку релевантных страниц с одного и того же сайта

Прогнозы Murketologа Яндексу на 2011 год:

1. прекращение неудачных внедрений, так называемых fuck up-ов. То есть уже очень последовательно, как это делает Google, будут вводиться все изменения, и больше мы не увидим таких несуразных результатов в выдаче, как мы видели например в прошлом году

2. будут совершенствоваться колдунщики, это так называемое разбавление выдачи различными информационными сайтами

3. начнется цензурирование. Наверняка появятся всякие законодательные ограничения, и все это будет контролироваться государством

4. дальше Яндекс начнет учитывать детскую аудиторию, ведь ни много ни мало, а это 10 миллионов человек до 14 лет, и будет ее персонифицировать по рекламе, в частности по контексту.

5. более грамотный учет юзабилити и скорости загрузки страницы. В Google это уже учитывается, а в Яндексе недолго уже ждать осталось, — если сайт медленно грузится, что он в ранжировании будет дальше определяться

6. учет поведенческих факторов и кликов по ссылкам в выдаче. Если пользователь искал один сайт в десятке, потом щелкнул на него и пошел искать дальше, то есть опять вернулся к выдаче, значит, что-то не то с этим сайтом – либо он не совсем релевантный, либо он не совсем удобный

А Google в этом году, с введением новых алгоритмов МayDay и Coffeine, научился:

1. работать со сниппетами по разным тематикам

2. бороться с текстовыми свалками. В принципе, Яндекс уже более менее как бы их поборол, но Google, как символ мирового интернета, более активно этим занялся, и маятник качнулся в сторону понижения роли трастовых, то есть, старых доменов. Если еще в прошлом году, до введения Coffeine, старым сайтам американским, которым уже по 10 лет можно было никак вообще не беспокоиться, надо было более менее релевантный написать текст, и висеть в топе постоянно, то сейчас уже роль вот этой трастовости понижена, потому что надо дать дорогу молодым

3. рекламироваться в оффлайне. Все наверное заметили, что у Google была реклама в кинотеатрах, в питерском метрополитене, наружная реклама и так далее

4. продвигать сервисы Gmail (Buss) и Геосервисы

А в следующем году, по мнению Murketologa, Google будет:

1. вводить так называемый поиск без поиска. Это учет поведенческих факторов, когда пользователь еще ничего особо не подумал, еще ничего не сделал, а ему уже что-то предлагается. Точнее, что это за зверь такой, мы пока еще сформулировать не можем, но по крайней мере такое выражение как «поиск без поиска», оно уже витает в воздухе

2. развивать голосовой поиск

3. вводить геотаргетинг по регионам России. Я думаю, что Гугл не долго будет мириться с таким преимуществом Яндекса, и обязательно введет ранжирование по каким-то, если не городам, то зонам России, иначе он еще более стремительно будет терять российскую аудиторию

Далее Иван Васильевич остановился подробно на задачах ПС. Он сформулировал порядка 7-8 задач для поисковой системы, и установил, что задача монетизации выдачи и задача релевантности – разнонаправлены. А вот, например задачи по учету факторов юзабилити в выдаче и задача релевантности решаются в одну сторону.

Задача же персонализации, по мнению докладчика, решается Яндексом весьма интересно — поисковик стремится для разных пользователей, даже по одному и тому же запросу, давать разную выдачу.

Еще некоторые прогнозы Murketologa:

1. Google заявляет уже четко о том, что местонахождение гиперссылки на странице влияет на ее вес. И в Яндексе, не смотря на то, что пока не влияет, но в дальнейшем будет также влиять, как и в Google

2. Отличие различных коммерческих и некоммерческих тематик. Яндекс научился это определять. И надстройка выдачи по этим различным тематикам.

3. Привлечение бизнеса в региональные дополнительные сервисы.

4. Смена алгоритмов, хотя после Матрикснета, после революционной такой технологии, о смене алгоритмов думать сложно. Будет даже не смена, а постепенное такое подкручивание одного, другого, и смена коэффициентов.

5. Увеличение доли блогов в обычной выдаче. Сейчас, например, в западном Google по многим запросам выдаются не корпоративные сайты, которые продвигаются, а блоги. Аналогичное будет и в Яндексе, доля блогов будет уменьшаться именно по своему влиянию на ссылки.

6. «Эксперименты Себранта Яндекса» были выделены Иваном Васильевичем в особый пункт прогнозов, видать, неутомимая энергия директора по маркетингу сервисов Яндекс, позволяет предполагать еще долгие-долгие годы экспериментов над интерфейсом поисковой выдачи, различных сервисов, проведение различных тестирований и так далее.

Murketolog: «Рынок изменился, большое количество сео-компаний уже декларирует оплату «по факту», предоставляет ежедневную отчетность по позициям, готово работать без предоплаты или вовсе не брать деньги за «оптимизацию сайта». У многих имеются свои call-центры и агрессивные продажники, которые переманивают клиентов и могут продать все, что угодно. В итоге, конкурировать на этом рынке небольшим сео-компаниям становится все сложней и сложней».

В итоге докладчик пришел к выводу, что по старому сео-компаниям уже работать нельзя, даже если клиент висит в топе, если ему ничего несколько месяцев не предлагать, есть шанс, что его уведет другая сео-компания. Частным оптимизаторам – фрилансерам тоже надо как-то окультуриваться и предлагать клиентам более комплексные решения, уже не SEO рафинированное, а поисковой маркетинг.

Давать контекстную рекламу уже мало кого устраивает, стоимость кликов в контексте уже зашкаливает, это уже не 10 копеек, а сотни рублей по многим конкурентным тематикам. И причина недовольства тем, что вот, сайт в 10-ке, а звонков нет, может быть любая. Конвейерный принцип продвижения однозначно дает сбой, потому что нужен индивидуальный подход, более квалифицированная работа менеджеров.

Далее Murketolog порадовал всех изображением тонущего парохода на слайде своей презентации и заявил, что наступает стагнация рынка SEO, и не понятно, связано это с кризисом или не очень. Резко уменьшается время жизни клиента, потому что они мечутся от компании к компании, за 2 года могут сменить 2-3 сео-компании. Так, мелкие игроки разоряются, потому что у них не хватает каких-то навыков, и они проигрывают в конкурентной борьбе, либо клиенты уходят в системы автоматизированного продвижения (WebEffector , SeoPult, Rookee), и в меньшей степени в системы контекстной рекламы (Блондинка, eLama и др.)

Что же делать «тонущим» сео-компаниям? То же, что и всем, кто не хочет погибнуть в 2012 году – начать меняться изнутри. То, что можно автоматизировать, перенести в онлайн (отчетность по позициям, посещаемость, пусть клиент сам себе за этим следит в онлайн системе); перейти от конвейерного к индивидуальному подходу, быть «почестнее» с клиентами, взять на работу маркетолога! И научить менеджеров ВНИКАТЬ в бизнес-процессы клиента

Так же докладчик рассказал о том, как боролся Яндекс с оптимизаторами в прошлом году и как продолжает бороться в этом, что об этом нужно рассказывать клиентам, и таким образом приучать их к тому, что «гарантий позиций не может дать никто». SEO благополучно должно превратиться в SMM, клиентам нужно предлагать дополнительные способы привлечения трафика, такие как: социальные сети, блоги, ручной масспостинг и даже сарафанное радио, электронные рассылки, статейное продвижение, корпоративный блоггинг… А самое главное – наладить аутсорс или партнерство с соответствующими компаниями.

В заключении своего доклада Иван Васильевич поделился с клиентами секретами того, как искать сео-компанию, что нужно выбирать именно ту, которая обеспечит комплексный подход, прозрачную отчетность по позициям, даст квалифицированного менеджера и будет беспрестанно улучшать клиентский сайт.

Вторым выступил Станислав Кузнецов, ведущий специалист по поисковому продвижению (СП) Ingate. В своем докладе он попытался осветить такую тему, как естественный анкор-файл, что он из себя представляет, каким образом его можно получить и где находятся корни этого явления.

Его презентация так и называлась «Естественный анкор-файл или Что может быть проще?». В ней Станислав коснулся таких явлений, как неравномерное распределение ссылок между продвигаемыми и непродвигаемыми страницами, как объем ссылок и его увеличение для получения топовых позиций, а также рассмотрел подходы к генерации анкор-листа.

Докладчик заметил, что точно также как правильное питание дает на выходе человеческому организму существенный бонус в самочувствии, равносильно тому, как разумная диета плодотворно влияет на организм, точно также правильное распределение ссылок в анкор-листе во многом определяет правильное ранжирование сайта.

Что такое сферическое распределение ссылок в вакууме и как оно должно выглядеть? Распределение внешних ссылок по критерию их конечного значения всегда зависит от типа и тематики сайта. Однако, в большинстве случаев основным реципиентом будет являться главная страница. В пример Станислав привел сайт Третьяковской галереи, отражающий общий трэнд, который присутствует в сайтах некоммерческих тематик. Некоммерческие тематики зачастую тоже озабочены привлечением целевого трафика и имеют свой интерес в каких-то продвигаемых запросах.

Что же происходит в коммерческом сегменте? Как здесь распределяется вес входящих ссылок? Здесь все наоборот, здесь главная страница представлена самой малой частью, а вот другие страницы являются основными реципиентами. В пример был приведен анализ некоего сайта автомобильной тематики. При анализе входящих ссылок было замечено, что анкор-файл, который представлен для этих запросов, он априори заточен под продвижение. На лицо абсолютно прямая связь между спросом и постановкой ссылок. Таким образом, та естественность, о которой речь идет в некоммерческих тематиках, здесь нарушается изначально. И в глазах поисковой системы такой сайт уже выглядит неверно.

Маленькая подоплека состоит в том, что если это некоммерческая тематика, то прирост ссылок всегда, во всех случаях, будет квотирован достаточно строго. Там почти никогда не будет больших лагов в простановке ссылок, их распределение будет равномерным. А в случае коммерческого сегмента, — ссылки сразу начинают ставиться непосредственно на продвигаемые страницы, проект попадает в продвижение, и огромное количество ссылок по неимоверным квотам начинает проставляться в краткосрочный период времени. В таком случае, о естественности прироста и о естественности качества ссылочного массива говорить не приходится. Такой сайт априори получает негативную оценку со стороны поисковой системы.

Далее докладчик сам себе задавал вопросы и отвечал на них. Он рассказал, что делается для достижения позиций и закрепления результата, каковы типичные ошибки, когда до топа уже подать рукой, и что представляет из себя та самая «золотая середина».

Достичь золотой середины, по мнению Станислава, можно постоянно мониторя анкор-листы конкурентов из топа; используя компиляцию более удачных с точки зрения равномерности распределения ссылок решений при отборе соответствий запрос-страниц; подбирая наиболее оптимальные анкорные соответствия непосредственно к запросам, а не ко всему сайту; постоянно расширяя базу доноров.

Станислав Кузнецов: «Sape – это хорошо, но только один Sape – это плохо».

Что нужно учитывать при формировании анкор-листа, каковы подходы к его формированию, и так ли уж важны «очеловеченные» ссылки?

Был представлен сводный анализ анкор-файлов коммерческой и некоммерческой тематик. В первом случае более 60% представляют собой прямые вхождения, далее идут морфологии, и совсем маленькие части занимают анкоры без ключей и анкоры без текста. У некоммерческих тематик прямые вхождения занимают малую часть, морфологии занимают практически 50%, количество анкоров без текста практически равно количеству прямых вхождений, этот тренд Станислав и советует использовать для того, чтобы создавать некий позитивный ореол для своего сайта. Приведенные на слайде диаграммы показали вот такую существенную разницу между коммерческой и некоммерческой тематиками.

Далее Станислав рассказал, как изменилась методика генерации анкоров при Снежинске, и сказал пару слов о блогосфере, внешние ссылки с которой обладают такими плюсами как естественность, постоянство, маневренность и таргетинг.

Следующим выступал Александр Люстик, темой его доклада стали «Правила оптимизации сайта и наращивания ссылочной массы». В своем докладе он коснулся таких вещей, как первичный осмотр сайта перед продвижением, составление семантического ядра, анализ внутренних факторов и работа с факторами внешними.

Первичный осмотр сайта начинается с проверки возраста сайта, наличия его в индексе поисковой системы. Далее нужно обязательно коснуться работоспособности сервера и проверить наличие фильтров и дублированного контента. Все это нужно проверять на стадии поступления клиента и подписании договора, иначе потом будет потрачена куча времени на совершенно банальные вещи. Наличие хоть одной из этих проблем на сайте говорит о том, что продвижение по нему может затянуться, хотя, при нынешних алгоримах оно и так затянуто достаточно сильно.

Что касается семантического ядра, то как ни крути, оно генерирует достаточно большое количество трафика, поэтому ему Александр уделил особенное внимание. В качестве статистических источников он перечислил Яндекс, Рамблер, Гугл, Ливинтернет, ГоГо и Майл.ру, и указал важность автоматизации сбора данных на этом этапе. Далее нужно переходить к выявлению запросов-пустышек и определению той поисковой системы, где именно обитает нужная целевая аудитория.

Люстик рекомендовал использовать в работе с семантическим ядром подсказки поисковых систем, утверждая, что там гораздо меньше процент накрученных запросов, в отличие от Wordstat, и рассказал, как можно автоматизировать сбор подсказок при помощи программы Словодер.

Работа с внутренними факторами, по словам докладчика заключается в выборе релевантных страниц сайта, выявлении «ошибок» оформления контента (правильная структура документов), структурных ошибок (злоупотребление переоптимизацией, внутренняя перелинковка) и дублирующегося контента.

Александр привел несколько примеров оптимизации кода и контента, когда несколько сайтов были полностью переделаны с точки зрения структуры, проведена чистка кода и удаление полных и неполных дублей контента внутри сайта, что привело к значительному улучшению позиций для большинства запросов (85%) по Яндексу и Гуглу.

Если при этом правильно поработать с внешними факторами, то результаты в разы улучшатся. Есть три типа сайтов, каждый из которых требует своего подхода. Есть новые сайты, где нужно наращивать ссылочную массу планомерно, потому что мощный прирост может очень сильно откинуть сайт. Это же касается и сезонных сайтов, которые должны продвигаться с постоянной ссылочной поддержкой, а не периодической, потому что с введением Матрикснета привычное продвижение сезонных сайтов очень ухудшилось. Даже для старых сайтов, где казалось бы, можно наращивать ссылочную массу более агрессивно, все равно нужно знать меру, чтобы не совершать тех ошибок, о которых говорилось в предыдущем докладе.

Ну и в конце своего доклада Александр не удержался от небольшой рекламы сценария, который очень скоро появится в системе RooKee, созданного на основе длительной работы и анализа ссылочного массива в сто с небольшим тысяч ссылок.

После небольшого перерыва к докладчикам присоединился Михаил Кузьмин, директор по развитию сервиса Rookee, и гости начали отвечать на вопросы слушателей вебинара.

Вопрос: — Распределение ссылочной массы в некоммерческих тематиках – это купленные ссылки, или натуральные естественные?

Станислав Кузнецов: — На тот предмет купленные ссылки или некупленные, проанализировать достаточно тяжело, можно только визуально и по природе урлов сформировать какое-то представление. То есть непосредственно такого анализа не делалось, но если исходить из данных по анкорам, и обилию точных и околоточных вхождений, часть покупных ссылок имела место быть.

Вопрос: — Как вы проверяете на фильтры сайта?

Александр Люстик: — Тут все зависит от того, что за фильтры. Вам нужно полностью проанализировать контент по точным вхождениям, запросам в кавычках, тут уже будут некоторые данные, ну и такая частая сейчас проблема, когда неправильная страница вылазит как релевантная. Здесь все элементарно, — если вы видите, что у вас не та страница определена, значит, вы скорее всего с контентом немножко накосячили. Нужно будет немножко уменьшить количество прямых вхождений и увеличить количество текстовых вхождений, тогда из-под фильтра выйдете. Но здесь нужно конкретизировать вопрос, по какому именно фильтру.

Михаил Кузьмин: — Наверное, я добавлю, что вообще проблема анализа сайта стоит в основном перед новым клиентом, который к вам пришел. И вот тут, как говаривал доктор Хаус – все врут. Если он начинает рассуждать, что он никогда не подвигался, ничего не делал с сайтом и так далее, — ни одному слову верить нельзя, всегда нужно ручками проверять.

Александр Люстик: — Да, еще такой вопрос отвала ссылок после того, как клиент ушел от предыдущего продвиженца, это тоже нужно будет анализировать, потому что при всех этих «я не продвигался» получите огромный отвал ссылочной массы в результате чего ваше продвижение в течение первых месяцев будет мало результативным.

Вопрос: — Если страница не существует, то должна она иметь код 404? Можно ли при попытке перехода на страницу, которой не существует, отсылать людей на главную страницу?

Александр Люстик: — Ну с этой точки зрения абсолютно не вопрос, что отдавать пользователям, вопрос в том, что отдавать поисковым системам в качестве кода. Да, можно сгрузить 404 на морду, это легко делается, но ваша задача поисковой системе отдать код 404, а что вы покажете пользователю – это вообще не вопрос.

Вопрос: — Актуален ли на данный момент прогон сайта или блога по каталогам?

Михаил Кузьмин: — Ну, безусловно, почему нет. Лишь бы это были хорошие каталоги. Второй вопрос – где их взять? Вот с этим существуют реальные проблемы. Даже сервисы небезызвестные, так называемые добычи трастовых ссылок, сейчас там дают 60-70 бэков, не более того. В принципе, почему бы и нет, ведь ни к каким финансовым издержкам это не приводит. То есть, по-хорошему это делать надо.

Если вы пользуетесь сторонними сервисами, которые обещают прогнать ваш сайт по 10 тысячам каталогов, неизвестно каких суперских, то гнать их надо тряпками небезызвестными. Никогда этим не пользуйтесь.

Станислав Кузнецов: — Действительно, сайты, которые предлагают по 10-12 тысяч каталогов, это в принципе неадекватно и неактуально. Бэков должно получаться в пределах ста, и это действительно очень хорошее решение для только что созданных сайтов, молодых, либо сайтов, которые до этого действительно были честными и не участвовали в продвижении. Эти работы можно осуществлять параллельно с работами по оптимизации. Даже если целевых страниц каких-то не существует, вы сможете начать эти работы, так как главная страница, которая и будет являться в большинстве случаев реципиентом, у вас уже будет.

Вопрос: — Какое оптимальное количество ссылок в день можно закупать для сайта? Сайту 4 года, работы велись по закупке уже месяца 2-3.

Михаил Кузьмин: — Если работы по закупке уже 2-3 месяца велись, то вероятно все это уже поздно излагать, как там и что нужно было покупать. Остается только их покупать до упора, пока сайт не вылезет. Вообще, стандартно применяется формулировка, исходя из договора, условно говоря, если мы пообещали, что сайт выведем за 6 мес. по какому-то высококонкурентному запросу, то теоретически, если взять еще на индексацию ссылок 5 мес., за 5 месяцев мы должны поставить весь массив. То есть, если на индексацию ссылок взять один месяц, то соответственно 6-1=5, за 5 мес. мы должны проставить весь массив. Только исходя из этого. Естественно, можно сказать там общие фразы, что на молодые сайты много ссылок покупать нельзя, но вот это «много» — его никто не знает, поэтому больше ничего не могу сказать.

Александр Люстик: — В принципе этот вопрос из разряда– сколько нужно покупать ссылок, чтобы попасть в топ, он так и висит без ответа. Вы должны сами понимать, что у вас за запросы, что у вас за конкуренты, и какой ссылочный массив вам нужен.

Михаил Кузьмин: — Плюс есть такая теория продвижения ступеньками, особенно у высококонкурентников, когда мы ставим некоторый ссылочный массив хороший, ждем, пока сайт поднимется на какие-то позиции, то есть совершит скачок, и только потом начинаем следующий этап. То есть, работаем не сразу по большому объему ссылок, а по более мелким.

Вопрос: — Какие методы линкбилдинга вы считаете наиболее эффективными? Было сказано, что блогосфера снижает свою эффективность, а что если сайт-блог не состоит на блогобирже и на нем заметна социальная активность, не может ли это повлечь естественный прирост?

Александр Люстик: — Вопрос довольно размытый в том плане, что сейчас под блогом понимается любой говносайт, который на блоговом движке и на бесплатной площадке. Здесь надо понимать, что хорошие блоги, как и хорошие сайты, ценились всегда. Если все это было сделано специально под продажу ссылок, естественно эффективность падает… Блог блогу рознь.

Михаил Кузьмин: — Резюмирую в двух словах – хороший блог ссылок не продает.

Вопрос: — Как можно улучшить индексацию сайта, с чего надо начинать?

Александр Люстик: — Здесь стоит упомянуть о таком факторе, как внутреннее обновление сайта, то есть, если вы приучите робота постоянно заходить на свой сайт, путем постоянного добавления нового контента, то вы регулярно будете хорошо индексироваться. Есть также технический способ добиться быстрой переиндексации, это размещение какого-нибудь рандом-блока на сайте, допустим, это новости какие-то или топ 5 товаров, которые покупаются, и которые при каждом обновлении страницы рандомно меняются, но в идеале лучше всего, чтобы это был какой-то текст. Но нужно адекватно определять объем этого рандом-блока, чтобы не получилось так, что у вас меняется 90% страницы, здесь нужно с умом подходить.

Постоянное добавление контента или такой технический способ рандом-обновления в результате приведет к тому, что индексация будет довольно-таки стабильной, не касаясь внешних факторов.

Murketolog: — Существует такой способ, как регистрация в Яндекс.Каталоге, всего 15 тысяч рублей, хотя кому-то эта сумма большой показаться может. В зависимости от типа сайта. Если это крупный интернет-магазин с несколькими тысячами товаров, то это самый быстрый путь — в течение трех дней Яндекс гарантирует его полную индексацию.

Я часто практикую такой способ идексации страниц различных уровней, если там 4 уровня вложенности, ссылки на них покупаются с блогов, потому что блоги быстро индексируются.

Александр Люстик: — Я считаю самыми эффективными рандом-блоки, допустим внутренние перелинковки при помощи рандомных ссылок, и никакие другие способы по сравнению с ними не выдерживают никакой конкуренции.

Михаил Кузьмин: — Тут вот до меня ораторы излагали очень интересные вещи, но не надо забывать одну суть – большинство мы продвигаем позиции, а когда мы продвигаем позиции, нам в общем-то переиндексация контента нужна постольку поскольку. Вот в случае трафика – да, нужно задумываться.

Вопрос: — Что могут гости рассказать про сервис Блогун, насколько он актуален?

Михаил Кузьмин: — Я уже говорил, что хороший блог продаваться не будет.

Станислав Кузнецов: — Не совсем я согласен с Михаилом, что хороший блог продаваться не будет, — они продаются. Можно приобрести ссылки, они может быть даже будут работать, но все зависит непосредственно от донора. Если оголтело скупать все, что предлагается Блогуном, то это скорее может быть даже минус, чем плюс. Но если как-то существенно подойти к вопросу подбора площадок, то это может дать существенный плюс.

Murketolog: — На мой взгляд, для высокочастотных конкурентных запросов сложно с ним что-то сделать, а вот для прибивания в топ низкочастотных запросов, там до 50-100 запросов в месяц, Блогун – по три ссылки навсегда и по 15 рублей, — он хорош. Если учесть, что ссылки которые покупаются, они в индексе Яндекса, то это создает постоянную константную ссылочную массу на блоге. Единственный недостаток самих ссылок с блогов то, что они постепенно теряют свой вес, потому что они уходят, как ленты новостей, все дальше и дальше от главной страницы.

Станислав Кузнецов: — Я добавлю по поводу Блогуна. Есть такой еще маленький нюанс, когда заходит речь о том, чтобы приобретать ссылки, мы как бы забываем о том, что те ссылки, которые приобретаются на Блогуне, они приобретаются в рамках контента. Если речь идет о заказе постовых, то это один разговор, а если мы заказываем нормальные хорошие постинги, и размещаем ссылки в них и тема поста, в котором мы размещаем ссылки она соответствует тематике блога, и возможно таких постов на сайте получается несколько, разбитые там между несколькими интервалами по времени, то, я думаю, это скорее плюс чем минус. Вопрос в другом, сколько таких адекватных узкотематичных блогов находится в системе Блогун? Я не ручаюсь, но процента 3 – не больше.

Александр Люстик: — Вот тут прозвучало про 3 ссылки на Блогуне по 15 рублей. Это 45 рублей, за эти же деньги на бирже ссылок, для такого же НЧ запроса, мы можем купить те же три ссылки и даже больше. При этом эти 45 рублей это будет годовая оплата, даже год с лишним.

Станислав Кузнецов: — Если рассматривать ссылки, купленные в системе Блогун, не только как источник наращивания позиций, то есть с точки зрения внешнего ссылочного ранжирования, но учитывать то, что эти ссылки могут использоваться как потенциальные источники перехода, то определенная часть блогов, которые достаточно популярны, опять же с вами связаны по тематике, где люди действительно будут кликать на ссылки, могут привести в перспективе существенный прирост к целевому трафику.

Вопрос: — Какой адекватный процент внешних ссылок должны получать внутренние страницы сайта относительно всех закупленных ссылок?

Станислав Кузнецов: — Как вы могли посмотреть на тех диаграммах, которые я показывал в своей презентации, разница очень большая. Я не говорю, что нужно бежать и покупать сломя голову ссылки на главную страницу, нужно использовать какой-то адекватный подход. Просто главная страница она точно также может являться продвигаемой и зачастую является таковой, здесь нужно придерживаться некоей золотой середины. То есть представлять и смотреть, как это происходит в некоммерческом сегменте. Некоммерческий сегмент вряд ли когда-нибудь может получить какие-то санкции за неравномерное наращивание ссылочного массива. Надо пытаться делать также, возможно, растягивать сроки и уменьшать квоты. Но вот такой четкой цифры, сколько поставить на главную страницу, а сколько на внутреннюю, такого нет и не будет. Я скажу больше – в зависимости от каждого сайта этот процент будет разным, он будет варьироваться.

Вопрос: — Сервис Руки работает с блогами?

Михаил Кузьмин: — Нет, и в ближайшее время не будет, ибо все-таки, в текущее время нормальную ссылочную массу с них получить невозможно.

Вопрос: — Классифицируйте пожалуйста методы продвижения сайта. Тезисно.

Михаил Кузьмин: — Внутренняя оптимизация, внешняя оптимизация и отчетность клиенту. Все.

Вопрос: — Скажите, на что обратить внимание при продвижении авторского сайта по некоммерческим запросам?

Станислав Кузнецов: — Во-первых, нужно обратить внимание на тот контент, который вы размещаете на сайте, стараться делать его естественным, то есть изначально не ставить себе какие-то рамки, типа – мне нужно столько-то ключей таких, столько-то таких; попытаться сориентироваться на похожие некоммерческие сайты, которые являются как бы вашими конкурентами. А во-вторых, сайт должен быть полностью подготовлен для поискового продвижения, должна быть проведена оптимизация, и ссылочная структура, и карта сайта, все должно присутствовать, в идеальнейшем состоянии.

Думаю, в некоммерческом сегменте с такими исходными данными никаких проблем у вас возникнуть не должно.

Михаил Кузьмин: — Мне бы вообще хотелось бы получить пример какого-то некоммерческого запроса. Но вообще коммерция ассоциируется с геозависимыми запросами, а некоммерция – с геонезависимыми. По независимым очень сильно рулит контент, объем, качество и так далее. А в принципе хотелось бы услышать, зачем нужно продвигать некоммерческий сайт.

Murketolog: — Я могу ответить на этот вопрос. У меня папа – писатель, он хочет издать книжку, — это некий пиар отдельного человека может быть. Может быть некоммерческий запрос про поэзию, как пример. Наверное можно посоветовать для авторского сайта, постараться помимо публикации, это может быть как режим блога у этого сайта, либо просто сайт-визитка, домашняя страница какая-то. Можно посоветовать готовить контент не только для этого сайта, но еще и размещать этот контент в статейном режиме на различные трастовые ресурсы, которые можно найти в Яндекс.Каталоге – Проза.ру например, с гиперссылкой на основной сайт автора. Таким образом можно бесплатно, выводить его по некоторым некоммерческим запросам, но довольно популярным.

Вопрос: — Проверка индексации ссылки. Насколько можно доверять этому параметру при снятии? В том же сервисе Rookee многие платные сценарии держат такие ссылки достаточно долгое время.

Михаил Кузьмин: — Что сказать по точности индексации. Точность проверки индексации практически стопроцентна, естественно это не касается дня конкретно в апдейт. Но это по понятным причинам. Второе – по поводу того, что платные сценарии держат эти ссылки, которые не в индексе, довольно долгое время. Недавно провели исследование о том, что в среднем, среднестатические ссылки первого второго уровня индексируются примерно одинаково – в течение 2 недель, ссылки третьего уровня – в районе 4 недель, и ссылки, которые на уровнях ниже – 1,5 месяца или даже больше. Естественно, они держат ссылки все это время, хотя бы ради того, чтобы оптимизатор не терял деньги.

Получается что? Оптимизатор покупает ссылки, допустим 1000 штук, из них через 14 дней не в индексе – 80-90%, а стоило бы подождать еще неделю и индексация была бы близка к 100%.

Вопрос: — Можете дать информацию, где найти список каталогов, по которым стоит прогнать сайт?

Михаил Кузьмин: — Могу дать информацию о том, где не стоит. Если там обещают базу из 10 тысяч – не верьте, там может быть максимум 100 или 200 площадок.

Станислав Кузнецов: — Если вы связаны с какой-то определенной тематико

Основатель Searchengines.ru. С 2005 по 2014 год работал генеральным директором компании "Яндекс.Украина". Основатель и директор крупнейшего коворкинга Одессы — "Терминал 42". Ведет блог, участвует в подкастах. Больше ничего не умеет.