Наш сайт использует cookie и данные об IP адресе для удобства вашей работы. Если вы не согласны - пожалуйста, покиньте сайт.
Согласен
Главная / Блог / Можно ли доверять автоматической кластеризации?

Можно ли доверять автоматической кластеризации?

Поделиться

Споры о том, какой должна быть кластеризация поисковых запросов, при составлении семантического ядра, продолжаются уже не первый год. Одни утверждают, что автоматическая группировка фраз полностью справляется с поставленной задачей, и делает это корректно. Другие уверяют, что без ручного вмешательства, а то и полностью ручной группировки, критичных ошибок не избежать. В данной статье не будет сравнения результатов работы этих двух методов, речь пойдет только об автоматической кластеризации - группировке на основе поисковой выдачи.

Непонятно откуда такое недоверие к сервисам и их инструментам в то время, когда они помогают в работе и позволяют делать ее быстрее. Семантикой я занимаюсь уже более трех лет, изучив за этот период множество материалов по теме, хотел бы отметить, что большая часть «интернет-деятелей» (с которыми приходилось общаться) скептически относится к автоматической группировке.
 


Если кто не знает принципа такой группировки, то происходит она так:

  • Робот собирает в выдаче ТОП 10 url для каждой ключевой фразы.
  • Если в выдаче находятся общие url для двух запросов, то эти запросы отправляются в одну группу.

На основе полученных данных можно составить семантическую структуру сайта, подготовить ТЗ для копирайтеров, присвоить запросы к конкретным страницам (если мы расширяем ядро). Если вы вообще не понимаете, о чем речь, то посмотрите руководство.

Как проверить эффективность автоматической группировки?

Многие утверждают, что данный метод можно применять в работе, но не в таком виде, в котором нам выдают его программы и сервисы. Следует руками все равно проверить и скорректировать итоговые группы. А что если ничего не делать руками вообще? Что если мы просто загружаем фразы, жмем «кластеризовать» и работаем с тем, что получится? Чтобы понять, насколько такой подход эффективен - нужно было создать сайт. Показатель трафика - отличный параметр, который укажет на ту самую «эффективность автоматической группировки». Сказано - сделано!

Примечание: речь идет о кластеризации на основе поисковой выдачи для контентных (информационных) сайтов.

Параметры сайта на старте:

  • Домен - свежерег.
  • Дизайн - уникальный.
  • Мобильная версия - нет.
  • HTTPS - нет.
  • Контент - 10 новостей (рерайт).
  • Конкуренция - средняя.
  • Ниша - узкая.
  • Тематика - мужская.

Читайте также: Поиск ниши для сайта

История основного ВЧ запроса по Wordstat



Собрав семантическое ядро получился список из 1115 ключевых фраз, после чего файл был отправлен на кластеризацию в Rush Analytics.

Настройки проекта:

 


Чем выше вы выберите показатель точности, тем меньше запросов будет сгруппировано, соответственно, во вкладку «некластеризовано» попадет больше ключей. Для работы я выбрал документ с точностью 4. Это значит, что среди моих ключевых фраз робот искал 4 общих url, для определения запросов в одну группу. У меня вышло 746 сгруппированных фраз (около 120 статей) и 369 некластеризованных.

Вот собственно и все. Автоматическая кластеризация запросов делается быстро, и от вас ничего не требуется во время сбора данных.

Следующим этапом было написание небольшого ТЗ и изготовление контента с дальнейшей его публикацией.

Первая статья была размещена зимой 2015/2016 года, а последняя в конце 2016 года. Порядка 65% материала написали за первые три месяца, остальное публиковалось ежемесячно небольшими порциями, для регулярного обновления сайта.

Читайте также: LSI ключи

Сработала ли группировка на основе поисковой выдачи?


Позиции отслеживались так же в Rush Analytics и результаты выглядят следующим образом:

 


А вот и график посетителей из поисковых систем. Указываю данные только из ПС, так как другие источники, в данном случае, нас не интересуют, хотя присутствуют посетители из социальных сетей и переходы с ссылок на сайтах.


К моменту написания статьи ежедневный трафик составлял 785 уникальных посетителей в сутки.

Читайте также: Как улучшить позиции в мобильной выдаче

Что делать с некластеризованными запросами?


На данный момент есть несколько вариантов работы с такими запросами, но рассмотрим один - когда их просто исключают из работы.

 


Эти запросы были занесены на отдельную вкладку и ждали своего часа. Они никак намеренно не использовались при написании контента. В сборщике позиций был создан отдельный проект.
Как видно на графике, запросы, которые не участвовали в общем написании контента получили неплохие позиции. При желании их можно дожать, что поможет продвинуть часть фраз к ТОП 10.

 

 

 

 

Выводы

  1. Автоматическую группировку можно применять. Работа, сделанная на полном автомате, без вычитки и ручной проверки, дает свой результат. Хороший или плохой - решать вам.
  2. Однозначно на двух одинаковых сайтах одна и та же семантика может отразиться по-разному. Так что не стоит забывать о рисках.
  3. Некластеризованные запросы не нужно удалять. Даже если они не попали в ТОП 10-30, вы можете через релевантные страницы найти для них место на сайте и уже вручную или через текстовый анализатор доработать статью.
Поделиться
Еще не зарегистрированы? Еще не зарегистрированы? 2017-03-01T16:34:37+03:00 2019-12-13T16:40:57+03:00 https://www.rush-analytics.ru/sites/default/files/blog/sixteenNine.png
Валерий, основатель Semantic-lab.pro
Rush Agency
Оцените статью по 5-бальной шкале
3.91 из 5 на основе 35 оценок
Интересно почитать

Чистим семантическое ядро от..

Олег Шестаков, руководитель Rush Analytics
10 мин · 28 Фев. 2016
Будь в курсе первым!