Our website collects cookies and IP address, for the convenience of your work. If you do not want this data to be processed, then you must leave the site.
Согласен
Главная / Блог / Можно ли доверять автоматической кластеризации?

Можно ли доверять автоматической кластеризации?

Поделиться

Споры о том, какой должна быть кластеризация поисковых запросов, при составлении семантического ядра, продолжаются уже не первый год. Одни утверждают, что автоматическая группировка фраз полностью справляется с поставленной задачей, и делает это корректно. Другие уверяют, что без ручного вмешательства, а то и полностью ручной группировки, критичных ошибок не избежать. В данной статье не будет сравнения результатов работы этих двух методов, речь пойдет только об автоматической кластеризации - группировке на основе поисковой выдачи.

Непонятно откуда такое недоверие к сервисам и их инструментам в то время, когда они помогают в работе и позволяют делать ее быстрее. Семантикой я занимаюсь уже более трех лет, изучив за этот период множество материалов по теме, хотел бы отметить, что большая часть «интернет-деятелей» (с которыми приходилось общаться) скептически относится к автоматической группировке.
 


Если кто не знает принципа такой группировки, то происходит она так:

  • Робот собирает в выдаче ТОП 10 url для каждой ключевой фразы.
  • Если в выдаче находятся общие url для двух запросов, то эти запросы отправляются в одну группу.

На основе полученных данных можно составить семантическую структуру сайта, подготовить ТЗ для копирайтеров, присвоить запросы к конкретным страницам (если мы расширяем ядро). Если вы вообще не понимаете, о чем речь, то посмотрите руководство.

Как проверить эффективность автоматической группировки?

Многие утверждают, что данный метод можно применять в работе, но не в таком виде, в котором нам выдают его программы и сервисы. Следует руками все равно проверить и скорректировать итоговые группы. А что если ничего не делать руками вообще? Что если мы просто загружаем фразы, жмем «кластеризовать» и работаем с тем, что получится? Чтобы понять, насколько такой подход эффективен - нужно было создать сайт. Показатель трафика - отличный параметр, который укажет на ту самую «эффективность автоматической группировки». Сказано - сделано!

Примечание: речь идет о кластеризации на основе поисковой выдачи для контентных (информационных) сайтов.

Параметры сайта на старте:

  • Домен - свежерег.
  • Дизайн - уникальный.
  • Мобильная версия - нет.
  • HTTPS - нет.
  • Контент - 10 новостей (рерайт).
  • Конкуренция - средняя.
  • Ниша - узкая.
  • Тематика - мужская.

Читайте также: Поиск ниши для сайта

История основного ВЧ запроса по Wordstat



Собрав семантическое ядро получился список из 1115 ключевых фраз, после чего файл был отправлен на кластеризацию в Rush Analytics.

Настройки проекта:

 


Чем выше вы выберите показатель точности, тем меньше запросов будет сгруппировано, соответственно, во вкладку «некластеризовано» попадет больше ключей. Для работы я выбрал документ с точностью 4. Это значит, что среди моих ключевых фраз робот искал 4 общих url, для определения запросов в одну группу. У меня вышло 746 сгруппированных фраз (около 120 статей) и 369 некластеризованных.

Вот собственно и все. Автоматическая кластеризация запросов делается быстро, и от вас ничего не требуется во время сбора данных.

Следующим этапом было написание небольшого ТЗ и изготовление контента с дальнейшей его публикацией.

Первая статья была размещена зимой 2015/2016 года, а последняя в конце 2016 года. Порядка 65% материала написали за первые три месяца, остальное публиковалось ежемесячно небольшими порциями, для регулярного обновления сайта.

Читайте также: LSI ключи

Сработала ли группировка на основе поисковой выдачи?


Позиции отслеживались так же в Rush Analytics и результаты выглядят следующим образом:

 


А вот и график посетителей из поисковых систем. Указываю данные только из ПС, так как другие источники, в данном случае, нас не интересуют, хотя присутствуют посетители из социальных сетей и переходы с ссылок на сайтах.


К моменту написания статьи ежедневный трафик составлял 785 уникальных посетителей в сутки.

Читайте также: Как улучшить позиции в мобильной выдаче

Что делать с некластеризованными запросами?


На данный момент есть несколько вариантов работы с такими запросами, но рассмотрим один - когда их просто исключают из работы.

 


Эти запросы были занесены на отдельную вкладку и ждали своего часа. Они никак намеренно не использовались при написании контента. В сборщике позиций был создан отдельный проект.
Как видно на графике, запросы, которые не участвовали в общем написании контента получили неплохие позиции. При желании их можно дожать, что поможет продвинуть часть фраз к ТОП 10.

 

 

 

 

Выводы

  1. Автоматическую группировку можно применять. Работа, сделанная на полном автомате, без вычитки и ручной проверки, дает свой результат. Хороший или плохой - решать вам.
  2. Однозначно на двух одинаковых сайтах одна и та же семантика может отразиться по-разному. Так что не стоит забывать о рисках.
  3. Некластеризованные запросы не нужно удалять. Даже если они не попали в ТОП 10-30, вы можете через релевантные страницы найти для них место на сайте и уже вручную или через текстовый анализатор доработать статью.
Поделиться
Еще не зарегистрированы? Еще не зарегистрированы? 2017-03-01T16:34:37+03:00 2019-12-13T16:40:57+03:00 https://www.rush-analytics.ru/sites/default/files/blog/sixteenNine.png
Валерий, основатель Semantic-lab.pro
Rush Agency
Оцените статью по 5-бальной шкале
3.91 из 5 на основе 35 оценок
Интересно почитать

Чистим семантическое ядро от..

Олег Шестаков, руководитель Rush Analytics
10 мин · 28 Фев. 2016
Будь в курсе первым!