Споры о том, какой должна быть кластеризация поисковых запросов, при составлении семантического ядра, продолжаются уже не первый год. Одни утверждают, что автоматическая группировка фраз полностью справляется с поставленной задачей, и делает это корректно. Другие уверяют, что без ручного вмешательства, а то и полностью ручной группировки, критичных ошибок не избежать. В данной статье не будет сравнения результатов работы этих двух методов, речь пойдет только об автоматической кластеризации - группировке на основе поисковой выдачи.
Непонятно откуда такое недоверие к сервисам и их инструментам в то время, когда они помогают в работе и позволяют делать ее быстрее. Семантикой я занимаюсь уже более трех лет, изучив за этот период множество материалов по теме, хотел бы отметить, что большая часть «интернет-деятелей» (с которыми приходилось общаться) скептически относится к автоматической группировке.

Если кто не знает принципа такой группировки, то происходит она так:
- Робот собирает в выдаче ТОП 10 url для каждой ключевой фразы.
- Если в выдаче находятся общие url для двух запросов, то эти запросы отправляются в одну группу.
На основе полученных данных можно составить семантическую структуру сайта, подготовить ТЗ для копирайтеров, присвоить запросы к конкретным страницам (если мы расширяем ядро). Если вы вообще не понимаете, о чем речь, то посмотрите руководство.
Как проверить эффективность автоматической группировки?
Многие утверждают, что данный метод можно применять в работе, но не в таком виде, в котором нам выдают его программы и сервисы. Следует руками все равно проверить и скорректировать итоговые группы. А что если ничего не делать руками вообще? Что если мы просто загружаем фразы, жмем «кластеризовать» и работаем с тем, что получится? Чтобы понять, насколько такой подход эффективен - нужно было создать сайт. Показатель трафика - отличный параметр, который укажет на ту самую «эффективность автоматической группировки». Сказано - сделано!
Примечание: речь идет о кластеризации на основе поисковой выдачи для контентных (информационных) сайтов.
Параметры сайта на старте:
- Домен - свежерег.
- Дизайн - уникальный.
- Мобильная версия - нет.
- HTTPS - нет.
- Контент - 10 новостей (рерайт).
- Конкуренция - средняя.
- Ниша - узкая.
- Тематика - мужская.
Читайте также: Поиск ниши для сайта

История основного ВЧ запроса по Wordstat
Собрав семантическое ядро получился список из 1115 ключевых фраз, после чего файл был отправлен на кластеризацию в Rush Analytics.
Настройки проекта:

Чем выше вы выберите показатель точности, тем меньше запросов будет сгруппировано, соответственно, во вкладку «некластеризовано» попадет больше ключей. Для работы я выбрал документ с точностью 4. Это значит, что среди моих ключевых фраз робот искал 4 общих url, для определения запросов в одну группу. У меня вышло 746 сгруппированных фраз (около 120 статей) и 369 некластеризованных.
Вот собственно и все. Автоматическая кластеризация запросов делается быстро, и от вас ничего не требуется во время сбора данных.
Следующим этапом было написание небольшого ТЗ и изготовление контента с дальнейшей его публикацией.
Первая статья была размещена зимой 2015/2016 года, а последняя в конце 2016 года. Порядка 65% материала написали за первые три месяца, остальное публиковалось ежемесячно небольшими порциями, для регулярного обновления сайта.
Читайте также: LSI ключи
Сработала ли группировка на основе поисковой выдачи?
Позиции отслеживались так же в Rush Analytics и результаты выглядят следующим образом:

А вот и график посетителей из поисковых систем. Указываю данные только из ПС, так как другие источники, в данном случае, нас не интересуют, хотя присутствуют посетители из социальных сетей и переходы с ссылок на сайтах.

К моменту написания статьи ежедневный трафик составлял 785 уникальных посетителей в сутки.
Читайте также: Как улучшить позиции в мобильной выдаче
Что делать с некластеризованными запросами?
На данный момент есть несколько вариантов работы с такими запросами, но рассмотрим один - когда их просто исключают из работы.

Эти запросы были занесены на отдельную вкладку и ждали своего часа. Они никак намеренно не использовались при написании контента. В сборщике позиций был создан отдельный проект.
Как видно на графике, запросы, которые не участвовали в общем написании контента получили неплохие позиции. При желании их можно дожать, что поможет продвинуть часть фраз к ТОП 10.

Выводы
- Автоматическую группировку можно применять. Работа, сделанная на полном автомате, без вычитки и ручной проверки, дает свой результат. Хороший или плохой - решать вам.
- Однозначно на двух одинаковых сайтах одна и та же семантика может отразиться по-разному. Так что не стоит забывать о рисках.
- Некластеризованные запросы не нужно удалять. Даже если они не попали в ТОП 10-30, вы можете через релевантные страницы найти для них место на сайте и уже вручную или через текстовый анализатор доработать статью.