Можно ли доверять автоматической кластеризации?

Понравился пост? Поделитесь!

Можно ли доверять автоматической кластеризации?

Споры о том, какой должна быть кластеризация поисковых запросов, при составлении семантического ядра, продолжаются уже не первый год. Одни утверждают, что автоматическая группировка фраз полностью справляется с поставленной задачей, и делает это корректно. Другие уверяют, что без ручного вмешательства, а то и полностью ручной группировки, критичных ошибок не избежать. В данной статье не будет сравнения результатов работы этих двух методов, речь пойдет только об автоматической кластеризации - группировке на основе поисковой выдачи.

Непонятно откуда такое недоверие к сервисам и их инструментам в то время, когда они помогают в работе и позволяют делать ее быстрее. Семантикой я занимаюсь уже более трех лет, изучив за этот период множество материалов по теме, хотел бы отметить, что большая часть «интернет-деятелей» (с которыми приходилось общаться) скептически относится к автоматической группировке.



Если кто не знает принципа такой группировки, то происходит она так:
• Робот собирает в выдаче ТОП 10 url для каждой ключевой фразы.
• Если в выдаче находятся общие url для двух запросов, то эти запросы отправляются в одну группу.

На основе полученных данных можно составить структуру сайта, подготовить ТЗ для копирайтеров, присвоить запросы к конкретным страницам (если мы расширяем ядро). Если вы вообще не понимаете, о чем речь, то посмотрите руководство.

Как проверить эффективность автоматической группировки?


Многие утверждают, что данный метод можно применять в работе, но не в таком виде, в котором нам выдают его программы и сервисы. Следует руками все равно проверить и скорректировать итоговые группы. А что если ничего не делать руками вообще? Что если мы просто загружаем фразы, жмем «кластеризовать» и работаем с тем, что получится? Чтобы понять, насколько такой подход эффективен - нужно было создать сайт. Показатель трафика - отличный параметр, который укажет на ту самую «эффективность автоматической группировки». Сказано - сделано!

Примечание: речь идет о кластеризации на основе поисковой выдачи для контентных (информационных) сайтов.

Параметры сайта на старте:
• Домен - свежерег.
• Дизайн - уникальный.
• Мобильная версия - нет.
• HTTPS - нет.
• Контент - 10 новостей (рерайт).
• Конкуренция - средняя.
• Ниша - узкая.
• Тематика - мужская.



История основного ВЧ запроса по Wordstat.
Собрав семантическое ядро получился список из 1115 ключевых фраз, после чего файл был отправлен на кластеризацию в Rush Analytics.

Настройки проекта:



Чем выше вы выберите показатель точности, тем меньше запросов будет сгруппировано, соответственно, во вкладку «некластеризовано» попадет больше ключей. Для работы я выбрал документ с точностью 4. Это значит, что среди моих ключевых фраз робот искал 4 общих url, для определения запросов в одну группу. У меня вышло 746 сгруппированных фраз (около 120 статей) и 369 некластеризованных.

Вот собственно и все. Автоматическая кластеризация делается быстро, и от вас ничего не требуется во время сбора данных.

Следующим этапом было написание небольшого ТЗ и изготовление контента с дальнейшей его публикацией.

Первая статья была размещена зимой 2015/2016 года, а последняя в конце 2016 года. Порядка 65% материала написали за первые три месяца, остальное публиковалось ежемесячно небольшими порциями, для регулярного обновления сайта.

Сработала ли группировка на основе поисковой выдачи?


Позиции отслеживались так же в Rush Analytics и результаты выглядят следующим образом:



А вот и график посетителей из поисковых систем. Указываю данные только из ПС, так как другие источники, в данном случае, нас не интересуют, хотя присутствуют посетители из социальных сетей и переходы с ссылок на сайтах.



К моменту написания статьи ежедневный трафик составлял 785 уникальных посетителей в сутки.

Что делать с некластеризованными запросами?


На данный момент есть несколько вариантов работы с такими запросами, но рассмотрим один - когда их просто исключают из работы.



Эти запросы были занесены на отдельную вкладку и ждали своего часа. Они никак намеренно не использовались при написании контента. В сборщике позиций был создан отдельный проект и картина следующая:

Как видно на графике, запросы, которые не участвовали в общем написании контента получили неплохие позиции. При желании их можно дожать, что поможет продвинуть часть фраз к ТОП 10.



Выводы


1. Автоматическую группировку можно применять. Работа, сделанная на полном автомате, без вычитки и ручной проверки, дает свой результат. Хороший или плохой - решать вам.
2. Однозначно на двух одинаковых сайтах одна и та же семантика может отразиться по-разному. Так что не стоит забывать о рисках.
3. Некластеризованные запросы не нужно удалять. Даже если они не попали в ТОП 10-30, вы можете через релевантные страницы найти для них место на сайте и уже вручную или через текстовый анализатор доработать статью.
Автор: 
Валерий, основатель Semantic-lab.pro
Категория: 
Понравился пост? Поделитесь!