Как искать поисковые запросы, для повышения продаж?

Сегодня пойдёт речь об инструментах подбора, отсева поисковых запросов. Инструменты определения точек роста поискового трафика. Приоритизация ключевых слов по прогнозной выручке.

ДЕЛАЙ ХОРОШО - БУДЕТ ХОРОШО

Сегодня будем говорить о том, как искать поисковые запросы, которые будут не просто условно приносить какой-то трафик, но и будут генерировать продажи. Рассмотрим, как их собирать, чистить и приоритизировать по выручке, которая важна целевому клиенту.

Давайте я скажу сначала о тех инструментах, которые вам пригодятся для выполнения домашнего задания. Первый — это сервис Userator. С его помощью можно направлять переходы живых людей на продвигаемые страницы вашего сайта и улучшать поведенческие факторы, тем самым продвигая их в топ. Также можно прокачивать лайки, репосты и комментарии публикаций в соцсетях. Бесплатные сервисы для сбора семантики все знают: Яндекс Wordstat, Google Keyword Planner и Букварик. Можно использовать их для выполнения домашнего задания.

По плану пройдёмся так: сначала расскажу про инструменты сбора поисковых запросов, потом про то, как их чистить, поговорим, как искать точки роста трафика и лидов, и как их приоритизировать. Основной момент, который хочется подчеркнуть, — это то, что всегда будем оглядываться на конечную пользу для клиента, будь то заявки или доход. Например, сегодня у меня есть проект, где очень долго идёт переезд на новую версию сайта, и накопилось огромное количество технических заданий для тестовой версии сайта и текущей.

На текущей версии сайта по сути ничего не внедряется, и вот, наверное, одной из мотиваций было то, чтобы начать что-то делать на текущей версии сайта. В какой-то момент сказали клиенту: «Давайте всё-таки начнём внедрять что-то на текущей версии». Один из моментов, который мотивировал клиента, — это когда мы начали просить внедрять простейшие вещи: замену заголовков, тайтлов и так далее. Они это сделали, и на сайте, который был крупным и с большим трафиком, эти изменения хорошо сработали. У нас произошёл рост на уровне заявок, и мы показали клиенту: «Посмотрите, у вас на этих страницах стопроцентный рост заявок, а по сайту в целом — рост на 42%». Это показало, что их работа даёт профит, и это мотивировало клиента совершенно по-другому приоритизировать внедрение.

Сегодня мы поговорим о том, как собирать эти запросы, чтобы условно показывать клиенту результаты в денежном эквиваленте.

Теперь про инструменты сбора запросов. Здесь можно выделить две части. Первое — это собрать запросы, которые не нужно терять. Есть такая штука: когда работаешь с большим числом проектов, часто замечаешь, что, приходя на проект, видишь, что какой-то органический трафик уже есть. Важно понять, что сейчас уже генерирует трафик и заявки, и сохранить это, чтобы не потерять. Бывают примеры, когда, переписывая страницы под новые запросы, которые кажутся правильными, мы теряем позиции по тем запросам, которые уже приносили трафик, и страница начинает работать хуже. Чтобы такого не произошло, первый этап — это найти те запросы, которые уже сейчас генерируют заявки и трафик.

Разберёмся поэтапно, как это сделать. Первое, что я делаю — захожу в Метрику и отсеиваю брендовые запросы, используя Яндекс.Метрику. Убираем брендовый трафик. Далее ищем запросы, которые уже генерируют заявки и имеют какие-то живые клики. После этого мы дополнительно собираем информацию по страницам, которые генерируют такие заявки. В Яндекс.Метрике не всегда можно увидеть статистику по запросам с единичными визитами, поэтому переходим на уровень страниц, и здесь уже можно собрать интересную информацию.

Далее, после того как мы собрали список страниц, по которым были конверсии, и список запросов, мы расширяем объём запросов, по которым уже были лиды, и ищем что-то близкое. Самое важное — сначала собрать запросы, которые находятся в топ-10, чтобы не терять их позиции.

Сначала собираем запросы, которые находятся в топ-10, и можно убрать те же брендовые запросы. Конверсионный URL, который мы достали из Яндекс.Метрики, может не дать полной статистики по запросам с единичными визитами, но информацию можно извлечь. Можно использовать инструменты, такие как Pixel Tools и Luminocity, для более полного анализа и получения списка запросов, которые, скорее всего, генерируют заявки.

Из Яндекс.Метрики достаём всё, что связано с заявками и кликами, и анализируем. Важно отметить, что, используя эти инструменты, можно понять, как Яндекс воспринимает сайт и насколько он релевантен определённым запросам. Это особенно полезно для клиентов в B2B-сегменте, где запросы часто направлены на оптовую торговлю, но выдача показывает, что поисковые запросы кажутся ориентированными на физических лиц.

Например, по запросу «купить турник» сайт находится на десятом месте, хотя первые три места занимают компании, предлагающие турники для домашнего использования. Видимо, так построен интент запроса, что есть определённый процент целевой аудитории, которая ищет площадку с турником, а не просто отдельное оборудование. Это помогает понять, по каким запросам сайт действительно может ранжироваться.

Далее, всё это можно дополнить данными из Консоли Google. Единственное ограничение заключается в том, что консоль позволяет извлечь только определённое количество запросов, но для обхода этого ограничения можно использовать Google Data Studio и выбрать Консоль в качестве источника данных. Это помогает получить полный список запросов, ограничение в консоли составляет около 4800 запросов.

Основной акцент в этом подходе заключается в том, чтобы зафиксировать все запросы и страницы, которые дают заявки и живые клики. Это очень важно, потому что если просто пойти в обычный Wordstat и собрать всё подряд, не учитывая данные из Метрики, может оказаться, что запросы, которые приносили заявки, покажут нулевую частоту показов. И тогда можно случайно удалить важные запросы, полагая, что они не актуальны.

Есть вероятность, что запросы могут показаться неважными, поэтому лучше фиксировать их в отдельные группы. Если список окажется маленьким, можно его дополнительно расширить. Например, был случай, когда по почти всем собранным запросам сайт находился в топ-10, и нужно было искать точки роста. Здесь хорошо работает Яндекс: управление запросами и мониторинг часто показывают более полную картину. Управление группами показывает данные за последние 30 дней, и на основе этого можно искать запросы, которые станут точками роста.

Сначала мы собираем запросы, чтобы ничего не уронить и сохранить текущие позиции, а потом ищем то, что можно нарастить сверх этого. Подбор запросов также хорошо работает с использованием инструмента Алиса. Нужно взять запросы, которые уже приносят заявки, и расширить их, добавив слова, которые добавят целевых пользователей. Есть вкладка «Дополнительно», которая ищет похожие запросы на те, что уже принесли заявки. Она также показывает информацию о конкурентности, спросе и кликах. Эту информацию полезно извлекать, потому что часто спрос может равняться нулю, но клики по запросу уже были. Это связано с округлением данных и сезонными колебаниями.

Яндекс считает среднее количество переходов по запросу и округляет значение, основываясь на данных за год. Таким образом, информация сглаживает сезонные колебания, и даже если сейчас по запросу «купить лыжи» показы нулевые, статистика отразит среднее количество кликов за длительный период. Иногда спрос может быть нулевым, но клики присутствуют, и важно обращать внимание именно на живые клики, потому что это реальные переходы на сайт из поисковой выдачи.

Кроме того, можно анализировать конкурентов, которые находятся в топе по конверсионным запросам. Используя инструменты вроде Pixel Tools, можно собрать данные о запросах, по которым показываются конкуренты. После этого можно отфильтровать результаты, оставив те, где частота ниже или равна 30. Это помогает избежать сбора большого количества нецелевых запросов.

Также полезно посмотреть на структуру сайта конкурентов и найти дополнительные разделы, которые могут быть полезны. Например, на сайте отеля можно обнаружить разделы новостей или услуги спа, которые могут быть добавлены и на ваш сайт для повышения видимости.

Если у конкурентов есть разделы, которые у вас отсутствуют, это тоже можно использовать для улучшения структуры сайта. Например, брендовые запросы конкурентов также можно сразу отсекать. Эти инструменты довольно полезны, так как позволяют быстро понять, какие запросы реально анализируются. Если забрать все запросы, можно просто утонуть в большом количестве данных, которые потом придётся долго фильтровать.

Кроме того, у сервисов есть ограничения на тарифы, которые могут ограничивать количество анализируемых запросов, например 50 000. Если вы сможете выделить ключевые целевые запросы, то сможете собрать данные именно по ним, не упираясь в лимиты. Этого вполне достаточно для большинства задач. Также можно использовать старые добрые поисковые подсказки Яндекса. Единственное, что инструмент может оказаться дорогим при большом объёме данных, но скорость его работы высока, и парсинг частотности происходит очень быстро.

Здесь рекомендую создавать маркерные слова и отправлять парсинг в отдельные папки, чтобы потом было проще отфильтровать результаты. Иногда можно случайно добавить максимально общий запрос, который приведёт к миллиону нерелевантных запросов, и если они попадут в одну папку, будет сложно с ними работать. Поэтому важно структурировать запросы: фиксировать в отдельных папках те, что с конверсиями, те, что с живыми кликами, и отдельно хранить те, по которым нет статистики о кликах и конверсиях.

Важно осуществлять дальнейшую фильтрацию запросов. Например, если есть неявные дубликаты, их также стоит группировать. Бывает, что в запросе меняются слова местами или меняется окончание, но пользователи всё равно заходили по обеим версиям и оставляли заявки. В таких случаях стоит мониторить обе формы запроса.

Следующий момент — это отсев по частотности. На графике отображаем частоту запросов за год, чтобы учитывать сезонность. Парсим частоту за год, затем делим её на 12, чтобы получить среднемесячный спрос. Но такую фильтрацию делаем только по запросам, которые парсим у конкурентов. Те запросы, которые уже имеют реальные клики и заявки, мы не фильтруем по частотности, так как они уже доказали свою эффективность.

Следующий этап — это работа со стоп-словами, один из самых трудоёмких и муторных этапов. Здесь важно выделить самые частые стоп-слова, которые встречаются в запросах. Например, можно пройтись по первым двум вкладкам запросов и убрать лишние фразы. Полностью вычищать каждый запрос до последнего нет смысла. К примеру, у клиентов отеля нет бассейна, и если видно, что 69 фраз содержат слово «бассейн», их можно просто отметить и убрать.

Запросы, которые вы убираете, лучше не удалять полностью, так как проект может проходить сбор семантики не в первый раз, и каждый раз проводить повторную фильтрацию — полезная практика. Хорошо использовать инструменты или сервисы для хранения этой информации, чтобы, когда вы добавляете новый запрос, он автоматически не попадал в уже исключённые стоп-слова.

Если тематика сложная и требуется глубокая проработка, важно не только убирать лишние слова, но и выделять нужные. Например, есть простые тематики, где сложно что-то придумать: услуги прогулок на воде, коммерческие услуги и так далее. Здесь всё очевидно и ясно. Но если тематика более размыта, как, например, курсы английского языка, то запросы могут быть как коммерческими, так и информационными. Запрос «обучение английскому» — это коммерческий запрос или информационный? Или, например, «тестирование по английскому языку» — человек хочет подготовиться к нему или бесплатно что-то пройти?

Для таких случаев можно использовать инструмент Kparser, чтобы понять, подходит запрос по логике или нет, коммерческий он или информационный. То же самое касается типа бизнеса. Пример: сайт, который занимается продажей спортивных площадок, столкнулся с вопросом, какую семантику использовать, чтобы продвигать не просто интернет-магазин, а конкретные товары, которые стоят довольно дорого. В итоге нужно получить список запросов, где хотя бы 10% целевой аудитории заинтересованы в товаре.

Таким образом, происходит разметка запросов. На панели видно, как каждый запрос отмечен, и можно понять, подходит он нам или нет. Иногда по описанию понятно, что запрос информационный, и в таком случае он нам не подходит. При этом важно отметить, что в топ-10 запросов, которые размещаются, часто можно дойти до ситуации, когда запросы выделены как коммерческие или информационные, и нужно учитывать процент релевантности каждого из них.

Процент сайтов в топ-10, которые вы разметили как целевые или нецелевые, может говорить о том, насколько запрос подходит для продвижения. Если, например, пять URL-адресов подходят, а пять — нет, то можно установить для себя нижний порог. Например, если хотя бы три URL-а подходят, то можно считать, что этот запрос ваш. Таким образом, в сложных тематиках можно хорошо почистить семантику от лишних нецелевых вещей. Это помогает избежать ситуации, когда при работе над оптимизацией текстов и составлении технического задания (ТЗ) выясняется, что запросы не соответствуют целевой аудитории.

Если нужно почистить семантику массово, без ручной работы, можно использовать инструменты для расчёта коммерциализации. Например, у Пикселя есть своя формула для этого, а также такие сервисы, как Magic и другие, которые могут оценить коммерциализацию. Единственный совет — понимать, как работает формула, и можно ли ей доверять.

Также полезно смотреть, появляется ли запрос в подсказках, что указывает на его натуральность и востребованность. Работа с витальными ответами помогает отсеять брендовые запросы. Например, в тематике отелей может быть сложно определить, является ли запрос названием отеля или просто географическим названием. Использование витальных ответов помогает определить, относится ли запрос к названию отеля.

Ручная чистка на этом этапе также упрощается. Если использовать кластеризатор, нецелевые группы запросов автоматически попадают вместе, и их можно сразу удалить. Это помогает не накапливать нецелевые запросы со временем и избежать повторной фильтрации. На этом этапе отбрасываются не отдельные запросы, а все нецелевые группы.

Также есть возможность посмотреть, какие URL-адреса находятся в топе по конкретному запросу. Например, по запросу «снять комнату» можно увидеть, что три сайта находятся в топе, и их средняя позиция — 4, 3 и 7. Таким образом, можно оценить конкурентоспособность запроса и понять, стоит ли на него ориентироваться.

Таким образом, мы можем понять, подходят нам такие запросы или нет. Важно оценить, есть ли у нас контент, который может конкурировать с теми сайтами, что уже находятся в топе. Если контента недостаточно, можно быстро почистить семантику, чтобы сосредоточиться на более подходящих запросах.

Основной совет здесь заключается в том, что не нужно пытаться полностью очистить все запросы, пока не останется ни одного нецелевого. Наша цель — это не собрать 10 000 запросов и отфильтровать их все до последнего. Мы знаем цель — клиенту нужны заявки и продажи. Наша задача — понять, сколько визитов нужно привлечь при заданной конверсии клиента и какой объём спроса (показов) должен быть в наших запросах, чтобы достичь нужного количества визитов.

Если, например, после фильтрации запросов мы видим, что имеем 10 000 показов и этого достаточно для обеспечения нужного трафика, мы можем остановиться. Всё равно к этой семантике мы вернёмся ещё раз, возможно, через месяц, два или квартал, чтобы добавить новые запросы или обновить старые.

Теперь поговорим о том, как находить точки роста трафика и лидов. Здесь два подхода: либо собирать много запросов и кластеризовать их, формируя группы URL, либо начать с конкурентов. Чаще всего, если нужно быстрее набрать аудиторию, этот подход используется для анализа конкурентов и получения ключевых запросов.

Здесь можно использовать различные сервисы, такие как Pixel Tools. После того как мы получили список запросов и провели их чистку, можно искать точки роста, исходя из этих запросов и URL-адресов. Эти сервисы полезны тем, что они помогают автоматизировать расчёты и анализ, который иначе потребовал бы много времени и усилий при работе в Google Docs или Excel.

В сервисах можно использовать два подхода: жёсткую сочетаемость запросов (когда запросы точно соответствуют заданным критериям) или более мягкую сочетаемость, объединяя запросы в кластеры. После этого можно загрузить кластеры в инструмент, такой как Pixel Tools, и понять, какая полезная статистика выводится, сколько показов сразу доступно и какова их релевантность.

У нас есть группа запросов, и на основании текущих позиций мы можем определить, какой процент показов сайт уже собирает из топа. Исходя из этого, мы можем понять, что если сейчас процент низкий, то есть смысл поработать над улучшением позиций, чтобы добиться лучшего результата. Если по этим запросам уже достигнуто 100%, то, скорее всего, в этом направлении особо расти больше некуда.

Однако важно понимать, что в последнем столбце статистики содержатся данные по достижению целей, то есть заявки и лиды. Если мы видим, что сейчас реализовано только 15% потенциала, а у нас уже есть 3000 заявок, это очевидная точка роста, и стоит продолжать работу в этом направлении. Но если процент низкий и заявок нет или они очень малочисленны, то, возможно, эта страница не является конверсионной и не будет точкой роста, даже если нарастить трафик. В таком случае трафик может не конвертироваться в заявки или будет конвертироваться очень плохо.

На этом слайде также показан пример статистики по поисковому трафику. Видно, что поисковый трафик значительно превышает суммарное количество показов, например, в два раза больше, если брать и Яндекс, и Google. Если мы возьмём первую позицию Яндекса с CTR в 10%, то цифры будут значительно меньше текущего поискового трафика. Это говорит о том, что группа запросов, которую мы анализируем как точку роста, на самом деле может быть неполной. Нам нужно её дополнить, так как прогнозируемый трафик получается меньше, чем фактический.

Сюда можно добавить брендовые запросы, так как статистика по заявкам и трафику считается без учёта брендовых запросов. Добавление брендовой статистики поможет получить более полную картину, особенно если она относится к этим URL-адресам.

Ещё один способ поиска точек роста — зайти в мониторинг запросов Яндекс.Вебмастера. Там есть полезная функция, которая показывает спрос по запросам и их показы. Спрос — это сколько люди ищут по этим запросам, то есть суммарное количество показов за период. Таким образом, можно понять, какие запросы имеют высокий спрос и на какие стоит обратить внимание, чтобы увеличить охват.

Потенциал роста можно оценить, если сопоставить эти запросы с той же статистикой заявок из Яндекс.Метрики. Таким образом, можно найти конверсионные запросы, по которым уже есть заявки, но мало показов, при этом спрос большой. В этом случае можно направить свои усилия на улучшение видимости по этим запросам и получить дополнительные продажи.

Обратный подход — это работа с URL-адресами, у которых мало показов, но спрос большой. Единственная проблема здесь в том, что Яндекс.Вебмастер не всегда показывает спрос на запросы, поэтому приходится предварительно собирать релевантные запросы и составлять мониторинг по этим URL-адресам.

Таким образом, можно оценить показы на URL-адресах, а затем снова использовать данные из Яндекс.Метрики, чтобы понять, какие из них потенциально могут генерировать заявки. Этот подход хорош тем, что Яндекс может показать запросы, которых нет в базе сервисов, анализирующих конкурентов. С другой стороны, сервисы, которые анализируют конкурентов, могут показать информацию о позициях, например, в топ-1, в то время как Яндекс показывает данные по всем топам.

Последний подход — это анализ структуры конкурента. Мы можем взять иерархическую структуру сайта конкурента, посмотреть, какие разделы у него генерируют наибольший трафик и конверсии, и перенести эти выводы на наш сайт. Это помогает понять, какие разделы стоит развивать, а какие — нет. Далее по этим разделам можно посмотреть, какие запросы и страницы у нас конвертируют лучше всего, и начинать весь цикл заново.

Собрав запросы, почистив их и разложив на кластеры, можно обсчитать потенциальную выручку, чтобы прийти к клиенту с конкретными данными. Например, можно показать клиенту, какие разделы будут более приоритетными, или приоритизировать их внутри компании. Для этого сначала нужно перевести визиты в заявки, а заявки в продажи.

Проще всего это сделать, если у вас есть статистика по конверсии из визита в заявку и из заявки в продажу, а также информация по среднему чеку. Допустим, у нас есть список запросов и позиции по ним. Чтобы посчитать визиты, можно использовать данные о CTR, которые помогут понять, какое количество визитов может быть для каждой позиции.

Есть исследования, такие как исследования Pixel Tools, которые позволяют определить CTR для каждой позиции, и затем умножить этот CTR на количество показов, чтобы получить примерное количество визитов.

И таким образом можно иметь какие-то данные. Единственное, здесь важно учитывать, что визиты нужно умножить на долю коммерциализации, так как есть ещё и Google. Доля рынка между Яндексом и Google также влияет на общую картину.

Далее, нам нужно перевести визиты непосредственно в заявки. Здесь важно учесть такой момент: если у нас, например, запрос «дизайн интерьера», и вы откроете топ-10, то там будут несколько сайтов с услугами, но обязательно найдутся и информационные сайты, например, «как сделать самостоятельно». Чтобы понять, насколько запрос коммерческий, можно оценить коммерциализацию — то есть долю коммерческих результатов в топ-10. Большинство сервисов считают это на основе словарей с коммерческими словами. Они ищут наличие этих слов в сниппетах и пытаются классифицировать каждый сниппет как коммерческий или информационный.

Таким образом, получается определённое значение коммерциализации. Что это значит на практике? Это показывает, знает ли Яндекс или Google, что человек, вводящий этот запрос, скорее всего, хочет купить что-то или просто узнать информацию. Чаще всего интент запроса бывает смешанным, и в топе присутствуют как коммерческие, так и информационные результаты. Например, 24% коммерческих результатов по запросу говорят о том, что этот запрос имеет коммерческую составляющую. Умножив 24% на количество визитов, мы получаем число визитов, в рамках которых люди именно хотят что-то купить, а не просто прочитать и сделать самостоятельно.

После этого нужно определить количество заявок. Если у клиента есть статистика — это замечательно. Если сайт новый или статистики недостаточно, можно использовать усреднённые данные. Например, есть исследования, в которых собирается статистика по конверсии из визита в заявку по различным отраслям. Мы умножаем эту конверсию на количество коммерческих визитов и получаем примерное количество заявок.

Важно учитывать такой момент: ранее мы считали статистику по запросам, а теперь — по URL-адресам. Это связано с тем, что, если начать считать визиты по запросам, может получиться, что у какого-то запроса низкая частота показов, и итоговая конверсия будет незначительной. Поэтому лучше суммировать данные по URL-адресам. Затем, используя данные о конверсии из заявки в продажу, умножаем одно на другое и получаем количество продаж по каждому URL.

Здесь важный момент: прогнозные значения показывают потенциальные результаты при текущих позициях. То есть в теории, если мы будем удерживать или улучшать позиции, количество продаж будет соответствовать этим прогнозам.

Вы можете посчитать и статистику условно, когда все запросы находятся на первых позициях. Вы можете посчитать максимальное значение количества заявок, продаж, выручки — то есть текущее состояние и потенциальное, максимально возможное. Всё зависит от позиции: CTR умножаем на количество показов и частоту. В данном случае частоту берём как константу на момент расчёта.

Далее, посчитали продажи. Если клиент скажет вам средний чек — это очень просто, можно подставить в формулу и посчитать. Если такой информации нет, например, я анализировал сайт по ремонту, сторонний абсолютно, можно взять, сколько стоит ремонт квадратного метра в среднем, и умножить на эту цифру. В примере у меня получилось 47 рублей.

Далее, средний чек умножаем на количество продаж и получаем итоговую выручку. Это позволяет сразу видеть приоритетные страницы, даже если это главная страница. Становится понятно, какие URL наиболее важны.

Вопросы:

– Новый инструмент подбора запросов и анализа Алиса, как он показывает конкуренцию? И вторая часть вопроса: что можете о нём сказать? Уже тестировали?

Тестировали. На самом деле, что круто — это КП делать, потому что он гораздо меньше мусора выдаёт, плюс там есть реальные данные по кликам. Когда прогноз строим клиенту на этапе составления коммерческого предложения, часто встаёт вопрос: какое значение прогноза по кликам использовать? Одно дело — опираться на данные о показах, где может быть накрутка, и совсем другое — использовать реальные данные по кликам, которые показывают, сколько реально можно получить.

С точки зрения поиска новых идей инструмент тоже полезен. Например, есть запрос «парк-отель», и при его парсинге ты ищешь дополнительные запросы через вкладку «похожие». Он может предложить, например, попробовать туристическую базу. Клиенту я сказал: «Давайте туристическую базу попробуем», и оказалось, что заявки с этого направления тоже идут хорошо.

Какие-то дополнительные идеи находить очень полезно. Но на показатель конкурентности я особо не ориентируюсь, потому что был момент, когда по запросу «продвижение сайтов» инструмент показывал низкую или среднюю конкурентность, хотя на практике это не так.

– А как правильно работать с запросами с нулевой частотой?

Ну, вот как раз то, о чём я рассказывал. Круто, если есть статистика из Яндекс.Метрики. То есть вы можете понять условно, что, несмотря на нулевую частоту, у вас были реальные визиты или клики. Тот же самый статистика Вебмастера: там показы, какие-то реальные данные были по вашему сайту по этим запросам. Если вы что-то оттуда достали, то это уже не совсем нулевая частота.

Вот другой момент: если данных нет или в Метрике тоже нет данных, то хорошо бы проверить частоту за год. Частота может быть нулевая только из-за сезонности. Допустим, в прошлом месяце не было, а если за год посчитать, то может оказаться, что в какой-то месяц статистика зашкаливает, и наоборот, по этому запросу вы можете его взять.

В остальном, я бы сказал, что если у вас семантики очень много и есть из чего выбрать, то в нулевых запросах особого смысла нет. Если только случайно оказалось, что запрос такой, что его можно чем-то дополнить, и вы решите его использовать. Например, вы наберёте такие запросы, и пусть они будут на странице, мы тоже будем их продвигать, под них напишем текст, добавим слова, и возможно, они принесут какие-то визиты. То есть я бы такие способы описал.

– Как часто нужно дособирать семантическое ядро?

Здесь, наверное, я бы опирался на KPI в первую очередь. Например, когда я работаю, мы клиенту на этапе продаж генерируем прогноз по трафику: в этом месяце столько визитов, в следующем рост и так далее. Нам нужно иметь запас семантики, чтобы прорабатывать её и попадать в этот прогноз.

Если я понимаю, что большую часть семантики мы проработали, написали, и без нового материала мы просто не выполним прогноз, то возникает потребность эту семантику дособирать. Если жёсткой привязки к месяцам нет, если тематика не насчитывает десятки или сотни тысяч запросов, то для небольших тематик можно собрать семантику на несколько месяцев вперёд. В интернет-магазинах, например, часто семантику собирают в первый месяц, чтобы хватило на 3-4 месяца работы.

Если тематика специфическая, как квизы, и сайт уже находится в топ-10 по всем основным запросам (например, “игры для взрослых в Москве”, “игры в кафе на корпоратив”), то смысла в регулярном обновлении мало.

Два момента — даже возвращаться нет смысла. Потому что, знаю, семантики очень мало, и тут скорее надо позиционно прорабатывать то, что есть, чтобы попасть в топ-10, на первое место. Вот так я бы ответил.

– Как массово определить интент запросов?

Массово, на самом деле, сервисы это делают. То есть, из того что я, по крайней мере, знаю, они там генерируют стоп-слова, набор тематических слов по каждому запросу. Генерируют, потом смотришь, и они показывают, какой тип информации. Например, информационные или коммерческие. Вот такие можно использовать. Как тот же Kparser, они показывают тематику запросов, что тоже прикольно. То есть, смотришь на запрос, и он как бы тебе говорит, что этот запрос относится не к той тематике, которая тебе нужна, а к другой. А по интуитивному написанию это непонятно. Раньше такого не было, а теперь можно посмотреть и понять.

То есть, агрегаторы могут выдавать, что запрос относится к информационному или коммерческому сегменту.

Да, это как бы тоже называется массовый анализ. Вот такие подходы. Если прям хочется что-то классное и крутое сделать, то, наверное, хорошо бы это автоматизировать, например, на Python. Можно сделать с каким-нибудь чатом GPT теоретически — замес такой крутой.

То есть, просто нашли условно тройку своих доменов, которые вам кажутся правильными, спарсили их, и всё. Вы знаете, что они целевые.

– Как определить запросы с накрученной частотой?

Запросы с накрученной частотой… Вот тут есть такая штука — можно их посмотреть по Яндексу. Там есть функция, которая показывает процент популярности запросов в каком-то из регионов. И если зайти и посмотреть, то можно заметить явный всплеск интереса к запросу в регионе, который не выглядит естественно.

Всем спасибо, до новых встреч и увидимся в топе. Всем пока!

Позвоните нам

+7 937 075 53 42
info@b2b-context.ru

Время приема звонков

Будни: 10:00 - 18:00

Бесплатно составим план проекта

Свяжитесь с нами и мы составим для вас план развития проекта, а так же поможем с выбором специалистов