Составляем качественное семантическое ядро

Добрый день, друзья.

Наверняка вы уже забыли вкус моих статей. Предыдущий материал был довольно давно, хотя и обещал я публиковать статьи чаще, чем обычно.

В последнее время увеличилось количество работы. Создал новый проект (информационный сайт), занимался его версткой, дизайном, собирал семантическое ядро и начал публиковать материал.

Сегодня же будет очень объемный и важный материал для тех, кто ведет свой сайт более 6-7 месяцев (в некоторых тематиках более 1 года) имеет большое количество статей (в среднем 100) и еще не достиг планки минимум в 500-1000 посещений в сутки. Цифры взяты по минимуму.

Важность семантического ядра

В некоторых случаях слабый рост сайта вызван неправильной технической оптимизацией сайта. Больше случаев, когда контент некачественный. Но еще больше случаев, когда тексты пишутся вообще не под запросы - материалы никому не нужны. Но имеется еще и очень огромная часть людей, которая создает сайт, все правильно оптимизирует, пишет качественные тексты, но спустя 5-6 месяцев сайт только начинает набирать первые 20-30 посетителей с поиска. Небольшими темпами через год это уже 100-200 посетителей и цифра в доходах равняется нулю.

И хотя, все сделано правильно, нет никаких ошибок, а тексты порой даже в разы качественней конкурентов, но вот как-то не идет, хоть убей. Начинаем списывать этот косяк на отсутствие ссылок. Конечно ссылки дают буст в развитии, но это не самое главное. И без них можно через 3-4 месяца иметь 1000 посещений на сайте.

Многие скажут, что это все треп и так быстро такие цифры не получишь. Но если мы посмотрим, то не достигаются такие цифры именно на блогах. Информационные же сайты (не блоги), созданные для быстрого заработка и окупаемости вложений, примерно через 3-4 месяца вполне реально выходят на суточную посещаемость в 1000 человек, а через год – 5000-10000. Цифры конечно зависят от конкурентности ниши, ее объема и объема самого сайта на указанный срок. Но, если взять нишу с довольно небольшой конкуренцией и объемом в 300-500 материалов, то такие цифры за указанные сроки вполне достижимы.

Почему же именно блоги не достигают таких быстрых результатов? Главнейшей причиной является отсутствие семантического ядра. Из-за этого статьи пишут всего под один какой-то запрос и практически всегда под очень конкурентный, что не дает странице выбиться в ТОП за короткие сроки.

На блогах, как правило, статьи пишут по подобию конкурентов. Имеем 2- читаемых блога. Видим, что у них посещаемость приличная, начинаем анализировать их карту сайта и публиковать тексты под те же самые запросы, которые уже переписаны сотнями раз и очень конкурентные. В итоге получаем очень качественный контент на сайте, но в поиске он себя чувствует плохо, т.к. требует большого возраста. Бьемся об голову, почему же мой контент лучший, но в ТОП не пробивается?

Именно поэтому я решил написать подробный материал про семантическое ядро сайта, чтобы вы могли собрать себе список запросов и что немало важно – писали тексты под такие группы ключевых слов, которые без покупки ссылок и всего за 2-3 месяца выходили в ТОП (конечно, если контент качественный).

Материал для большинства будет сложный, если ни разу не сталкивались с этим вопросом в его правильном ключе. Но тут главное начать. Как только начинаете действовать, все сразу становится ясно.

Сделаю очень важное замечание. Касается оно тех, кто не готов вкладываться в качество своими кровными заработанными монетами и всегда пытается находить бесплатные лазейки. Семантику бесплатно качественно не соберешь и это известный факт. Поэтому, в данной статье я описываю процесс сбора семантики максимального качества. Никаких бесплатных способов или лазеек именно в этом посте не будет! Обязательно будет новый пост, где расскажу про бесплатные и другие инструменты, с помощью которых вы сможете собрать семантику, но не в полном объеме и без должного качества. Поэтому, если вы не готовы вкладываться в основу основ для вашего сайта, тогда данный материал вам ни к чему!

Несмотря на то, что практически каждый блоггер пишет статью о сем. ядре, могу с уверенностью сказать, что нет нормальных бесплатных пособий в интернете по данной теме. А если и есть, то нет такого, которое бы в полной картине давало понятие, что же должно получится на выходе.

Чаще всего ситуация заканчивается тем, что какой-то новичок пишет материал и рассказывает о сборе семантического ядра, как о применении сервиса для сбора статистика поисковых запросов от Яндекс (wordstat.yandex.ru). В конечном итоге необходимо зайти на этот сайт, вбить запросы по вашей теме, сервис выдаст список фраз, входящих в ваш вбитый ключ – это и есть вся методика.

Но на самом деле семантическое ядро собирается не так. В описанном выше случае у вас попросту не будет семантического ядра. Вы получите какие-то оторванные запросы и все они будут об одном и том же. Например, возьмем мою нишу «сайтостроение».

Какие главные запросы можно по ней без раздумий назвать? Вот лишь некоторые:

Запросы получаются об одном и том же. Смысл их сводится лишь к 2м понятиям: создание и раскрутка сайта.

После такой проверки сервис wordstat выдаст очень много поисковых запросов, которые входят в главные запросы и они также будут об одном и том же. Единственное их различие будет в измененных словоформах (добавление некоторых слов и изменение расположения слов в запросе с изменением окончаний).

Конечно, определенное количество текстов написать получится, так как запросы могут быть разные даже в данном варианте. Например:

  • Как создать сайт wordpress;
  • Как создать сайт joomla;
  • Как создать сайт на бесплатном хостинге;
  • Как раскрутить сайт бесплатно;
  • Как раскрутить сайт сервис и т.д.

Очевидно, что под каждый запрос можно выделить отдельный материал. Но такое составление семантического ядра сайта не увенчается успехом, т.к. не будет полноты раскрытия информации на сайте в выбранной нише. Весь контент будет лишь о 2х темах.

Иногда блоггеры-новички описывают процесс составления семантического ядра, как анализ отдельных запросов в сервисе анализа запросов Яндекс Вордстат. Вбиваем какой-то отдельный запрос, относящийся не к теме в целом, а лишь к определенной статье (например, как оптимизировать статью), получаем по нему частотность и вот оно – семантическое ядро собирается. Получается, что таким образом мы должны умственно определить всевозможные темы статей и проанализировать их.

Оба вышеописанные варианты неправильные, т.к. не дают полного семантического ядра и заставляют постоянно возвращаться к его составлению (второй вариант). К тому же вы не будете иметь на руках вектор развития сайта и не сможете в первую очередь публиковать материалы, которые и нужно размещать в числе первых.

Касаемо первого варианта, то покупая когда-то курсы по раскрутке сайтов, я постоянно видел именно такое объяснение сбора ядра запросов для сайта (вбить главные ключ и скопировать все запросы из сервиса в текстовый документ). В итоге меня постоянно мучал вопрос «А что же делать с такими запросами?» На ум приходило следующее:

  • Писать много статей об одном и том же, но употребляя разные ключевые слова;
  • Все эти ключи вписывать в поле description к каждому материалу;
  • Вписать все ключи из сем. ядра в общее поле description ко всему ресурсу.

Ни одно из этих предположений не было верным, как в общем-то и само составленное семантическое ядро сайта.

На окончательном варианте сбора семантического ядра мы должны получит не просто список запросов в количестве 10000, например, а иметь на руках список групп запросов, каждая из которых используется для отдельной статьи.

Группа может содержать от 1 до 20-30 запросов (иногда 50, а то и больше). В таком случае в тексте мы употребляем все эти запросы и страница в перспективе ежедневно будет приносить трафик по всем запросам, если попадет на 1-3 позиции в поиске. Кроме этого, каждая группа должна иметь свою конкуренцию, чтобы знать, имеет ли смысл сейчас публиковать по ней текст или нет. Если конкуренция большая, тогда можем ожидать эффект от страницы только через 1-1.5 года и с проведением регулярных работ по ее продвижению (ссылки, перелинковка и т.д.). Поэтому, лучше на такие тексты делать упор в самую последнюю очередь, даже если они самые трафиковые.

к содержанию ↑

Ответы на возможные вопросы

Вопрос №1. Понятно, что на выходе получаем группу запросов для написания текста, а не всего один ключ. Не будут ли похожи в этом случае ключи между собой и почему бы под каждый запрос не написать отдельный текст?

Ответ. Писать текст всего под один запрос, когда имеются и другие на эту же тему, не имеет смысла, так как теряется значительная часть трафика. Конечно мы пишем текст под самый частотный запрос, чтобы получать основной трафик именно по нему, но оптимизация и под другие ключи дает трафика еще больше.

Например, запросы с их частотностью (выдуманной для примера):

  • Чистка печени сорбитом – 120 в месяц;
  • Как почистить печень сорбитом - 95;
  • Сорбит для чистки печени - 40;
  • Применение сорбита для очищения печени - 25;
  • Чистка печени шиповником и сорбитом - 65.

Текст главным образом оптимизируем именно под первый ключ, т.к. он более частотный. Используя только его, находясь на первых позициях, мы можем рассчитывать на 120/3=40 посетителей в месяц на статью.

(Делим на 3, чтобы привести цифры к более реальным, т.к. количество запросов формируется не только из запросов пользователей, а и с прокрутки показов рекламы по этому запросу и т.д.).

Как видим, запросы на одну и ту же тему, просто в разных формулировках. Писать тексты под каждый из них просто глупо, т.к. все статьи на сайте будут об одном и том же. Выкидывать тоже глупо. А вот использовать – правильный ход, т.к. общая частотность группы ключей увеличивается и месячный, а значит и дневной трафик, будет намного больше.

(120+95+40+25+65)/3=115 посещений в месяц или 115/30=4 посещения в день.

Посещаемость увеличивается минимум в 3 раза за счет употребления других ключей по теме.

Вопрос №2. Известно, что каждая страница должна затачиваться лишь под один ключевик, а тут мы получаем целую группу да еще в некоторых случаях с достаточно большим содержанием запросов. Как в таком случае происходит оптимизация самого текста, ведь если ключей, например, 20, тогда употребление хотя бы по одному разу каждого в тексте (даже большого размера) уже похоже на текст для поисковика, а не для людей.

Ответ. Если взять пример запросов из предыдущего вопроса, то затачиваться материал первым делом будет именно под самый частотный (1й) запрос, так как мы большего всего заинтересованы в его выходе на топовые позиции. Данный ключевик мы и считаем главным в этой группе.

Оптимизация под главную ключевую фразу происходит также, как бы это и делалось при написании текста лишь под один ключ (ключ в заголовке title, употребление нужного количества символов в тексте и нужного количества раз самого ключа, если требуется).

Касаемо других ключей, то мы их также вписываем, но не слепо, а на основе анализа конкурентов, который может показать среднее значение количества этих ключей в текстах из ТОПа. Может получиться ситуация, что для большинства ключевиков вы получите нулевые значения, а значит в точном вхождении они не требуют употребления.

Таким образом текст пишется, употребляя всего лишь главный запрос в тексте в прямом. Конечно другие запросы тоже могут быть употреблены, если анализ конкурентов покажет их наличие в текстах из ТОП. Но это никак не 20 ключевиков в тексте в их точном вхождении.

Совсем недавно публиковал материал под группу из 11 ключей. Вроде бы много запросов, но на скриншоте ниже можете видеть, что лишь главный самый частотный ключ имеет употребление точного вхождения – 6 раз. Остальные же ключевые фразы не имеют точных вхождений, но также и разбавочных (на скриншоте не видно, но в ходе анализа конкурентов это показано). Т.е. они вообще не употребляются.

(1я колонка – частотность, 2я – конкурентность, 3я – количество показов)

В большинстве случаев будет похожая ситуация, когда лишь пару ключей нужно будет употребить в точном вхождении,  а все остальные либо сильно разбавлять, либо вообще не употреблять даже в разбавочном вхождении. Статья получается читаемой и нет намеков на заточку только под поиск.

Вопрос №3. Вытекает из ответа на Вопрос №2. Если остальные ключи в группе не нужно вообще употреблять, то как тогда они будут получать трафик?

Ответ. Дело в том, что по наличию определенных слов в тексте поисковик может определить о чем текст. Так как в ключевых словах имеются определенные отдельные слова, относящиеся только к этому ключу, то их и нужно употреблять в тексте определенное количество раз на основе того же анализа конкурентов.

Таким образом ключ в точном вхождении не употребится, а вот слова из ключа по отдельности в тексте присутствовать будут и в ранжировании также будут принимать участие. В итоге по этим запросам текст будет также находиться в поиске. Но и количество отдельных слов в этом случае в идеале требуется соблюдать. Помогут конкуренты.

На основные вопросы, которые могли загнать вас в ступор, я ответил. Подробнее, как оптимизировать текст под группы запросов, я напишу в одном из следующим материалов. Там будет и про анализ конкурентов и про написание самого текста под группу ключей.

Ну, а если вопросы еще остались, тогда задавайте свои комментарии. На все отвечу.

А теперь давайте начнем составление семантического ядра сайта.

Очень важно. Весь процесс, как он есть на самом деле я никак не смогу описать в этой статье (придется делать целый вебинар на 2-3 часа или мини-курс), поэтому я постараюсь быть краток, но в то же время информативным и затронуть максимальное количество моментов. Например, я не буду описывать в детальности настройку софта KeyCollector. Все будет урезано, но максимально понятно.

Теперь пройдемся по каждому пункту. Начнем. Сначала подготовка.

к содержанию ↑

Что необходимо для сбора семантического ядра?

  1. KeyCollector – софт для парсинга запросов из yandex.wordstat и сбора частотностей. Также с помощью него мы будем использовать дополнительные функции расширения списка запросов. Стоимость программы 1700 рублей. Покупать только тут http://www.key-collector.ru/buy.php. Необходимо заполнить форму заказа. Программа привязывается к компьютеру. Можно использовать бесплатную, но очень сильно ограниченную версию кейколлектора – Словоёб. Выбрав последний вариант, не получится расширить список запросов.
  2. Аккаунты в Яндексе. Необходимы для парсинга через KeyCollector. Можно купить на buyaccs.com. Стоимость аккаунтов смешная. Если не хотите тратить копейки, тогда можно зарегистрировать вручную. Я приобретал на этом сервисе 30 аккаунтов. Для небольшого ядра этого достаточно.
  3. Прокси-сервера, если у вас статический ИП. При парсинге создается масса запросов и, если вы будете замечены в парсинге, тогда ваш ИП будет забанен в яндексе. Чтобы такого не было, можно купить хорошие прокси сервера на Hostbiz, отдав всего 4$ за аренду одного прокси на месяц.Сначала стоит пройти регистрацию, а затем в пункте "Другие услуги" приобрести нужное количество серверов.Достаточно 2-5 прокси. Чем больше, тем лучше, но это не всегда нужно. Количество зависит от количества выполняемых потоков парсинга в кейколлекторе. Я работал с одним прокси сервером, хотя и ИП у меня динамический. В случае бана я мог бы перезагрузить интернет и продолжить парсинг.
  4. Аккаунт на сервисе разгадывания капчи anti-captcha.com (достаточно пополнения баланса на 1$). Нужен в связи с тем же массовым количеством запросов при парсинге. Чтобы поставить процесс разгадывания капчи на автомат – зарегистрируйтесь и пополните баланс. Потом нужно будет взять специальный ключ из аккаунта.

Перед тем, как составить семантическое ядро сайта, настроим кейколлектор для правильного сбора статистики и парсинга запросов.

к содержанию ↑

Настройка KeyCollector

Войти в настройки можно, нажав на пиктограмму в верхнем меню софта.

Далее я буду давать скриншоты, по которым вы можете в каждой необходимой вкладке настроить нужные параметры.

Сначала то, что касается парсинга.

Хочу отметить настройки «Количество потоков» и «Использовать основной IP-адрес». Количество потоков для сбора одного небольшого ядра не нужно большое. Достаточно 2-4 потоков. Чем больше потоков, тем больше нужно прокси-серверов. В идеале 1 прокси на 1 поток. Но можно и 1 прокси на 2 потока (так парсил я).

Касаемо второй настройки, то в случае парсинга в 1-2 потока можно использовать свой основной ИП адрес. Но только ,если он динамический, т.к. в случае бана статического ИП вы потеряете доступ к поисковой системе Яндекс. Но все же приоритет всегда отдается использованию прокси-сервера, так как лучше обезопасить себя.

На вкладке настроек парсинга Yandex.Direct важно добавить свои аккаунты Яндекса. Чем их будет больше, тем лучше. Можете их зарегистрировать сами или купить, как я писал ранее. Я же их приобретал, так как мне проще потратить 100 рублей за 30 аккаунтов.

Добавление можно выполнить из буфера, заранее скопировав список аккаунтов в нужном формате, или загрузить из файла.

Аккаунты нужно указывать в формате «логин:пароль» при этом в логине не указывать сам хост (без @yandex.ru). Например, «artem_konovalov:jk8ergvgkhtf».

Также, если мы используем несколько прокси-серверов, лучше закрепить их за определенными аккаунтами. Подозрительно будет, если сначала запрос идет с одного сервера и с одного аккаунта, а при следующем запросе с этого же акаунта яндекса прокси сервер уже другой.

Рядом с аккаунтами имеется столбик «IP прокси». Напротив каждого аккаунта мы и вписываем определенный прокси. Если аккаунтов 20, а прокси-серверов 2, тогда будет 10 аккаунтов с одним прокси и 10 с другим. Если 30 аккаунтов, тогда 15 с один сервером и 15 с другим. Логику, думаю, вы поняли.

Если используем всего один прокси, то нет смысла вписывать его к каждому аккаунту.

Про количество потоков и использование основного ИП адреса я говорил немного ранее.

Следующая вкладка «Сеть», на которой нужно внести прокси-сервера, которые будут использоваться для парсинга.

Вводить прокси нужно в самом низу вкладки. Можно загрузить их из буфера в нужном формате. Я же добавлял по простому. В каждую колонку строки я вписывал данные о сервере, дающиеся вам при его покупке.

Далее настраиваем параметры экспорта. Так как все запросы с их частотностями нам нужно получить в файле на компьютере, то необходимо выставить некоторые параметры экспорта, чтобы не было ничего лишнего в таблице.

В самом низу вкладки (выделил красным) нужно выбрать те данные, которые нужно экспортировать в таблицу:

  • Фраза;
  • Источник;
  • Частотность «!» [WS];
  • Лучшая форма фразы [RK] (можно и не ставить).

Осталось лишь настроить разгадывание антикапчи. Вкладка так и называется - «Антикапча». Выбираем используемый сервис и вводим специальный ключ, который находится в аккаунте сервиса.

На выбор предлагается 5 сервисов. Рекомендую использовать Antigate.com или ruCaptcha.com. Я всегда пользовался первым (доступен с новым интерфейсом по старому адресу https://anti-captcha.com).

Специальный ключ для работы с сервисом предоставляется в письме после регистрации, но также его можно взять из самого аккаунта в пункте «Настройки – настройки аккаунта».

На этом настройки KeyCollector выполнены. Не забываем после проделанных изменений сохранить настройки, нажав на большую кнопку внизу «Сохранить изменения».

Когда все сделано и мы готовы к парсингу, можно приступить к рассмотрению этапов сбора семантического ядра, а потом уже и проделать каждый этап в порядке очереди.

к содержанию ↑

Этапы сбора семантического ядра

Получить качественное и полное семантическое ядро невозможно, используя лишь основные запросы. Также нужно анализировать запросы и материалы конкурентов. Поэтому весь процесс составления ядра состоит из нескольких этапов, которые в свою очередь еще делятся на подэтапы.

  1. Основа;
  2. Анализ конкурентов;
  3. Расширение готового списка с этапов 1-2;
  4. Сбор лучших словоформ к запросам с этапов 1-3.

Этап 1 – основа

В ходе сбора ядра на этом этапе нужно:

  • Сформировать основной список запросов в нише;
  • Расширение этих запросов;
  • Чистка.

Этап 2 – конкуренты

В принципе, этап 1 уже дает некий объем ядра, но не в полной мере, т.к. мы можем что-то упустить. А конкуренты в нашей нише помогут найти упущенные дыры. Вот шаги, необходимые к выполнению:

  • Сбор конкурентов на основе запросов с этапа 1;
  • Парсинг запросов конкурентов (анализ карты сайта, открытая статистика liveinternet, анализ доменов и конкурентов в SpyWords);
  • Чистка.

Этап 3 – расширение

Многие останавливаются уже на первом этапе. Кто-то доходит до 2го, но имеется же еще ряд дополнительных запросов, которые также могут дополнить семантическое ядро.

  • Объединяем запросы с 1-2 этапов;
  • Оставляем 10% самых частотных слов со всего списка, которые содержат минимум 2 слова. Важно, чтобы эти 10% были не более 100 фраз, т.к. большое количество заставит вас сильно закопаться в процесс сбора, чистки и группировки. Нам же нужно собрать ядро в соотношении скорость/качество (минимальные потери качества при максимальной скорости);
  • Выполняем расширение этих запросов с помощью сервиса Rookee (все есть в KeyCollector);
  • Чистим.

Этап 4 – сбор лучших словоформ

Сервис Rookee может для большинства запросов определить их лучшую (правильную) словоформу. Этим также нужно пользоваться. Целью не является определить то слово, которое более правильно, а найти еще некоторые запросы и их формы. Таким образом можно подтянуть еще пул запросов и использовать их при написании текстов.

  • Объединение запросов с первых 3х этапов;
  • Сбор по ним лучших словоформ;
  • Добавление лучших словоформ в список ко всех запросам, объединенным с 1-3 этапов;
  • Чистка;
  • Экспорт готового списка в файл.

Как видите, все не так уж и быстро, а тем более не так просто. Это я обрисовал лишь нормальный план составления ядра, чтобы на выходе получить качественный список ключей и ничего не потерять или потерять по минимуму.

Теперь я предлагаю пройтись по каждому пункту в отдельности и проштудировать все от А до Я. Информации много, но это того стоит, если вам нужно действительно качественное семантическое ядро сайта.

к содержанию ↑

Этап 1 – основа

Сперва мы формируем список основных запросов ниши. Как правило, это 1-3х словные фразы, которые описывают определенный вопрос ниши. В пример предлагаю взять нишу «Медицина», а конкретнее - поднишу сердечных заболеваний.

Какие основные запросы мы можем выделить? Все я конечно писать не буду, но парочку приведу.

  • Заболевания сердца
  • Инфаркт;
  • Ишемическая болезнь сердца;
  • Аритмия;
  • Гипертония;
  • Порок сердца;
  • Стенокардия и т.д.

Простыми словами – это общие названия заболеваний. Таких запросов может быть достаточно много. Чем больше сможете сделать, тем лучше. Но не стоит вписывать для галочки. Бессмысленно выписывать более конкретные фразы от общих, например:

  • Аритмия;
  • Аритмия причины;
  • Лечение аритмии;
  • Аритмия симптомы.

Главной является лишь первая фраза. Остальные нет смысла указывать, т.к. они появятся в списке в ходе расширения с помощью парсинга из левой колонки Яндекс вордстат.

Для поиска общих фраз можно пользоваться, как сайтами конкурентов (карта сайта, названия разделов…), так и опытом специалиста в этой нише.

Далее мы формируем расширенный список основных запросов. Имея определенное количество общих фраз, мы вбиваем их для парсинга в Keycollector, нажав на кнопку на панели инструментов.

Парсинг займет некоторое время, в зависимости от количества запросов в нише. Все запросы по умолчанию помещаются в новую группу с названием «Новая группа 1», если память не изменяет. Я обычно переименовываю группы, чтобы понимать, какая за что отвечает. Меню управления группами находится справа от списка запросов.

Функция переименования находится в контекстном меню при нажатии правой кнопки мыши. Это меню понадобится еще для создания других групп на втором, третьем и четвертом этапах.

Поэтому, можете сразу добавить еще 3 группы, нажав на первую пиктограмму «+», чтобы группа создалась в списке сразу после предыдущей. Пока в них не нужно ничего добавлять. Пусть просто будут.

Называл я группы так:

  • Конкуренты – понятно, что в этой группе находится список запросов, который я дособрал у конкурентов;
  • 1-2 – это объединенный список запросов с 1го (основного списка запросов) и 2го (запросы конкурентов) этапов, чтобы оставить из них всего 10% запросов, состоящих минимум из 2х слов и собрать по ним расширения;
  • 1-3 – объединенный список запросов с первого, второго и третьего (расширений) этапов. Также в эту группу мы собираем лучшие словоформы, хотя грамотней было бы собрать их в новую группу (например, лучшие словоформы), а затем после их чистки уже перенести в группу 1-3.

После окончания парсинга из yandex.wordstat вы получаете большой список ключевых фраз, который, как правило (ели ниша небольшая) будет в пределах нескольких тысяч. Много из этого является мусором и запросами-пустышками и придется все чистить. Что-то отсеем автоматически с помощью функционала KeyCollector, а что-то придется лопатить руками и немного посидеть.

Когда запросы все собраны, нужно собрать их точные частотности. Общая частотность собирается при парсинге, а вот точную нужно собирать отдельно.

Для сбора статистики по количеству показов можно пользоваться двумя функциями:

  1. С помощью Яндекс Директ – быстро, статистика собирается пачками, но имеются ограничения (например, фразы больше 7ми слов не прокатят и с символами тоже);
  2. С помощью анализа в Яндекс Вордстате – очень медленно, фразы анализируются по одной, но нет ограничений.

Я рекомендую делать следующее:

Сначала собрать статистику с помощью Директа, чтобы это было максимально быстро, а для тех фраз, по которым с Директом не получилось определить статистику, используем уже Вордстат. Как правило, таких фраз останется мало и они дособерутся быстро.

Сбор статистика показов с помощью Яндекс.Директ осуществляются при нажатии на соответствующую кнопку и назначении нужных параметров.

После нажатия на кнопку «Получить данные» может быть предупреждение, что Яндекс Директ не включен в настройках. Вам нужно будет согласиться на активацию парсинга с помощью Директа, чтобы начать определять статистику частотности.

Вы сразу увидите, как пачками в колонку «Частотность ! [WS]» начнут проставляются точные показатели показов по каждой фразе.

Процесс выполнения задачи можно видеть на вкладке «Статистика» в самом низу программы. Когда задача будет выполнена, на вкладке «Журнал событий» вы увидите уведомление о завершении, а также исчезнет полоса прогресса на вкладке «Статистика».

После сбора количества показов с помощью Яндекс Директ мы проверяем, имеются ли фразы, для которых частотность не собралась. Для этого сортируем колонку «Частотность !» (нажимаем на нее), чтобы в верху стали наименьшие значения или наибольшие.

Если вверху будут все нули, тогда все частотности собранные. Если же будут пустые ячейки, тогда для этих фраз показы не определились. Тоже самое касается и при сортировке по убиванию, только тогда придется смотреть результат в самом низу списка запросов.

Начать сбор с помощью яндекс вордстат также можно, нажав на пиктограмму и выбрав необходимый параметр частотности.

После выбора типа частотности вы увидите, как постепенно начнут заполнятся пустые ячейки.

Важно: не стоит пугаться, если после конца процедуры останутся пустые ячейки. Дело в том, что пустыми они будут в случае их точной частотности менее 30. Это мы выставили в настройках парсинга в Keycollector. Эти фразы можно смело выделить (также, как и обычные файлы в проводнике Windows) и удалить. Фразы выделятся голубым цветом, нажимаем правую кнопку мышки и выбираем «Удалить выделенные строки».

Когда вся статистика собрана, можно приступить к чистке, которую очень важно делать на каждом этапе сбора семантического ядра.

Основная задача – убрать фразы не относящие к тематике, убрать фразы со стоп-словами и избавиться от слишком низкочастотных запросов.

Последнее в идеале не нужно выполнять, но, если мы будем в ходе составления сем. ядра использовать фразы даже с минимальной частотностью в 5 показов в месяц, то это увеличит ядро на процентов 50-60 (а может быть и все 80%) и заставить нас сильно закопаться. Нам же нужно получить максимальную скорость при минимальных потерях.

Если хотим получить максимально полное семантическое ядро сайта, но при этом собирать его около месяца (есть опыт совсем отсутствует), тогда берите частотности от 4-5 месячных показов. Но лучше (если новичок) оставлять запросы, которые имеют хотя бы 30 показов в месяц.  Да, мы немного потеряем, но это цена за максимальную скорость. А уже в ходе роста проекта можно будет заново получить эти запросы и уже их использовать для написания новых материалов. И это только при условии, что все сем. ядро уже выписано и нет тем для статей.

Отфильтровать запросы по количеству их показов и другим параметрам позволяет все тот же кейколлектор на полном автомате.  Изначально я рекомендую сделать именно это, а не удалять мусорные фразы и фразы со стоп-словами, т.к. гораздо проще будет это делать, когда общий объем ядра на этом этапе станет минимальным. Что проще, лопатить 10000 фраз или 2000?

Доступ к фильтрам находится на вкладке «Данные», нажав на кнопку «Редактировать фильтры».

Далее стоит добавить новое условие, которое будет скрывать/отображать все фразы с частотностью менее/более 30 показов в месяц.

Я рекомендую сначала отобразить все запросы с частотностью менее 30 и перенести их в новую группу, чтобы их не удалять, так как в будущем они могут пригодиться. Если же мы просто применим фильтр для отображения фраз с частотностью более 30, то после очередного запуска KeyCollector придется заново применять этот же фильтр, так как все сбрасывается. Конечно, фильтр можно сохранить, но все равно придется его применять, постоянно возвращаясь ко вкладке «Данные».

Чтобы избавить себя от этих действий, мы в редакторе фильтров добавляем условие, чтобы отображались фразы только с частотностью менее 30.

Можно также сохранить этот фильтр, чтобы при составлении будущих семантических ядер вы могли выбрать уже готовый.

В будущем выбрать фильтр можно, нажав на стрелку возле пиктограммы дискеты.

Итак, после применения фильтра, в списке запросов останутся только фразы с частотностью менее 30, т.е. 29 и ниже. Также отфильтрованная колонка выделится цветом. В примере ниже вы будете видеть частотность только 30, т.к. я показываю все это на примере уже готово ядра и все почищено. На это внимания не обращайте. У вас все должно быть так, как я описываю в тексте.

Далее создаем новую группу, назвав ее, например «Фразы с частотностью менее 30» (как создавать показывал ранее) и переносим в нее все фразы.

Для переноса нужно выделить все фразы в списке. Нажимаем на первую фразу, Листаем в самый низ списка, зажимаем клавишу «Shift» и кликаем один раз на последнюю фразу. Таким образом выделяется все фразы и пометятся голубым фоном.

Далее обычным перемещением, как в Windows, зажимая левую кнопку мышки, перетаскиваем фразы в созданную для них группу.

Появится небольшое окно, где необходимо выбрать именно перемещение.

Теперь можно удалить фильтр с колонки частотности, чтобы остались запросы только с частотностью 30 и выше.

Определенный этап автоматической чистки мы выполнили. Дальше придется повозиться, удалив мусорные фразы.

Сначала предлагаю указать стоп-слова, чтобы удалить все фразы с их наличием. В идеале конечно же это делается сразу на этапе парсинга, чтобы в список они и не попадали, но это не критично, так как очищение от стоп-слов происходит в автоматическом режиме с помощью Кейколлектора.

Основная сложность состоит в составлении списка стоп-слов, т.к. в каждой тематике они разные. Поэтому, делали бы мы чистку от стоп-слов в начале или сейчас – не так важно, так как стоит найти все стоп-слова, а это дело наживное и не такое уж и быстрое.

В интернете вы можете найти общетематические списки, в которые входят самые распространенные слова по типу «реферат, бесплатно, скачать, п…рно, онлайн, картинка и т.д.».

Сначала предлагаю применить общетематический список, чтобы количество фраз еще уменьшилось. На вкладке «Сбор данных» жмете на кнопку «Стоп-слова» и добавляете их списком.

В этом же окне жмем на кнопку «Отметить фразы в таблице», чтобы отметились все фразы, содержащие введенные стоп-слова. Но нужно, чтобы весь список фраз в группе был не отмечен, чтобы после нажатия на кнопку остались отмечены только фразы со стоп-словами. Снять отметки со всех фраз очень просто.

Когда останутся отмеченные только фразы со стоп-словами, мы ух либо удаляем, либо переносим в новую группу. Я в первый раз удалил, но все таки приоритетней создать группу «Со стоп-словами» и переместить в нее все лишние фразы.

После очистки, фраз стало еще меньше. Но и это не все, т.к. все равно мы что-то упустили. Как сами стоп-слова, так и фразы, не относящие к направленности нашего сайта. Это могут быть коммерческие запросы, под которые тексты не напишешь или же напишешь, но они не будут соответствовать ожиданиям пользователя.

Примеры таких запросов могут быть связаны со словом «купить». Наверняка, когда пользователь что-то ищет с этим словом, то он уже хочет попасть на сайт, где это продают. Мы же напишем текст под такую фразу, но посетителю он нужен не будет. Поэтому, такие запросы нам не нужны. Их мы ищем в ручном режиме.

Оставшийся список запросов мы не спеша и внимательно листаем до самого конца в поисках таких фраз и обнаружения новых стоп-слов. Если обнаружили какое-то слово, употребляющееся много раз, то просто добавляем его в уже существующий список стоп-слов и жмем на кнопку «Отметить фразы в таблице». В конце списка, когда по ходу ручной проверки мы отметили все ненужные запросы, удаляем отмеченные фразы и первый этап составления семантического ядра окончен.

Получили определенное семантическое ядро. Оно еще не совсем полное, но уже позволит написать максимально возможную часть текстов.

Осталось лишь добавить к нему еще небольшую часть запросов, которую мы могли упустить. В этом помогут следующие этапы.

Далее все будет полегче, т.к. основные функции программы и необходимые действия я объяснил на 1м этапе.

к содержанию ↑

Этап 2 конкуренты

В самом начале мы собрали список общих фраз, относящихся к нише. В нашем случае это были:

  • Заболевания сердца
  • Инфаркт;
  • Ишемическая болезнь сердца;
  • Аритмия;
  • Гипертония;
  • Порок сердца;
  • Стенокардия и т.д.

Все они относятся именно к нише «Болезни сердца». По этим фразам необходимо в поиске найти сайты конкурентов именно по данной теме.

Вбиваем каждую из фраз и ищем конкурентов. Важно, чтобы это были не общетематические (в нашем случае медицинские сайты общей направленности, т.е. про все болезни). Нужны именно нишевые проекты. В нашем случае - только про сердце. Ну может быть еще и про сосуды, т.к. сердце связано с сосудистой системой. Мысль, думаю, вы поняли.

Если у нас ниша «Рецепты салатов с мясом», тогда в перспективе только такие сайты и искать. Если их нет, то старайтесь найти сайты только про рецепты, а не в общем про кулинарию, где все обо всем.

Если же общетематический сайт (общемедицинский, женский, про все виды стройки и ремонта, кулинария, спорт), тогда придется очень помучиться, как в плане составления самого семантического ядра, т.к. придется долго и нудно пахать – собирать основной список запросов, долго ждать процесса парсинга, чистить и группировать.

Если на 1й, а иногда и даже на 2й странице, не удается найти узкие тематические сайты конкурентов, тогда попробуйте использовать не основные запросы, которые мы сформировали перед самим парсингом на 1м этапе, а запросы уже из всего списка после парсинга. Например:

  • Как лечить аритмию народными средствами;
  • Симптомы аритмии у женщин и так далее.

Дело в том, что такие запросы (аритмия, болезни сердца, порок сердца…) имеют самую высокую конкурентность и по ним выбиться в ТОП практически нереально. Поэтому, на первых позициях, а может быть и на страницах, вы вполне реально найдете только общетематические порталы обо всем в виду их огромнейшей авторитетности в глазах поисковых систем, возраста и ссылочной массы.

Так что вполне разумно использовать для поиска конкурентов более низкочастотные фразы, состоящие из большего количества слов.

Будем считать, что пару тройку конкурентов вы нашли. Чем их больше, тем лучше. Допустим, что найдено 7 сайтов.

Нужно спарсить их запросы. Можно использовать сервис SpyWords, но функция анализа запросов в нем доступна на платном тарифе, стоимость которого довольно большая. Поэтому для одного ядра нет смысла обновлять тариф на этом сервисе. Если нужно собрать несколько ядер на протяжении месяца, например 5-10, тогда можно купить аккаунт. Но опять же – только при наличии бюджета на тариф PRO.

Также можно использовать статистику Liveinternet, если она открыта для просмотра. Очень часто владельцы делают ее открытой для рекламодателей, но закрывают раздел «поисковые фразы», а именно он нам и нужен. Но все же имеются сайты, когда этот раздел открыт для всех. Очень редко, но имеются.

Самым простым способом является банальный просмотр разделов и карты сайта. Иногда мы можем упустить не только какие-то общеизвестные фразы ниши, но и специфические запросы. На них может и не так много материалов и под них не создашь отдельный раздел, но пару десятков статей они могут прибавить.

Когда мы нашли еще список новых фраз для сбора, запускаем тот же сбор поисковых фраз из левой колонки Яндекс Вордстат, как и на первом этапе. Только запускаем мы его уже, находясь во второй группе «Конкуренты», чтобы запросы добавлялись именно в нее.

Далее процесс аналогичен:

  • После парсинга собираем точные частотности поисковых фраз;
  • Задаем фильтр и перемещаем (удаляем) запросы с частотностью менее 30 в отдельную группу;
  • Чистим от мусора (стоп-слова и запросы, не относящиеся к нише).

Итак, получили еще небольшой список запросов и семантическое ядро стало более полным.

к содержанию ↑

Этап 3 – расширение

У нас уже есть группа с названием «1-2». В нее мы копируем фразы из групп «Основной список запросов» и «Конкуренты». Важно именно скопировать, а не переместить, чтобы в предыдущих группах все фразы на всякий случай остались. Так будет безопасней. Для этого в окне переноса фраз нужно выбрать вариант «копирование».

Получили все запросы с 1-2 этапов в одной группе. Теперь нужно оставить в этой группе всего 10% самых частотных запросов от всего количества и которые содержат не менее 2х слов. Также их должно быть не более 100 штук. Уменьшаем, чтобы не закопаться в процесс сбора ядра на месяц.

Сперва применяем фильтр, в котором зададим условие, чтобы показывались минимум 2х словные фразы.

Отмечаем все фразы в оставшемся списке. Нажав на колонку «Частотность !», сортируем фразы по убыванию количества показов, чтобы в верху были самые частотные. Далее выделяем первые 10% из оставшегося числа запросов, снимаем с них отметку (правая кнопка мыши – снять отметку с выделенных строк) и удаляем отмеченные фразы, чтобы остались только эти 10%. Не забываем, что если ваши 10% будут более 100 слов, тогда на 100й строке останавливаемся, больше не нужно.

Теперь проводим расширение с помощью функции кейколлектора. Поможет в этом сервис Rookee.

Параметры сбора указываем, как на скриншоте ниже.

Сервис соберет все расширения. Среди новых фраз могут быть очень длинные ключи, а также символы, поэтому не для всех получится собрать частотность через Яндекс Директ. Придется потом дособрать статистику с помощью кнопки от вордстата.

После получения статистики убираем запросы с месячными показами менее 30 и проводим чистку (стоп-слова, мусор, неподходящие к нише ключи).

Этап закончен. Получили еще список запросов.

к содержанию ↑

Этап 4 – сбор лучших словоформ

Как говорил ранее, целью не является определить такую форму фразы, которая будет более правильной.

В большинстве случаев (исходя из моей практики) сбор лучших словоформ укажет на ту же фразу, что и имеется в списке запросов. Но, без сомнения, будут и такие запросы, к которым будет указана новая словоформа, которой еще нет в семантическом ядре. Это дополнительные ключевые запросы. Этим этапом мы добиваем ядро до максимальной полноты.

При сборе своего ядра данный этап дал еще 107 дополнительных запросов.

Сперва мы копируем ключи в группу «1-3» из групп «Основные запросы», «Конкуренты» и «1-2». Должна получиться сумма всех запросов со всех ранее проделанных этапов. Далее используем сервис Rookee по той же кнопке, что и делали расширение. Только выбираем другую функцию.

Начнется сбор. Фразы будут добавляться в новую колонку «Лучшая форма фразы [RK]».

Лучшая форма будет определена не ко всем фразам, так как сервис Rookee попросту не знает все лучшие формы. Но ля большинства результат будет положительным.

Когда процесс окончен, нужно добавить эти фразы ко всему списку, чтобы они находились в той же колонке «Фраза». Для этого выделяете все фразы в колонке «Лучшая форма фразы», копируете (правая кнопка мыши - копировать), далее жмете на большую зеленую кнопку «Добавить фразы» и вносите их.

Убедиться в том, что фразы появились в общем списке очень просто. Так как при подобном добавлении фраз в таблицу происходит в самый низ, то листаем в самый низ списка и в колонке «Источник» мы должны видеть иконку кнопки добавления.

Фразы, добавленные с помощью расширений, будут помечены иконкой руки.

Так как частотность для лучших словоформ не определена, то нужно это сделать. Аналогично предыдущим этапам выполняем сбор количества показов. Не бойтесь, что сбор осуществляем в той же группе, где находятся остальные запросы. Сбор просто продолжится для тех фраз, которые имеют пустые ячейки.

Дальше мы удаляем фразы с частотностью менее 30 и проводим ту же самую чистку.

Если вам будет удобней, тогда изначально вы можете добавить лучшие словоформы не в ту же группу, где они и были найдены, а в новую, чтобы там были только они. И уже в ней собрать статистику, очистить от мусора и так далее. А уже потом оставшиеся нормальные фразы добавить ко всему списку.

Вот и все. Семантическое ядро сайта собрано. Но работы еще осталось немало. Продолжаем.

Перед следующими действиями нужно выгрузить все запросы с необходимыми данными в excel файл на компьютер. Настройки экспорта мы выставили ранее, поэтому можно сразу его и сделать. За это отвечает пиктограмма экспорта в главном меню KeyCollector.

Открыв файл, должны получить 4 колонки:

  1. Фраза;
  2. Источник;
  3. Частотность !;
  4. Лучшая форма фразы.

Это наше итоговое семантическое ядро, содержащее максимальный чистый и необходимый список запросов для написания будущих текстов. В моем случае (узкая ниша) получилось 1848 запросов, что равняется приблизительно 250-300 материалам. Точно сказать не могу - полностью еще на разгруппировал все запросы.

Для немедленного применения это еще сырой вариант, т.к. запросы находятся в хаотичном порядке. Нужно еще раскидать их по группам, чтобы в каждой были ключи к одной статье. Это и является окончательной целью.

к содержанию ↑

Разгруппировка семантического ядра

Этот этап выполняется довольно быстро, хотя и с некоторыми сложностями. Поможет нам сервис http://kg.ppc-panel.ru/. Имеются и другие варианты, но будем использовать этот в виду того, что с ним мы сделаем все в соотношении качество/скорость. Тут нужна не скорость, а в первую очередь качество.

Очень полезной вещью сервиса является запоминание всех действий в вашем браузере по кукам. Если даже, вы закроете эту страницу или браузер в целом, то все сохранится. Таким образом нет нужды делать все за один раз и бояться, что в один момент может все пропасть. Продолжить можно в любое время. Главное не чистить куки браузера.

Пользование сервисом я покажу на примере нескольких выдуманных запросов.

Переходим на сервис и добавляем все семантическое ядро (все запросы из excel файла), экспортированное ранее. Просто копируем все ключи и вставляем их в окно, как показано на изображении ниже.

Они должны появится в левой колонке «Ключевые слова».

На наличие закрашенных групп в правой стороне не обращайте внимание. Это группы из моего предыдущего ядра.

Смотрим на левую колонку. Имеется добавленный список запросов и строка «Поиск/фильтр». Фильтром мы и будем пользоваться.

Технология очень проста. Когда мы вводим часть какого-то слова или фразы, то сервис в режиме реального времени оставляет в списке запросов только те, что содержат введенное слово/фразу в самом запросе.

Более наглядно смотрите ниже.

Я хотел найти все запросы, относящиеся к аритмии. Ввожу слово «Аритмия» и  сервис автоматически оставляет в списке запросов только те, что содержат введенное слово или его часть.

Далее я добавляю все фразы, связанные с аритмией в одну большую группу, нажав на кнопку «Создать группу» в самом верху экрана.

Фразы переместятся в группу, которая будет называться одной из ключевых фраз этой группы.

Получили группу, где лежат все ключевые слова по аритмии. Чтобы увидеть содержимое группы, кликните на нее. Немного позже мы будем эту группу еще разбивать на более мелкие группы, так как с аритмией есть очень много ключей и все они под разные статьи.

Таким образом на начальном этапе группировки нужно создать большие группы, которые объединяют большое количество ключевых слов из одного вопроса ниши.

Если взять в пример ту же тематику сердечных болезней, тогда сначала я буду создавать группу «аритмия», потом «порок сердца», затем «инфаркт» и так далее пока не будет групп по каждой из болезни.

Таких групп, как правило, будет практически столько же, сколько и основных фраз ниши, сгенерированных на 1м этапе сбора ядра. Но в любом случае, их должно быть больше, так как имеются еще фразы с 2-4го этапов.

Некоторые группы могут содержать вообще 1-2 ключа. Это может быть связано, например с очень редким заболеванием и про него никто не знает или никто не ищет. Поэтому и запросов нет.

В общем, когда основные группы созданы, необходимо их разбить на более мелкие группы, которые и будут использованы для написания отдельных статей.

Внутри группы напротив каждой ключевой фразы есть крестик, нажав на который, фраза удаляется из группы и обратно попадает в неразгруппированный список ключевых слов.

Таким образом и происходит дальнейшая группировка. Покажу на примере.

На изображении вы можете видеть, что имеются ключевые фразы, связанные с лечением аритмии. Если мы хотим их определить в отдельную группу для отдельной статьи, тогда удалям их из группы.

Они появятся в списке левой колонки.

Если в левой колонке еще присутствуют фразы, тогда, чтобы найти удаленные ключи из группы, придется применить фильтр (воспользоваться поиском). Если же список полностью находится по группам, тогда там будут только удаленные запросы. Мы их отмечаем и жмем на «Создать группу».

В колонке «Группы» появится еще одна.

Таким образом мы распределяем все ключи по темам и под каждую группу в конечно итоге пишется отдельная статья.

Единственная сложность сего процесса заключается в анализе необходимости разгруппировки некоторых ключевиков. Дело в том, что имеются ключи, которые по своей сути разные, но они не требуют написания отдельных текстов, а пишется подробный материал по многих вопросам.

Это ярко выражено именно в медицинской тематике. Если взять пример с аритмией, то нет смысла делать ключи «аритмия причины» и «аритмия симптомы». Ключи про лечение аритмии еще под вопросом.

Узнается это после анализа поисковой выдачи. Заходим в поиск Яндекса и вбиваем анализируемый ключ. Если видим, что в ТОПе находятся статьи, посвященные только симптомам аритмии, тогда данный ключ выделяем в отдельную группу. Но, если же тексты в ТОПе раскрывают все вопросы (лечение, причины, симптомы, диагностика и так далее), тогда разгруппировка в данном случае не нужна. Все эти темы раскрываем в рамках одной статьи.

Если в Яндексе находятся именно такие тексты на верхушке выдачи, тогда это знак, что разгруппировку делать не стоит.

Тоже самое можно привести на примере ключевой фразы «причины выпадения волос». Могут быть подключи «причины выпадения волос у мужчин» и «…у женщин». Очевидно, что под каждый ключ можно написать отдельный текст, если исходить из логики. Но о чем скажет Яндекс?

Вбиваем каждый ключ и смотрим, какие же тексты там присутствуют. Под каждый ключ там отдельные подробные тексты, тогда ключи разгруппированием. Если же в ТОПе по обеим запросам находятся общие материалы по ключу «причины выпадения волос», внутри которого раскрыты вопросы касаемо женщин и мужчин, тогда оставляем ключи в рамках одной группы и публикуем один материал, где раскрываются темы по всем ключам.

Это важно, так как поисковая система не зря определяет тексты в ТОП. Если на первой странице находятся исключительно подробные тексты по определенному вопросу, тогда велика вероятность, что разбив большую тему на подтемы и написав по каждой материал, вы не попадаете в ТОП. А так один материал имеет все шансы получить хорошие позиции по всем запросам и собирать по ним хороший трафик.

В медицинских тематиках этому моменту нужно уделять много внимания, что значительно усложняет и замедляет процесс разгруппировки.

Будем считать, что все семантическое ядро распределено по группам. Настало время его выгрузить.

В самом низу колонки «Группы» имеется кнопка «Выгрузить». Жмем на нее и получаем новую колонку с текстовым полем, содержащим все группы, разделенные между собой строчным отступом.

Если не все ключи находятся в группах, то в поле «Выгрузка» пробелов между ними не будет. Они появляются только при полностью выполненной разгруппировке.

Выделяем все слова (комбинация клавиш Ctrl+A), копируем их и вставляем в новый excel файл.

Ни в коем случае не жмем на кнопку "Очистить все", так как удалится абсолютно все, что вы проделали.

Этап разгруппировки окончен. Теперь можно смело писать по тексту под каждую группу.

Но, для максимальной эффективности, если бюджет вам не позволяет выписать все сем. ядро за пару дней, а имеется лишь строго ограниченная возможность для регулярной публикации небольшого количества текстов (10-30 в месяц, к примеру), тогда стоит определить конкуренцию всех групп. Это важно, так как группы с наименьшей конкуренцией дают результат в первые 2-3-4 месяца после написания без каких-либо ссылок. Достаточно лишь написать качественный конкурентноспособный текст и правильно его оптимизировать. Дальше за вас все сделает время.

Опубликовав высококонкурентный текст, мы будем ждать его выхода на хорошие позиции не менее 1 года, а то и вообще не дождемся. А нам ведь необходима окупаемость вложенный в самые кратчайшие сроки.

к содержанию ↑

Определение конкуренции групп

Сразу хочу отметить, что низко-конкурентный запрос или группа запросов не означает, что они являются сильно микро низкочастотными. Вся прелесть и есть в том, что достаточно приличное количество запросов, которые имеют низкую конкуренцию, но при этом обладают высокой частотностью, что сразу же дает выход такой статье в ТОП и привлечение солидного трафика на один документ.

Например, вполне реальная картина, когда группа запросов имеет конкуренцию 2-5, а частотность порядка 300 показов в месяц. Написав всего 10 таких текстов, после выхода их в ТОП, мы будем получать 100 посетителей ежедневно минимум. И это всего 10 текстов. 50 статей – 500 посещений и эти цифры взяты и потолка, так как это берется в учет лишь трафик по точным запросам в группе. Но привлекаться же трафик будет еще и по другим хвостам запросов., а не только по тем, что находятся в группах.

Вот почему так важно определить конкуренцию. Иногда вы можете видеть ситуацию, когда на сайте 20-30 текстов, а уже 1000 посещений. И причем сайт молодой и ссылок нет. Теперь вы знаете, с чем это связано.

Конкуренцию запросов можно определять через тот же KeyCollector абсолютно бесплатно. Это очень удобно, но в идеале данный вариант не являются правильным, так как формула определения конкурентности постоянно меняется с изменением алгоритмов поисковых систем.

Лучше определять конкуренцию с помощью сервиса http://mutagen.ru/. Он платный, но более максимально приближенный к реальным показателям.

100 запросов стоят всего 30 рублей. Если у вас ядро на 2000 запросов, тогда вся проверка обойдется в 600 рублей. В сутки дается 20 бесплатных проверок (только тем, кто пополнил баланс на любую сумму). Можете каждый день оценивать по 20 фраз, пока не определите конкурентность всего ядра. Но это очень долго и глупо.

Поэтому, я пользуюсь именно мутагеном и ни имею к нему никаких претензий. Иногда бывают проблемы, связанные со скоростью обработки, но это не так критично, так как даже закрыв страницу сервиса, проверка продолжается в фоновом режиме.

Сам анализ сделать очень просто. Регистрируемся на сайте. Пополняем баланс любым удобным способом и по главному адресу (mutagen.ru) доступна проверка. В поле водим фразу и она сразу же начинает оцениваться.

Видим, что по проверяемому запросу конкурентность оказалась более 25. Это очень высокий показатель и может равняться любому числу. Сервис не отображает его реальным, так как это не имеет смысла в виду того, что такие конкурентные запросы практически нереально продвинуть.

Нормальный уровень конкуренции считается до 5. Именно такие запросы легко продвигаются без лишних телодвижений. Чуть более высокие показатели тоже вполне приемлемы, но запросы со значениями более 5 (например, 6-10) стоит использовать после того, как уже написали тексты под минимальную конкурентность. Важен максимально быстрый текста в ТОП.

Также во время оценки определяется стоимость клика в Яндекс.Директ. По ней можно оценить ваш будущий заработок. Во внимание берем гарантированные показы, значение которых можем смело делить на 3. В нашем случае можно сказать, что один клик по рекламе Яндекс директа нам будет приносить 1 рубль.

Сервис определяет и количество показов, но на них мы не смотрим, так как определяются частотность не вида "!запрос", а только "запрос". Показатель получается не точным.

Такой вариант анализа подойдет, если мы хотим проанализировать отдельный запрос. Если нужна массовая проверка ключевых фраз, тогда на главной странице сверху поля ввода ключа имеется специальная ссылка.

На следующей странице создаем новое задание и добавляем список ключей из семантического ядра. Берем их из того файла, где ключи уже разгруппированы.

Если на балансе достаточно средств для анализа, проверка сразу начнется. Продолжительность проверки зависит от количества ключей и может занять некоторое время. 2000 фраз я анализировал порядка 1го часа, когда во второй раз проверка всего 30 ключей заняла аж несколько часов.

Сразу после запуска проверки вы увидите задание в списке, где будет колонка "Статус". По ней вы и поймете, готово ли задание или нет.

Кроме этого после выполнения задания вы сразу сможете скачать файл со список всех фраз и уровнем конкуренции для каждой. Фразы будут все в таком порядке, как они и были разгруппированы. Единственное, будут удалены пробелы между группами, но это не страшно, т.к.все будет интуитивно понятно, ведь каждая группа содержит ключи на другую тему.

Кроме этого, если задание еще не выполнилось, вы можете зайти внутрь самого задания и посмотреть результаты конкуренции для уже выполненных запросов. Просто нажмите на название задания.

В пример покажу результат проверки группы запросов для семантического ядра. Собственно, эта та группа, под которую писалась данная статья.

Видим, что практически все запросы имеют максимальную конкуренцию 25 или же ближе к ней. Это значит, что по этим запросам, мне либо вообще не видать первых позиций или же не видать их очень долго. Такой материал бы на новом сайте я вообще не писал.

Сейчас же я его опубликовал только для создания качественного контента на блог. За цель конечно ставлю вывести в топ, но это уже позже. Если на первую страницу хотя бы лишь по главному запросу мануал и выйдет, тогда я уже могу рассчитывать не солидный трафик только на эту страницу.

Последним шагом осталось создать окончательный файл, на который мы и будем смотреть в процессе наполнения сайта. Семантическое ядро сайта то уже собрано, но вот управляться с ним не совсем удобно пока.

к содержанию ↑

Создание финального файла со всеми данными

Нам снова понадобится KeyCollector, а также последний файл excel, который мы получили с сервиса mutagen.

Открываем ранее полученный файл и видим примерно следующее.

Из файла нам потребуются только 2 колонки:

  1. ключ;
  2. конкуренция.

Можно просто удалить все остальное содержимое из этого файла, чтобы остались только необходимые данные или же создать совсем новый файл, сделать там красивую строку заголовка с наименованием колонок, выделив ее, например, зеленым цветом, и в каждую колонку скопировать соответствующие данные.

Далее копируем все семантическое ядро из этого документа и снова добавляем его в кейколлектор. Потребуется заново собрать частотности. Это нужно, чтобы собрались частотности в таком порядке, как и расположены ключевые фразы. Ранее мы их собирали, чтобы отсеять мусор, а сейчас для создания финального файла. Фразы конечно же добавляем в новую группу.

Когда частотности собраны, мы экспортируем файл из весь столбик с частотностью копируем в финальный файл, где будут 3 колонки:

  1. ключевая фраза;
  2. конкурентность;
  3. частотность.

Теперь осталось немного посидеть и для каждой группы посчитать:

  • Средний показатель частотности группы - важен не показатель каждого ключа, а средний показатель группы. Считается, как обычное среднеарифметическое (в excel - функция "СРЗНАЧ");
  • Общую частотность группы поделить на 3, чтобы привести возможный трафик к реальным цифрам.

Чтобы вам не мучиться с освоением расчетов в excel, я подготовил для вас файл, куда вам просто в нужные колонки нужно внести данные и все будет посчитано на полном автомате. Каждую группу нужно рассчитывать в отдельности.

Внутри будет простой пример расчета.

Как видите, все очень просто. Из финального файла просто копируете все фразы группы целиком со всеми показателями и вставляете в этот файл на место предыдущих фраз с их данными. И автоматически произойдет расчет.

Важно, чтобы колонки в финальном файле и в моем были именно в таком порядке. Сначала фраза, потом частотность, а уже потом только конкуренция. Иначе, насчитаете ерунду.

Далее придется немного посидеть, чтобы создать еще один файл или лист (рекомендую) внутри файла со всеми данными о каждой группе. Этот лист будет содержать не все фразы, а лишь главную фразу группы (по ней мы будем определять, что за группа) и посчитанные значения группы из моего файла. Это своего рода окончательный файл с данными о каждой группе с посчитанными значениями. На него я и смотрю, когда выбирают тексты для публикации.

Получится все те же 3 колонки, только без каких-либо подсчетов.

В первую мы вставляем главную фразу группы. В принципе, можно любую. Она нужна лишь для того, чтобы ее скопировать и через поиск найти местоположение всех ключей группы, которые находятся на другом листе.

Во вторую мы копируем посчитанное значение частотности из моего файла, а в третью - среднее значение конкуренции группы. Берем мы эти числа из строки "Результат".

В итоге получится следующее.

Это 1й лист. На втором листе находится все содержимое финального файла, т.е. все фразы с показателями их частотности и конкуренции.

Теперь мы смотрим на 1й лист. Выбираем максимально "рентабельную" группу ключей. Копируем фразу из 1й колонки и находим ее с помощью поиска (Ctrl+F) во втором листе, где рядом с ней будут находиться остальные фразы группы.

Вот и все. Мануал подошел к концу. На первый взгляд все очень сложно, но на самом деле - достаточно просто. Как уже говорил в самом начале статьи - стоит лишь начать делать. В будущем я планирую сделать видео-мануал по этой инструкции.

Ну а на этой ноте я заканчиваю инструкцию.

Все, друзья. Буду какие-то пожелания, вопросы - жду в комментариях. До связи.

P. S. Рекорд по объему контента. В Word получилось более 50 листов мелким шрифтом. Можно было не статью публиковать, а создать книгу.

С уважением, Константин Хмелев!

40 лет Победы51937Украина, Днепропетровская обл., г. Днепродзержинск,+38 093 338 11 41
Комментариев: 125
  • Дочитала ))) длинная, но нужная и интересная статья ) Костя, а скажи, пожалуйста, что делать с общетематическими сайтами? Я много читала о составлении семантического ядра, но так и не нашла нормального ответа. Ты знаешь мой сайт, и ты знаешь, о чём и для кого мои статьи. Как собрать СЯ для моей аудитории, если тем для написания миллионы? Вот я читала и думала, а так ли нужно мне собирать СЯ, если ежедневно меня посещают идеи на разные темы. Жаль, только времени не хватает на написание..

    • Я думаю, понятно, что общенишевый сайт - это сайт объединяемый несколько ниш. Поэтому процесс сбора отличается лишь наличием самого первого этапа - сбор всех ниш. А дальше для каждой ниши формируем основные запросы и начинаем парсить все запросы. Зная твой сайт, могу сказать, что материалов будет более 2000. Учесть, что каждый материал пишется под группу запросов, то вполне реально, что общее количество запросов будет несколько десятков тысяч) Лучше сначала взять за одно направление и выписать с него самые низкоконкурентные запросы, а затем другое и также выписать тексты с запросами минимальной конкурентности. И так пока не будут выписаны все ниши. Потом уже браться за более конкурентные запросы.

  • Спасибо большое за такой подробную статью! Ничего подобного я нигде раньше не читал) На многие вещи вы просто открыли глаза) буду рекомендовать знакомым начинающим сеошникам!)) Такой вопрос к вам:для анализа конкурентов вы рекомендуете SpyWords, а чем хорош этот сервис? Я слышал про его аналог - Prodvigator, который, как пишут, имеет бОльшую базу ключевых слов. Использовать его разве не целесообразнее? Очень бы хотелось услышать ваше мнение на этот счет. Сорри, Т-9))

    • Тем, что запросы анализируются на основе баз данных яндекса и гугла. К тому же данный сервис давно известен, как один из инструментов для сбора сем. ядра. Скольких личностей знаю - все они всегда использовали именно этот сервис. Продвигатором не пользовался и вообще на него даже не заходил пока ни разу. Поэтому, ничего сказать не могу.

  • Костя, спасибо за шикарную статью! Чувствуется огромный труд)

    У меня вопрос касательно KeyCollector. Каким образом происходит привязка к компьютеру, и что будет, если я соберусь его менять?
    Спасибо.

    • Привязка происходит именно к железу. Насколько я знаю, то при смене компьютера можно переоформить ключ на другую машину. Как-то так)

  • Выражаю огромную благодарность за статью. Столь подробного руководства еще не видел. Раньше говорили, что для блога СЯ необязательно, однако сейчас уже ситуация поменялась.
    Костя, ты советуешь программу KeyCollector... А как насчет других программ, например, "Магадан"? Он чуть дешевле, кстати. С его помощью тоже возможно создать СЯ. Есть и бесплатная версия Lite, но функционал в ней тоже сильно урезанный.

    • Для блога СЯ всегда нужно было. Какое отличие статей для блога от статей для контентного сайта? Никакого. И те и те статьи имеют одинаковый смысл и затачиваются под запросы. Блог - этот же самый информационный сайт, просто автор пишет лично от себя, общаясь с аудиторией. Говорили, что не нужно СЯ от незнания, как его собирать. Лидер ниши сказал, что СЯ не нужно, а всего читатели данную мысль впитали и начали распространять. Вот и пошло, что СЯ не нужно для блога) Я не то, чтобы советую КК. Это единственный софт, который позволяет качественно работать с семантикой для различного типа сайтов. Функционал просто громаднейший. Я не пользовался и 10% функциями. По поводу других программ ничего сказать не могу, так как не пользоваться, да и не собираюсь в ближайшем будущем. Тем более, что цена КК больше всего на 200 рублей от "Магадана". А урезанная версия имеется и у КК - Словоёб, но в нем ужасно неудобно работать и даже не настроишь его грамотно для парсинга. Против Магадана и прочего софта ничего не имею против. Может быть они и не хуже КК, но все же я за КК, так как это лидер на рынке. СЯ можно собрать и без КК, пользуясь различными сервисами или даже вручную, поэтому покупать тоже не обязательно. При ручном сборе с помощью различных сервисов будут потери, но основная масса запросов будет собрана. Если же нужно максимально полное и качественное СЯ, тогда только КК)

      • Спасибо за обстоятельный ответ)))

        • Не за что) Обращайтесь)

  • Внимательно читал текст, встретил около 10 ошибок, если был бы скрипт (при нажатии комбинации клавиш) отправил бы выделенный текст ошибок. Почему правую колонку яндекса / подсказки / гугл / рамблер не собираешь? Я сам не делал СЯ но знаком с Кколлектором. Смотрел марафон Романа Пузата? Будет статья как правильно написать материал под собраные ключевики, + что бы не было переспама/ тошноты.

    • Про ошибки знаю и регулярно их замечаю даже в старых небольших текстах. Достаточно сложно самому и написать текст, и оптимизировать его, да еще и без единой ошибки, учитывая такой огромный размер. Перечитывал данный материал 2 раза, но, как видите, все ошибки обнаружить не получилось. Технологию марафона (и лайт и стандарт) знаю прекрасно и по нему создаю новые проекты. По нему же и собираю сем. ядро. Мануал написан по этой же технологии, почему и не собираю подсказки/ гугл / рамблер. Действую четко по марафону стандарт. Материал обязательно будет. На примере группы ключей, которую выдерну из семантического ядра для нового проекта, покажу процесс оптимизации текста.

  • Хорошая статья, давно в блогах не находил, на столько расжевоного материала. Чисто ради интереса, сколько времени было затрачено на её написание?

    • 2-3 дня по 3-4 часа. Материал писался из головы, поэтому довольно быстро все получилось)

  • Константин, огромное спасибо вам за ваш труд и те знания которыми вы с нами делитесь! Честно скажу такого подробного материала я еще не встречал! Ваш сайт занес в свой блокнот нужных и важных блогов!

  • Константин, подскажите зачем собирать лучшие словоформы? Ведь поисковым системам "фиолетово" какая словоформа слова. К примеру: лучший пылесос, лучшего пылесоса, лучших пылесосов. И еще вопрос: вы неявные дубли не убираете при помощи кейколлектора?

    • Функция сбора лучших словоформ позволяет подтянуть еще небольшой процент поисковых запросов, чем непременно нужно пользоваться. Получается более глубокое и полное ядро. Неявные дубли я не удаляю, т.к. бывают запросы, которые употребляются в 2х формах (или более) и в обеих они ранжируются. Например, можно взять запросы "слово1 слово2" и "слово2 слово1". Если воспользоваться функцией удаления неявных дублей, тогда один из этих запросов удалится и это не совсем правильно, т.к. при анализе выдачи я четко вижу, что оба эти запроса употребляются в текстах конкурентов (как в самих текстах, так и в тайтлах) и мне также нужно их использовать. К тому же я могу проанализировать эти 2 ключа на конкуренцию и получится ситуация, когда один имеет максимальную конкуренцию, а второй либо в несколько раз меньше, либо вообще минимальную, и это с учетом, что трафик по обеим этим запросам одинаковый, т.к. запрос по факту один и тот же просто с перестановкой слов. Получается ситуация, что текст в первую очередь я буду затачивать под форму запроса с минимальной конкуренцией (по большей мере касается заполнения тайтла - вписал бы менее конкурентную форму) и трафик получу быстрей по мене конкурентной форме и он будет таким же, как и по более конкурентной. Вот такие есть нюансы, которыми я постоянно оперирую. Неявные дубли не удаляю. Делаю на 5 минут больше работы, но зато выхлоп получаю больше и быстрее с таких запросов. Конечно, в большинстве случаев такие запросы имеют одинаковые параметры, но бывают и исключения в виде сильно различающейся конкуренции запросов, о чем я описал выше.

      • Можете привести пример таких запросов, чтоб были в разной словоформе и яндекс их по разному ранжировал? Просто сам не встречал такого.

      • Да, вы правы, от банальной перестановки слов местами меняется выдача и конкуренция по мутагену.

        • А главное, что трафик по таким запросам один и тот же. Заморочка анализа 100-200 таких ключей уже дает большое конкурентное преимущество. Трафик получается быстрей и проще. Делайте выводы)

  • Начал сбор частотности из яндекс директа, у меня было в списке 5 аккаунтов. Плюс прокси я немного по другому сделал, чем Вы описали. Купил список прокси с сайта hideme. Антикапчу тоже подключил. Но вот проблема , достаточно часто начала появляться капча в журнале событий и в итоге один за другим аккаунты были отключены. Запросов у меня много, около 80 тысяч запросов анализировал.
    Проверив аккаунты яндекса, они вроде не заблокированы, запустил повторный сбор, но опять очень быстро они отключились. В чем может быть причина?

    • 80000 запросов?) Можно отсеять порядка половины, в чем я практически на 100% уверен. Используйте для этого стоп-слова и другие широкоупотребляемые слова, которые образовывают неподходящие запросы. Значит прокси сервера мягко говоря "плохие" и им высвечивается капча. Аккаунты и будут отключаться, т.к. в настройках задано количество попыток разгадывания капчи, после которых аккаунт будет отключен. Проверьте это количество + сделайте автоматическое разгадывание капчи через сервис antigate/

      • Это все запросы с конкурирующих сайтов, вначале хочу частотность пропарсить и потом уже отсеивать. Антигейт у меня подключен. Может там тоже доп. настройки нужны? А где проверить в кей коллекторе количество попыток разгадывания?

        • Намного быстрее будет, если сначала отсеять мусор по очевидным стоп-слова, а потом уже собрать частотность. Уберется процентов 30-60: процентов мусорных запросов уже на этапе стоп-слов. Настройки "вкладка парсинг - yandex direct"

  • Стоп слова некоторые ввел. Просто запросы конкурентов очень много. А какой оптимальный вариант капчи, после которого отключать аккаунт? У меян стоит 25. Но капча постоянно выпадает. Прокс вроде проверил, зелеными горят, тоже огромный список прокси. Получается лучше их все убрать? так как наверняка я не одни кто их использует. И сделать несколько прокси как в статье описано?

    • У меня стоит 10 попыток. Важное не количество прокси, а их качество. Я на данный момент парсинг делаю с основного ИП адреса и при анализе 6-7 тысяч запросов ни один из аккаунтов не отключается и ИП не банится. Да, капчи есть и примерно уходит центов 20 в сервисе aintigate на все ядро, но это пустяки. Если у вас динамический ИП адрес интернета, тогда вам нечего бояться, можете в один поток парсить, а в случае бана просто смените ИП. Если же ИП статический, то лучше не рисковать, тем более, если его будет затруднительно потом сменить через поддержку провайдера. В ином случае попробуйте купить один качественный прокси за 4 доллара на host4biz, и попробовать парсинг частотностей в 1 поток. Все должно быть ок.

      • Спасибо, за совет. Попробовал со своего ип парсить, все нормально пока. У меня еще вопрос. В Кей лоллекторе есть колонки для конкурентности количество вхождений в заголовок и количество главных страниц. По ним определять конкуреницю менее эффективно чем в Мутагене, который Вы советуете?

        • Все зависит от того, какую формулу вы используете для расчета данных в КК. Если вы сами можете вывести более менее приближенную формулу, которая максимально четко будет рассчитывать конкуренцию, тогда можете пользоваться, никаких вопросов. Но мне это делать никак не хочется на данный момент, поэтому и пользуюсь самым приближенным вариантом на рынке - мутагеном. Конечно, лучше выводить свою формулу на основе экспериментов, но нужно понимать, на основе каких данных формируется конкуренция. Такой подход более оправдан, но требует сил. В будущем я обязательно этим займусь, но вряд ли в ближайшем) Пока есть над чем работать и текущая работа с мутагеном лично у меня оправдывается.

  • Здравствуй Константин! Сбор основного списка запросов чем делаешь? Есть ли у тебя платный аккаунт SpyWords?

    • Здравствуйте. Основной список парсится из кейколлектора, как не крути. Нет, спайвордсом не пользуюсь. Стал пользоваться платным аккаунтом для сбора ключей конкурентов keys.so.

  • 115/3=4 ошибочка. Я периодически заглядываю на твой блог, уже несколько месяцев хочу увидеть статью про создание текстов из групп ключей - о которой ты упоминал в статье. Но каждый раз неудача :(

    • С обещанными статьями сейчас действительно проблема. Не могу разгрести завалы и начать публиковаться + увеличилось количество сайтов, с которыми ведется работа. Хочу сам уже опубликовать ваш и другие обещанные материалы, но пока не могу снова обещать что-то конкретное. Надеюсь, что в ближайшие 1-2 недели все будет уже на сайте)

    • Ну и за ошибку спасибо) Исправил.

  • Статья прям по пузату))как и сам сайт)
    Чтож попробую его методу,как вообше заработок с сайтов и успехи по этой методе? Если инфа не для обществености ответьте на почту)
    Ну и наверно у меня единственый вопрос,я не понял в мутаген кидать ядро целиком или только по одному верхниму ключу с каждой группы?

    • Все работает на ура. Создавая сайт в точности, как говорит Роман, лишь дело времени, когда сайт стрельнет. Необходимо проверять все запросы и рассчитывать среднее значение для всей группы запросов под статью. Затем выбираем самые жирные группы и в первую очередь пишем под них тексты. Такой подход работает, но его нет особого смысла применять, если бюджет имеется и тексты будут публиковаться от 1го раза в день, т.к. Ядро будет выписано быстро. Если же тексты будут добавляться редко, то нужно публиковать наименее конкурентные статьи, но наиболее трафиковые, чтобы получить самый быстрый трафик. Кстати, сейчас методика сбора уже отличается от описанной схемы в статье.

      • Спасибо за ответ.А методика сбора ядра или конкуренции изменилась?Вроде смотрел последний марафон,всё как обычно.Можете рассказать что отличается?
        P.s Если имеете аккаунт кейс.со можете дать на день погонять?(за небольшое вознаграждение) а то нужно спарсить пару-тройку конкурентов,а покупать на месяц за такую цену смысла нету...был бы там доступ на день,было бы круто)

        • Изменения как раз в том, что теперь используются различные базы, о которых раньше не было ни слова. Аккаунтами никакими никогда не делился и не собираюсь. Стоит он достаточно дешево и купить можно. К тому же, если марафон проходили, то у вас должен быть промокод, который уменьшает стоимость стартового тарифа на процентов 40 и его стоимость уменьшается до 900р.

  • Здравствуйте, Константин. У меня сайт, футбольной тематики(новостной). Сайту четыре месяца. В среднем за день 20 посетителей из поисковиков, это очень мало, или может быть? Сколько примерно времени уйдёт чтобы количество посетителей увеличилось хотя бы к сотне в день без создания семантического ядра. Спасибо!

    • Здравствуйте. Конкретно по новостному сайту ничего точно не скажу, но с таким количеством статей на информационном сайте с возрастом 4 месяца это крайне мало. Дело даже не в семантическом ядре, а в материалах, которые, возможно, пишутся не под запросы, т.е. их никто не ищет. К слову, сотня посетителей на новостном сайте - это не то, к чему нужно стремиться. Хороший выхлоп новостной проект дает при посещалке в несколько десятков тысяч. Хотя, может я и ошибаюсь.

  • Здравствуйте Константин. Нужна помощь в сборе СЯ для сайта kopirajter-ivanov.ru. Достаточно будет его просто собрать, а уж остальные манипуляции сделаю по вашему мануалу. Спасибо.

    • Ответил на почту в письме, где вы обращались с вопросом по микроразметке.

  • Статейка просто супер! Сколько же дней пришлось потратить, чтобы написать такую подробную статью. Наверное проще было бы записать видео урок.

    • Да, проще было бы, но мы не ищем легких путей)

  • Отличный пост. Ну прям урок Романа Пузата в транскрибации. Ему явно бы понравилось. Изложено четко и структурировано

    • Изложение может и понравилось бы, но никак не сама информация, т.к. для реально хорошего ядра необходимо больше заморочек (базы, парсинг видимости конкурентов и т.д.) и времени. Сейчас данная статья уже не на 100% актуальная, хотя и дает результат. Имеется старое ядро, собранное по этой технологии и результаты идут потихоньку.

      • По аналогам мутагена не можете посоветовать ничего? У меня ядро на 40к запросов и проверить чтобы в мутагене нужно вложить 16 000 руб. Как то затратно. Да и группировать тяжеловато. уже неделю бьюсь и разгруппировал только половину. kg.ppc.panel с таким объемом работает тяжело. приходится кей коллектором группировать начально а потом уже по группам в панеле группировать. иначе вообще кошмар. да и кей ассистент от контент монстр немного удобнее. но на выходе семантика имеет коварный вид. список слов - "портянка". Не понимаю вроде с ключами работают уже десятки лет. неужели не придумали ничего лучше. Эксель тоже монотонная работа по группировке. Программку бы какую или удобную панель чтобы группировала сразу и по словоформе и по поисковой выдаче а так же с возможностью ручной правки. Тогда бы было удобнее.

        • Аналогов мутагену нет, по крайней мере более мене приближенных к реальности. Можно вывести свою формулу для расчете КЕИ в кейколлекторе, но придется постоянно следить за алгоритмами и анализировать. Группировка - задача не самая сложная, но монотонная и рутинная. Увы, но тут нужно делать только руками и анализировать тему каждой группы, т.к. может быть 3 запроса разных по составу, но иметь абсолютно один и тот же смысл. Такие запросы нужно совмещать в одной группе. Например, запросы "катетеризация уха, продувание уха, продувание слуховой трубы" - это все тема одной статьи. Даже группировка по поисковой выдаче не сможет дать адекватный результата, т.к. все эти запросы в выдаче могут быть раскиданы по разным статьям, тут чисто смысловой фактор уже идет, поэтому все ручками) Пытался делать группировку в КК, но это так долго и муторно. Я намного быстрее все в kg.ppc.panel делаю. Хватает одного дня, чтобы основной массив переработать, и еще 2-3 дня, чтобы оставшийся кусок разбить и раскидать либо в новые группы, либо в уже существующие по смыслу. Тут уже кому как удобнее.

          • Ок. Все понял. Буду биться с kg.ppc, думаю нужно просто привыкнуть к панельке чтобы работать было удобно

          • Для меня данная панель очень удобна. Очень нравится фильтр в реальном времени. Ввел слово и тебе сразу выдало, что нужно. А в КК нужно все время применять фильтр и пользоваться СТОП-словами. Это мне не по душе, отнимает слишком много времени.

  • Дааа.... Столь подробной инфы я еще нигде не встречал!!! Все по полочкам разложено, Приведен четкий порядок действий, указаны вспомогательные сервисы, как платные, так и бесплатные. В общем - огромное спасибо.
    Только вот медицинская тематика примеров ключей мрачноватая)))

  • И кстати, Костя, вопрос:
    Пользуешься ли ты в КейКоллекторе KEI?
    И если да, то расскажи как применяешь?
    Я например при их помощи пытаюсь определить конкуренцию по след. формуле:
    ( KEI_YandexMainPagesCount ) + ( KEI_YandexTitlesCount ) и по такой же для гугла.
    То есть я смотрю сколько кол-во главных страниц + Кол-во страниц с точным вхождением в тайтл.
    Чем меньше значение KEI, тем меньше конкуренция по запросу.
    Скажи, данные, полученные таким способом можно принимать во внимание?
    Подскажи, как ты пользуешься KEI? И по каким форулам?

    • Кеями не пользуюсь. Плачу деньги за мутаген. Сразу получаю готовые данные, приближенные к реальности. Пока то, что получал, в принципе, оправдывалось. Если минимальная конкуренция, то страницы быстро выходили в ТОП по пулу запросов, поэтому склонен доверять сервису. У меня мутаген полностью оправдывается. Пока я не на том этапе, чтобы самому анализировать алгоритмы и составлять максимально правдивую форму КЕИ. Можно использовать вашу формулу, но я не думаю, что она максимально отражает ситуацию, хотя это основные данные при учете. Ничего конкретного больше сказать не могу.

  • Добрый день, отправлял вам запрос на составление СЯ, но так и не получил фидбека.
    Хотел бы узнать услуга еще актуальна?

    • Здравствуйте. На странице услуг я виделил красным блоком, что отвечать не буду на письма с заказами, не касающихся информационных сайтов. Письмо ваше видел и именно по этой причине не дал на него ответа. Извиняюсь, если это не совсем правильно, т.к. может вы не заходили на страницу услуг и не видели этот красный блок, а узнали об услуге со статьи. Также не могу взяться за заказ, т.к. выполняю уже сбор ядра для другого сайта.

  • Еще раз привет.
    Столкнулся со следующей проблемой при составлении сем. ядра:
    КейКоллектор сыпет подобными сообщениями:
    - ошибка при работе с поиском Google (была получена блокировка в поиске Google): прокси (201.248.252.243:8080) удаляется из списка активных . Поток завершен
    - ошибка NetworkMethods.LoadPage: Невозможно соединиться с удаленным сервером (45.32.25.28:3128)
    - при загрузке страницы Google [SERP] возникла ошибка. Выполняем повторную (2) попытку загрузить информацию
    - ошибка NetworkMethods.LoadPage: Сервер нарушил протокол. Section=ResponseStatusLine (218.161.34.107:8080)
    - ошибка NetworkMethods.LoadPage: Время ожидания операции истекло (188.165.154.254)
    - ошибка NetworkMethods.LoadPage: Невозможно соединиться с удаленным сервером (52.37.218.2)
    Такое происходит при сборе данных сезонности, корректности словоформы и сборе данных для расчета KEY.
    В чем может быть дело?
    У меня конечно же есть варианты причин происходящего, но все же хочется услышать мнение профессионала.

    • Могу лишь предположить, что прокси сервера очень плохие и быстро блокируются. Купите хорошие прокси. Качественные прокси купить можно тут: http://proxy-sale.ru/

  • Добрый день. А можно увидеть пример разгруппировки слов? Спасибо.

    • Добрый. Если вы имеете ввиду пример группы запросов, то в статье он есть (ответ на вопрос 1)

  • Добрый день. А у меня несколько вопросов частично и по этой теме и частично по ЧПУ. Решил сюда написать.
    Собрал семантическое ядро для одного раздела (например чпу этого раздела "/блог/раздел_1/"). И анализирую ядро сайта понял, что можно для этого раздела создать еще подразделы.
    Как вы считаете, стоит ли разбивать "раздел_1" на подразделы? Или какой более хороший вариант на ваш взгляд для продвижения?:
    Просто читал статьи и в некоторых написано, что чем больше вложенность, тем хуже для продвижения. Если разбить на подразделы, то ЧПУ получится "/блог/раздел_1/подраздел_1/статья_1". Это первый вариант.
    Второй вариант: разбиваю на подразделы, но ЧПУ строю как "/блог/подраздел_1/Статья_1/" (т.е. из чпу самой статьи убираю название "раздел_1"), но оставляю структуру "/блог/раздел_1/подраздел_1/Статья_1/" в хлебных крошках.
    Третий вариант: Ничего не делать и все статьи размещать в "раздел_1".

    Второй вопрос: Вы много внимания уделили именно анализирую конкурентов и основываясь на них дополняли семантическое ядро, а почему вы просто не увеличить глубину парсинга (у вас в настройках на скрине стоит ноль, а увеличить например до единицы), тем самым увеличится кол-во запросов.

    Третий вопрос: Часто встречаю понятия НЧ, СЧ, ВЧ запросы и везде пишут, что определение частоты зависит от тематики. Собрав ядро у меня запросы вида "!слово_1 !слово_2" идут от 800 и плавное уменьшение (есть парочка запросов по 2-3 тысячи). Вот основываясь на таких данных где граница между видами частот?

    Спасибо!

    • Структуру лучше делать по первому варианту, только я не совсем понял один момент: приставка "блог" - это домен или как бы раздел сайта? Если раздел сайта, то лучше тогда от него избавиться, но при условии, что еще не наполняли текстами. Лучше делать подразделы, если этого требует количество материалов, т.к. так будет понятно вашим посетителям, что мы и должны взять за основу - в первую очередь удобность. Да, большую вложенность больше убирать, но это плохо не для продвижения, а скорее для индексации. Роботу будет сложновато копаться в нескольких уровнях страниц, особенно, если количество добавляемых ежедневно материалов большое. При большой вложенности позаботьтесь, чтбы на каждый странице был виджет новых записей (чем их больше добавляется, тем больше и записей в виджете, но не более 10ти, я обычно всегда ставлю 5 записей, даже при темпе 10-15 текстов в день), также нужен список свежих записей на главной, можно это делать уже не в виджете.

      Вы наверное неправильно поняли суть анализа конкурентов. Смысл состоит в нахождении тех фраз, которые мы не уловили на первом этапе, чтобы по ним спарсить ядро. Например, нашел запрос Аритмия на первом этапе, по нему спарсил ядро. На анализе конкурентов я нахожу еще запрос Инфаркт миокарда, тогда по нему тоже делаю парсинг.

      Условно разделите эти 800 на 3 отдела - ВЧ=800, СЧ=400-500, НЧ-все, что ниже. Я в своей практике не использую такое понятие, как ВЧ, СЧ и НЧ запросы. Я скорее смотрю на показатель частотности и оцениваю его так "чем больше частотка, тем лучше, т.к. принесет больше трафика в перспективе". Также смотрю на конкуренцию при этой частотке. При публикации материалов я никогда не смотрю на запрос, ВЧ, СЧ или НЧ он, мне это не особо интересно. Мне интересно соотношение между частотностью и конкурентностью. Если запрос частотностью 3к точных показов в месяц по вордстату, а конкуренция 5, то какая мне разница, высокочастотный ли он или НЧ, если с такой конкуренцией он быстро выйдет в ТОП. Нет смысла бояться, что он много раз запрашивается, это не значит, что он конкурентный.

      • Да, "блог" это радел сайта. Ок, на счет этого понял, что лучше общие понятия такие не применять, как минимум на небольших сайтах.

        Если лучше разбить по подразделам + влияет на индексацию большая вложенность. А почему тогда не использовать третий вариант?
        Т.е. в третьем варианте:
        А) и хлебные крошки будут рисовать структуру "/раздел_1/подраздел_1/название_статьи/"
        Б) И в боковом меню будет подсвечен именно раздел меню "подраздел_1" и в целом все подразделы будут выводиться.
        В) А поисковики будут видеть урл уже "/подраздел_1/название_статьи/".

        И получается и пользователю будет удобно, потому что навигация будет говорить о том, что он находится в подразделе. И поисковику будет удобно сканировать, т.к. он сканирует по урл как я понял, а в этом случае статья имеет 2-ю вложенность. А если использовать первый способ, как вы написали, то статья имеет 3-ю вложенность.

        P.S. Я никогда не работал в WP (прочитал о том, что вы только с этой цмс-кой работаете), но знаю, что в Битриксе (я с ней работаю) очень даже легко такой момент настроить, т.е. визуально кажется, что пользователь находится в подразделе, а учп строится только из самого последнего раздела.

        P.P.S. По другим вопросам понял Вас. За это отдельное спасибо!

        • Забыл дописать, что все урл, которые в скобках пишу - это от корня сайта идут.

        • Поисковик на статьи попадает не по УРЛ, а по внутренним ссылкам, поэтому, если в хлебных крошках вся цепочка категорий выведена, то проблем быть не должно. Если вы уж и хотите что-то скрыть с УРЛ, то позаботьтесь, чтобы был легкий доступ во все категории и подкатегории. Это достаточно просто реализовать многоуровневым навигационным меню в самом верху, как это и сделано на многих сайтах.

          В идеале, вы делаете очень понятную навигацию на сайте, используя меню + различные дополнительные вспомагающие элементы (хлебные крошки и т.д.). Только после этого выстраиваете цепочку в УРЛ. Она может быть вообще пустая. Если видели, то на достаточно популярных порталах иногда встречается УРЛ вида сайт.ру/статья. При этом структура очень разнообразная и уровень вложенности 3 и выше, но навигация интуитивно понятна.

          • Ок, спасибо большое!

  • Здравствуйте, Константин! Спасибо за Вам большое за подробнейшую статью. Очень последовательно и емко. Сделали все по шагам как Вы написали.
    В конечном файле остались 23 группы с частотностью от 23 до 17 000, а конкуренция от трех 3 до 15.

    Самый первый вопрос, есть ли смысл писать под группы у которых частотность — 50-150 человек в месяц? Или, например, есть группа с частотностью 8500, а конкуренция 9,5. Реально ли пробиться с такой конкуренцией? (Компьютерная тематика, советы) .Заранее спасибо большое за ответ и еще раз спасибо за статью.

    • Здравствуйте.

      Смысл есть, т.к. группа всегда будет приносить больше трафика, как по смежным запросам, так и по запросам, которые вы никак и никогда не сможете спарсить через вордстат и т.д.

      9,5 достаточно низкая конкуренция, по таким запросам очень просто выйти в ТОП, просто подождав, пока текст выстрелит в поиске, но у меня сразу набрасывается предположение, что с такой частоткой группы (8500) данный показатель конкуренции формируется из-за большого количества НЧ запросов с низкой конкуренцией и одного/пары крупных запросов с большой конкуренцией 25. Это значит, что по основным запросам нереально или очень сложно будет выйти в ТОП. Нужно анализировать каждую группу в отдельности. Если все запросы примерно с конкруенцией 9-10, где-то один 15 и т.д., тогда шансы очень большие.

      А вообще, если всего 23 группы, то пишите их сразу и все, за пару дней опубликуйте и не смотрите на этот уровень конкуренции, это не столь важно.

  • Доброе время суток,
    Просьба проконсультировать/посоветовать. Делал сайт «информационный» и вот как читаю то наделал кучу ошибок как в семантическом ядре так и в главных ключевых словах. У сайта опубликовано 42 стати и все они как я смог перепроверить в разном состоянии от среднего до очень-очень плохого. Есть вопросы: 1. Если я на данный момент переделаю и ядро и ключевик… как это отразится на сайте? (то есть стоит это делать или финиш), 2. Возможно получить Вашу экспертную оценку по сайту (ну и если он не со всем безнадёжный обсудить с Вами возможность его оптимизации)?

    • Здравствуйте. Если изменения будут сделаны в лучшую сторону, то это пойдёт только на пользу сайту. Каких-либо оценок сайтов на данный момент на бесплатной основе я не делаю. Либо консультация (1000р), либо аудит (3500р). Более подробно по услугам пишите на почту.

  • Добрый день,

    Просьба подсказать корректно ли использовать ключевое слово, если в Яндексе его чистая чистотность например 780, а в Google 120 или Google 0?

    • Добрый день. Не совсем понятно, что значит "корректно использовать". В тексте, в тайтле, или вообще писать статью? Не ясно.

  • Я имел виду использование данного ключевого слова как Главное ключевое слово стати. Если такие большие перепады.

    • Я не сравниваю никогда яндекс с гуглом. Использовать можно, но тут нужно проверять выдачу по этому запросу. Возможно, что это далеко на главный запрос группы, возможно, что группа просто неполная и имеет смысл ее дособрать. Это тема ни одного сообщения и в 2х словах я не могу ответить. Тут уже методом экспериментов и проб.

      Но главная мысль - использовать можно.

  • А как быть с 80000 ключами, уже отчистил от мусора и от всей ерунды. Тема узкая Медицина. По 80000 запросом Key не сможет обработать без ошибок и всякой ерунды

    • Вообщем не дождался вашего ответа решил почистить частность в итоге 300 запросов по вашей схеме, с частностью "!" 30 и 5 тыс запросов с частью менее 30.

      • Здравствуйте, был поломан рабочий ноутбук, не мог ответить.

        В узкой тематике 80 тыс. запросов? Это не узкая тематика) Не совсем понял суть вшей проблемы. Если она еще актуальна, опишите свою ситуацию более подробно, возможно смогу помочь.

  • Константин, спасибо за статью. Поясните, пожалуйста, про " 10% самых частотных запросов" и их дальнейшее расширение. В остальных 90% можно ли что-то упустить? Мы же сохраняем группы "менее 30", а эту группу вы рекомендуете удалить

    • Здравствуйте. Можете уже не заморачиваться с этим. Сейчас можно делать ядро намного проще и быстрее - сначала парсите список ключей из левой колонки вордстата, затем через сервис keys.so парсите все ключи лидеров ниши, все это объединяете и начинаете группировать. Этого вполне достаточно, чтобы получить качественное ядро.

  • Константин, есть нишевая строительная тематика.
    Предварительно почищенное от мусора и до частот "10!" СЯ имеет 16000 запросов, до "30!" - 8000. С дублями не работал, это еще минус четверть.
    Есть СЧ запросы связанные с интерьером - "белый элемент", "Коричневый" и т.п.
    Есть СЧ и НЧ запросы витальные связанные с производителями компонентов (витальные по сути).
    По многим произвольно выбранным мной запросам из указанных выше категорий ранжируются как коммерческие, так и информационные сайты. Исходя из этого назрел вопрос: сохранять ли такие запросы прозапас? Спасибо

    • Точно сказать сложно, не видя всей ситуации, но я бы оставил, если можно по эти запросы написать отдельный текст и в выдаче они присутствуют.

  • Приветствую Константин!
    В текущей версии Key Collector появились небольшие изменения (Маска QUERY и т.п.). Могли бы вы внести коррективы в статью с учётом этих изменений.

  • Костя, а как распределять группы запросов в тексте?
    Например, основной ключ - как создать семантическое ядро. Его мы используем в первых 100 словах текста, а лучше в первом абзаце. А как тогда распределять в тексте остальные запросы из группы?

    • Просто по ходу текста вставляем остальные фразы. Главное, чтобы не было спама (употребление нескольких фраз в одном предложении или небольшом абзаце). Я обычно придерживаюсь тактики равномерного распределения, т.к. это важно не только для СЕО, но и ля удобочитаемости текста.

  • Спасибо дружище))

  • И еще, можно ли склонять и менять местами слова в остальных ключах из групп? Или же использовать их в точном вхождении?

    • Никто не скажет, что нужно употреблять, а что нет. Необходимо анализировать фразы на вхождения через сервисы. Точное вхождение - без какого-либо изменения, разбавленное - можно менять местами слова и менять окончания.

  • Добрый день. Видел ваш единственный комментарий про поисковые подсказки, но так и не понял, почему вы их не используете? Ведь это хороший источник расширения семантического ядра. Мне кажется, вы теряете посещения, пропуская эти фразы.

    • Здравствуйте. Я много чего использую при работе с ядром, в том числе и поисковые подсказки.

  • отличная статья, настоящий мануал, спасибо, Константин,
    но вот возник вопрос, что делать если семантическое ядро сайта уже собрано и отработано,? как его расширить? по такой же методике?

    • Эта статья уже неактуальна. Точнее, она требует значительных доработок.

      Если ядро собрано полностью, то расширить можно с помощью доп источников (баз ключевых слов, видимости конкурентов и т.д.), но в идеальном варианте это все делается сразу при составлении ядра.

      • А что тут неактуально, можете уточнить? как раз собираю ядро.

        • Нужно использовать все источники ключевых слов: яндекс, гугл, подсказки яндекс и гугла, видимость конкурентов, базу букварис. Все это собрать, почистить и разгруппировать. Вот и все. Весь алгоритм.

          • А почему такие изменения? Свежая информация от пузата?
            Rookie уже не актуален?
            Видимость конкурентов - это те запросы, по которым находятся в выдаче конкуренты? У мегаиндекса есть бесплатный сервис определения такой видимости, он подойдет?
            Базу букварикс не смотрела...
            И правая колонка вордстата - нужна?

          • Нет, не свежая. Уже достаточно давнишняя. Уже как год я делаю по-другому. Правую колонку мы никогда не собирали. Да, про видимость вы поняли правильно. Не знаю, мегаиндексом не пользовался. Отличный инструмент - keys.so, но только на базовом тарифе. Можете спарсить и руки, но в этом нет нужды, т.к. все эти фразы найдутся во всех источниках.

          • Вот странно, что правую не собирали - у пузата этого действительно нет. Я думаю, просто вручную смотрите правую колонку и в начальный список запросов слова включаете, да?

            А вот по ядру вопрос: если у меня на сайте обзор игр, сервисов (при этом есть игры на миллион запросов), то технология сборки ядра наверно должна поменяться: все в кучу сбрасывать не надо при формировании начального списка слов. Лучше собрать отдельно по ядру для каждой игры/сервиса, да? Ну к примеру бородача к покемонам примешивать смысла нет, так же как сервис яндекс к рамблеру?

          • Да, правая колонка используется только для поиска тематических вводных слов. Да, лучше сразу раскидывать по отдельным группам. Будем легче потом.

          • Скажите, сколько сайтов надо сделать, чтобы тысяч 60 в месяц с адсенс было (с учетом, что некоторые темы наверно не взлетят)

          • Все зависит от тематики. Точно сказать не получится. 4-5 сайтов могут приносить такой доход при трафике 3-4к в сутки каждого.

          • И как использовать гугл, если он теперь не показывает частоту для аакаунтов, не потративших сумму на адвордс. Просто фразы без частоты все равно брать?

          • Частотку вы парсите через яндекс. С гугла просто парсите фразы для ядра.

          • А каковы, считаете, плюсы и минусы подходов:

            1)На одном сайте выписать самые жирные ключи смежных тематик (низкоконкурентные с приемлемой частотой)
            2)На двух сайтах выписать все ключи для каждой тематики отдельно, независимо от того, насколько они конкурентные

            Что лучше?

          • Все зависит от задач. Если нет бюджета, или он жестко ограничен, то лучше будет первый подход. Только надо тогда продумать структуру сайта, чтобы была возможность досоздать разделы и дозалить те материалы, которые более конкурентные. Их в любом случае необходимо будет публиковать, т.к. через время именно они дают максимальный трафик и доход.

            Второй подход тоже неплохой. В сумме факторов (хороший оптимизированный контент, ссылки, перелинковка, возраст), все и так хорошо сработает.

      • Просто когда проверяешь конкурентность, большинство ключей оказывается больше 10-15, а то и 25. Чобы не быть голословной. Хотя есть и 5-8, но меньше 5 только с очень маленькой частотой. Самое лучшее соотношение встретила конкурентность 3, "!частота" 230. Это нормально, или от такой тематики лучше держаться подальше?

        • Не могу точно сказать, держаться или нет, т.к. вполне возможно, что у вас большие проблемы с ядром. 5-8 это тоже норм показатель, 10-15 тоже приемлемый, такие статьи сильно быстро не набирают свои максимальные показатели, но их откидывать не нужно. Вот 25 уже не нужно выписывать в самом начале. Хотя, по опыту скажу, если контент вне конкуренции, то и 25 не приговор. 6-7 месяцев и каждый текст приносит неплохой результат даже с максимальной конкуренцией. Другое дело, если мы говорим о простом рерайте - он в единичных случаях будет давать хорошие относительно быстрые результаты на группах с большой конкуренций, и в некоторых случае из-за погрешности мутагена.

          • Ну вот у меня статья случайно попала в топ, хотя там по мутагену конкуренция 20, но видно по выдаче, что ничего нет. Вторая статья с конкуренцией 10 в топе.

            Получается, оптимальнее всего смотреть вручную на выдачу, как я и делала месяца четыре. Но пачками такие ключи не накопаешь, так что решила пойти с другого конца и создать ядро. Сижу уже третий день разгруппировываю - приходится вникать в тему, гуглить запросы ,чтобы понять, какой куда. И вот заметила, что есть сайт, который полностью прописал все ядро, причем хорошо, почти по статье на запрос, не пренебрегая даже мелкими. Ему два года, и он по всем почти запросам в топе. Хоть рерайти все. Имеет смысл?

            А почему проблемы с ядром - типа новичок потому что?

          • Просто рерайтить нет смысла, т.к. хорошо текста не получится без хорошего ядра. Чем более насыщенная и полная группа будет, тем более точечно будет оптимизирован сам текст (вхождения ключей - точные и разбавочные, вхождения отдельных слов, длина и т.д.).

            Да, есть вариант, что как раз таки проблемы с ядром из-за того, что вы в этой теме менее года и не собрали хотя бы 3-4 ядер. Но может быть я ошибаюсь, не буду утверждать. Ядро - штука достаточно нелегкая, да и собирается долговато, у новичка этот процесс может затянуться на 2 и более месяцев.

          • "(вхождения ключей - точные и разбавочные, вхождения отдельных слов, длина и т.д.)"

            Есть группа ключей 20 штук и статья по ним на 3500 знаков.
            (ключи похожи, в основном русским/английским написанием отличаются и порядком слов).

            Я взяла самую частотную фразу из 20-ти для тайтла. И проследила, чтобы все слова из этих похожих между собой 20-ти фраз имели вхождение в текст статьи (как именно, не важно, просто естественный текст).

            Потом проследила еще, чтобы первая (тайтл) и вторая по частоте фраза обязательно имела вхождение в текст статьи в точном виде.

            Так делать нормально или какие-то особые правила по включению ключей есть?

          • Подход неплохой, но в идеале каждая фраза анализируется на точное вхождение. Если анализ покажет, что 4 фразы нужно употребить точно, то 4 раза в текст и вписываем.

          • В смысле фраза анализируется на точное вхождение в статьях, находящихся в топе выдачи? Посчитать, что в среднем у них и сделать так же? Каким инструментом это делается?

          • Да, посмотреть на ТОП и употреблять примерно такое же количество. Если ручками, то через rookee.ru.

  • Неплохо получилось. Хоть и рерайт марафона Пузата, но намного понятнее и подробней чем у него. Ты выделил самое необходимое. Спасибо!

  • Это наверное самое лучшее, что я читала в сети про сбор ядра

  • Единственный внятный сайт для новичка, хотя видно что по Пузату (недавно нашла его прошлогодние записи). Но это не умаляет достоинств, все остальные найденные материалы - просто болтовня по верхам, в результате которой остается непонятно, что делать

  • "мне либо вообще не видать первых позиций или же не видать их очень долго. Такой материал бы на новом сайте я вообще не писал. Сейчас же я его опубликовал только для создания качественного контента на блог. "

    Ну как, что важнее в итоге оказалось: написание качественного контента или тщательный сбор ядра и конкуренции и выписывание статей по ним?

    • Все вместе оказалось важным. На новом сайте в первые дни с качественнымм ядром уже идет трафик.

  • Здравствуйте, читаю про сбор ядра уже 4 месяца. Все статьи о том как пользоваться кей коллектором и подобное... Для чего нужно СЯ, четкая тезисная ясно-доходящая формулировка есть вообще ли на свете? Все делают, потому что так делают все. Ведь выбор ключей можно производить конкретно для статей, особенно если вы специалист по теме и есть четкое представление, что ваш будущий пользователь желает получить от вашей писанины. Почему необходимо собирать Ся? Ответьте хоть вы. Без негативных привязок , типа "Если его не собрать, то будет плохо". 1. Что такое СЯ? 2. Зачем оно сайту?.Почему с ним лучше чем без него? Спасибо, блог у вас приятный.

    • В статье я примерно ответил на ваши вопросы. Почему тактика одного запроса слабо работает. Нужно именно СЯ. Прочтите внимательно. Но, отвечу и здесь кратко.

      СЯ - список всех запросов тематики. Статья должна писаться не под один запрос, а под целую группу запросов, которая как раз таки формируется в процессе создания СЯ. Группа - это список ключевых запросов, идентичных по смыслу (пример найдите в моей статье). Почему так важно собирать СЯ?

      Во-первых, без максимального количества хороших запросов не будет раскрытия темы и статья не будет максимально оптимизирована. Какие-то фразы будут упущены и текст будет без них. В итоге, такие тексты будут себя хуже чустовать при продвижении по сравнению с более оптимизированным.

      Во-вторых, СЯ будет включать в себя те фразы, которые вы наверняка бы не использовали при обычном написании текста под запрос. Получается ситуация, что могут быть еще каких-то 5 (например) запросов, в которых имеются дополнительные вхождения слов, которые необходимо употреблять в тексте для полноты раскрытия темы статьи и ее насыщения нужными словами.

      Это если в двух словах. На самом деле имеются еще более глубокие моменты, в которые вам уж точно вдаваться не стоит на данном этапе. Тактика написания под один запрос тоже работает, но далеко не всегда и в значительной мере проигрывает семантическому ядру. Есть реальные примеры (даже из личного опыта), где собрав хорошее ядро, трафик на сайт идет с первых дней публикации текста. Вот совсем недавно новый сайт уже принес 20 посетителей в сутки всего с 6-мя текстами, которые опубликованы несколько дней назад.

      Если вы совсем новичков, то вам вполне реально создать базовое (среднее) СЯ без каких-то больших трудностей. Но вам потребуется купить KeyCollector, без него будет тяжковато.

  • Спасибо большое, Константин за статью! Хорошая инструкция, неопытному новичку (про себя) и то понятно. Подскажите, перед тем, как заниматься семантикой сайта, по каким критериям и как проверять сайт, чтобы отслеживать "динамику пользы" от СЯ (возможно, есть какие-н. программы)

    • Здравствуйте. Непонятен вопрос. Польза от ся непременно будет. Это фундамент сайта. Как отслеживать пользу ся тоже не знаю, тут только можно опереться на опыт и уверенность в том, что ядро полное и качественное. Все остальное уже зависит от другого: тз, качество текстов и других факторов

  • Какую бы вы назвали максимально допустимую конкурентность для запроса (по мутагену) и минимальную частотность исходя из которой еще можно взяться за сам запрос и написание статьи? (для нового сайта)

    нашел в нише запрос с частотностью 550, конкурентность 4. Впервые такое соотношение

    • Дело не в запросе, а в конкурентности группы запросов. Может быть сама тема статьи конкурентная, а один вырванный запрос, который может быть неконкурентным, не показывает всей картины. Именно поэтому наличие хорошего сем. ядра так важно. Запрос ни о чем не говорит! Я бы брал общую частотку 150+ по всем запросам группы и конкуренцию не более 7-8 у каждого запроса из группы. Такие материалы очень быстро срабатывают, хоть и не приносят тонны трафика.

  • запрос брал из левой колонки вордстата по среднечастотнику из двух слов. сам запрос из 3-4 слов, процентов 30 таких запросов не имеют группы, остальные имеют. тематика очень конкурентная, коммерческая, но раскрытия темы в найденных по запросу статьям я не увидел

    как жаль потерял вашу информацию о том, какое время срабатывания низко-конкурентной статьи :) помню лишь что сч начинает работать через 6-12 месяцев

    • Вот еще одна проблема - всего 1 запрос из вордстата. а как же другие источники? гугл, подсказки яндекса и гугла, видимость конкурентов и т.д.? Это тотальное упускание запросов, а соответственно некачественные ТЗ для текстов на выходе. Хотя, это коммерческая тематика, я с такими не работаю. Но все же не встречал ВЧ группы, состоящие из одного запроса, всегда имеется хотя бы 4-5 запросов, которые находятся из всех источников.

      По моему опыту - 3-5 месяцев статьи выстреливают, если они не мегоконкурентные. Трех месяцев достаточно для минимальной конкурентности в районе показателя 3-7 для каждого запроса группы (а не для среднего, т.к. может быть запрос с показателем 25 по мутагену и два запроса с показателем 1, средняя будет 9 - так неправильно учитывать, т.к. это позапросная оценка, которая нее оценивает конкурентность самой темы статьи, а нам нужна средняя именно по теме)

      • с гуглом не получилось работать, хвосты проверяю ВСЕ.
        хочу подойти к вопросу со стороны: поиск запроса, поиск подзапросов для формирования структуры статьи, анализ 3-х страниц выдачи для выявления упущенных подзапросов и более детального раскрытия темы

        почему запроса, а не группы? в этой тематике составить группу из двух, если повезет. больно техническая

        • Ну не знаю... у меня большие сомнения по поводу вашего подхода. Только полный и грамотный сбор ядра покажет, сколько запросов в группе. В ином случае это игра наугад.

          • Обязательно отпишусь по результатам :)
            P.S. Связался с хозяином сайта в кредитной тематике (который комментировал последний пост на блоге), делимся впечатлениями, информация очень интересная

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *