Какие правила создания семантического ядра можно применять. Составление семантического ядра. Как составить семантическое ядро на практике

Семантическое ядро — довольно избитая тема, не так ли? Сегодня мы вместе это исправим, собрав семантику в этом уроке!

Не верите? - посмотрите сами - достаточно просто вбить в Яндекс или Гугл фразу семантическое ядро сайта. Думаю, что сегодня я исправлю эту досадную ошибку.

А ведь и в самом деле, какая она для вас - идеальная семантика ? Можно подумать, что за глупый вопрос, но на самом деле он совсем даже неглуп, просто большинство web-мастеров и владельцев сайтов свято верят, что умеют составлять семантические ядра и в то, что со всем этим справится любой школьник, да еще и сами пытаются научить других… Но на самом деле все намного сложней. Однажды у меня спросили — что стоит делать вначале? — сам сайт и контент или сем ядро , причем спросил человек, который далеко не считает себя новичком в сео. Вот данный вопрос и дал мне понять всю сложность и неоднозначность данной проблемы.

Семантическое ядро — основа основ — тот самый первый шажок, который стоит перед и запуском любой рекламной кампании в интернете. Наряду с этим — семантика сайта наиболее муторный процесс, который потребует немало времени, зато с лихвой окупится в любом случае.

Ну что же… Давайте создадим его вместе!

Небольшое предисловие

Для создания семантического поля сайта нам понадобится одна-единственная программа — Key Collector . На примере Коллектора я разберу пример сбора небольшой сем группы. Помимо платной программы, есть и бесплатные аналоги вроде СловоЕб и других.

Семантика собирается в несколько базовых этапов, среди которых следует выделить:

  • мозговой штурм - анализ базовых фраз и подготовка парсинга
  • парсинг - расширение базовой семантики на основе Вордстат и других источников
  • отсев - отсев после парсинга
  • анализ - анализ частотности, сезонности, конкуренции и других важных показателей
  • доработка - групировка, разделение коммерческих и информационных фраз ядра

О наиболее важных этапах сбора и пойдет речь ниже!

ВИДЕО - составление семантического ядра по конкурентам

Мозговой штурм при создании семантического ядра — напрягаем мозги

На данном этапе надо в уме произвести подбор семантического ядра сайта и придумать как можно больше фраз под нашу тематику. Итак, запускаем кей коллектор и выбираем парсинг Wordstat , как это показано на скриншоте:

Перед нами открывается маленькое окошко, где необходимо ввести максимум фраз по нашей тематике. Как я уже говорил, в данной статье мы создадим пример набор фраз для этого блога , поэтому фразы могут быть следующими:

  • seo блог
  • сео блог
  • блог про сео
  • блог про seo
  • продвижение
  • продвижение проекта
  • раскрутка
  • раскрутка
  • продвижение блогов
  • продвижение блога
  • раскрутка блогов
  • раскрутка блога
  • продвижение статьями
  • статейное продвижение
  • miralinks
  • работа в sape
  • покупка ссылок
  • закупка ссылок
  • оптимизация
  • оптимизация страницы
  • внутренняя оптимизация
  • самостоятельная раскрутка
  • как раскрутить ресурс
  • как раскрутить свой сайт
  • как раскрутить сайт самому
  • как раскрутить сайт самостоятельно
  • самостоятельная раскрутка
  • бесплатная раскрутка
  • бесплатное продвижение
  • поисковая оптимизация
  • как продвинуть сайт в яндексе
  • как раскрутить сайт в яндексе
  • продвижение под яндекс
  • продвижение под гугл
  • раскрутка в гугл
  • индексация
  • ускорение индексации
  • выбор донора сайту
  • отсев доноров
  • раскрутка постовыми
  • использование постовых
  • раскрутка блогами
  • алгоритм яндекса
  • апдейт тиц
  • апдейт поисковой базы
  • апдейт яндекса
  • ссылки навсегда
  • вечные ссылки
  • аренда ссылок
  • арендованные ссылке
  • ссылки с помесячной оплатой
  • составление семантического ядра
  • секреты раскрутки
  • секреты раскрутки
  • тайны seo
  • тайны оптимизации

Думаю, достаточно, и так список с пол страницы;) В общем, идея в том, что на первом этапе вам необходимо проанализировать по максимуму свою отрасль и выбрать как можно больше фраз, отражающих тематику сайта. Хотя, если вы что-либо упустили на этом этапе — не отчаивайтесь — упущенные словосочетания обязательно всплывут на следующих этапах , просто придется делать много лишней работы, но ничего страшного. Берем наш список и копируем в key collector. Далее, нажимаем на кнопку — Парсить с Яндекс.Wordstat :

Парсинг может занять довольно продолжительное время, поэтому следует запастись терпением. Семантическое ядро обычно собирается 3-5 дней и первый день у вас уйдет на подготовку базового семантического ядра и парсинг.

О том, как работать с ресурсом , как подобрать ключевые слова я писал подробную инструкцию. А можно узнать о продвижении сайта по НЧ запросам.

Дополнительно скажу, что вместо мозгового штурма мы можем использовать уже готовую семантику конкурентов при помощи одного из специализированных сервисов, например — SpyWords. В интерфейсе данного сервиса мы просто вводим необходимое нам ключевое слово и видим основных конкурентов, которые присутствуют по этому словосочетанию в ТОП. Более того - семантика сайта любого конкурента может быть полностью выгружена при помощи этого сервиса.

Далее, мы можем выбрать любого из них и вытащить его запросы, которую останется отсеять от мусора и использовать как базовую семантику для дальнейшего парсинга. Либо мы можем поступить еще проще и использовать .

Чистка семантики

Как только, парсинг вордстата полностью прекратится — пришло время отсеять семантическое ядро . Данный этап очень важен, поэтому отнеситесь к нему с должным вниманием.

Итак, у меня парсинг закончился, но словосочетаний получилось ОЧЕНЬ много , а следовательно, отсев слов может отнять у нас лишнее время. Поэтому, перед тем как перейти к определению частотности, следует произвести первичную чистку слов. Сделаем мы это в несколько этапов:

1. Отфильтруем запросы с очень низкими частотностями

Для этого наживаем на символ сортировки по частотности, и начинаем отчищать все запросы, у которых частотности ниже 30:

Думаю, что с данным пунктом вы сможете без труда справиться.

2. Уберем не подходящие по смыслу запросы

Существуют такие запросы, которые имеют достаточную частотность и низкую конкуренцию, но они совершенно не подходят под нашу тематику . Такие ключи необходимо удалить перед проверкой точных вхождений ключа, т.к. проверка может отнять очень много времени. Удалять такие ключи мы будем вручную. Итак, для моего блога лишними оказались:

  • курсы поисковой оптимизации
  • продам раскрученный сайт

Анализ семантического ядра

На данном этапе, нам необходимо определить точные частотности наших ключей, для чего вам необходимо нажать на символ лупы, как это показано на изображении:

Процесс довольно долгий, поэтому можете пойти и приготовить себе чай)

Когда проверка прошла успешно — необходимо продолжить чистку нашего ядра.

Предлагаю вам удалить все ключи с частотностью меньше 10 запросов. Также, для своего блога я удалю все запросы, имеющие значения выше 1 000, так как продвигаться по таким запросам я пока что не планирую.

Экспорт и группировка семантического ядра

Не стоит думать, что данный этап окажется последним. Совсем нет! Сейчас нам необходимо перенести получившуюся группу в Exel для максимальной наглядности. Далее мы будем сортировать по страницам и тогда увидим многие недочеты, исправлением которых и займемся.

Экспортируется семантика сайта в Exel совсем нетрудно. Для этого просто необходимо нажать на соответствующий символ, как это показано на изображении:

После вставки в Exel, мы увидим следующую картину:

Столбцы, помеченные красным цветом необходимо удалить. Затем создаем еще одну таблицу в Exel, где будет содержаться финальное семантическое ядро.

В новой таблице будет 3 столбца: URL страницы , ключевое словосочетание и его частотность . В качестве URL выбираем или уже существующую страницу или страницу, которая будет создана в перспективе. Для начала, давайте выберем ключи для главной страницы моего блога:

После всех манипуляций, мы видим следующую картину. И сразу напрашивается несколько выводов:

  1. такие частотные запросы, как должны иметь намного больший хвост из менее частотных фраз, чем мы видим
  2. сео новости
  3. всплыл новый ключ, который мы не учли ранее — статьи сео . Необходимо проанализировать этот ключ

Как я уже говорил, ни один ключ от нас не спрячется. Следующим шагом для нас станет мозговой штурм этих трех фраз. После мозгового штурма повторяем все шаги начиная с самого первого пункта для этих ключей. Вам может все это показаться слишком долгим и нудным, но так оно и есть — составление семантического ядра — очень ответственная и кропотливая работа. Зато, грамотно составленное сем поле сильно поможет в продвижении сайта и способно сильно сэкономить ваш бюджет.

После всех проделанных операций, мы смогли получить новые ключи для главной страницы этого блога:

  • лучший seo блог
  • seo новости
  • статьи seo

И некоторые другие. Думаю, что методика вам понятна.

После всех этих манипуляций мы увидим, какие страницы нашего проекта необходимо изменить (), а какие новые страницы необходимо добавить. Большинство ключей, найденных нами (с частотностью до 100, а иногда и намного выше) можно без труда продвинуть одними .

Финальный отсев

В принципе, семантическое ядро практически готово, но есть еще один довольно важный пункт, который поможет нам заметно улучшить нашу сем группу. Для этого нам понадобится Seopult.

*На самом деле тут можно использовать любой из аналогичных сервисов, позволяющих узнать конкуренцию по ключевым словам, например, Мутаген!

Итак, создаем еще одну таблицу в Exel и копируем туда только названия ключей (средний столбец). Чтобы не тратить много времени, я скопирую только ключи для главной страницы своего блога:

Затем проверяем стоимость получения одного перехода по нашим ключевым словам:

Стоимость перехода по некоторым словосочетаниям превысила 5 рублей. Такие фразы необходимо исключить из нашего ядра.

Возможно, ваши предпочтения окажутся несколько иными, тогда вы можете исключать и менее дорогие фразы или наоборот. В своем случае, я удалил 7 фраз .

Полезная информация!

по составлению семантического ядра, с упором на отсев наиболее низкоконкурентных ключевых слов.

Если у вас свой интернет-магазин — прочитайте , где описано, как может быть использовано семантическое ядро.

Кластеризация семантического ядра

Уверен, что ранее тебе уже доводилось слышать это слово применительно к поисковому продвижению. Давай разберемся, что же это за зверь такой и зачем он нужен при продвижении сайта.
Классическая модель поискового продвижения выглядит следующим образом:

  • Подбор и анализ поисковых запросов
  • Группировка запросов по страницам сайта (создание посадочных страниц)
  • Подготовка seo текстов для посадочных страниц на основе группы запросов для этих страниц

Для облегчения и улучшения второго этапа в списке выше и служит кластеризация. По сути своей - кластеризация это программный метод, служащий для упрощения этого этапа при работе с большими семантиками, но тут не все так просто, как может показаться на первый взгляд.

Для лучшего понимания теории кластеризации следует сделать небольшой экскурс в историю SEO:

Еще буквально несколько лет назад, когда термин кластеризация не выглядывал из-за каждого угла - сеошники, в подавляющем большинстве случаев, группировали семантику руками. Но при группировке огромных семантик в 1000, 10 000 и даже 100 000 запросов данная процедура превращалась в настоящую каторгу для обычного человека. И тогда повсеместно начали использовать методику группировки по семантике (и сегодня очень многие используют этот подход). Методика группировки по семантике подразумевает объединение в одну группу запросов, имеющих семантическое родство. Как пример - запросы “купить стиральную машинку” и “купить стиральную машинку до 10 000” объединялись в одну группу. И все бы хорошо, но данный метод содержит в себе целый ряд критических проблем и для их понимания необходимо ввести новый термин в наше повествование, а именно – “интент запроса ”.

Проще всего описать данный термин можно как потребность пользователя, его желание. Интент является ни чем иным, как желанием пользователя, вводящего поисковый запрос.
Основа группировки семантики - собрать в одну группу запросы, имеющие один и тот же интент, либо максимально близкие интенты, причем тут всплывает сразу 2 интересных особенности, а именно:

  • Один и тот же интент могут иметь несколько запросов не имеющих какой-либо семантической близости, например – “обслуживание автомобиля” и “записаться на ТО”
  • Запросы, имеющие абсолютную семантическую близость могут содержать в себе кардинально разные интенты, например, хрестоматийная ситуация – “мобильник” и “мобильники”. В одном случае пользователь хочет купить телефон, а в другом посмотреть фильм

Так вот, группировка семантики по семантическому соответствию никак не учитывает интенты запросов. И группы, составленные таким образом не позволят написать текст, который попадет в ТОП. Во временя ручной группировки для устранения этого недоразумения ребята с профессией «подручный SEO специалиста» анализировали выдачу руками.

Суть кластеризации – сравнение сформировавшейся выдачи поисковой системы в поисках закономерностей. Из этого определения сразу следует сделать для себя заметку, что сама кластеризация не является истиной в последней инстанции, ведь сформировавшаяся выдача может и не раскрывать полностью интент (в базе Яндекс может просто не быть сайта, который правильно объединил запросы в группу).

Механика кластеризации проста и выглядит следующим образом:

  • Система поочередно вводит все поданные ей запросы в поисковую выдачу и запоминает результаты из ТОП
  • После поочередного ввода запросов и сохранения результатов, система ищет пересечения в выдаче. Если один и тот же сайт одним и тем же документом (страница сайта) находится в ТОП сразу по нескольким запросам, то эти запросы теоретически можно объединить в одну группу
  • Становится актуальным такой параметр, как сила группировки, который говорит системе, сколько именно должно быть пересечений, чтобы запросы можно было добавить в одну группу. К примеру, сила группировки 2 означает, что в выдаче по 2-м разным запросам должно присутствовать не менее двух пересечений. Говоря еще проще – минимум две страницы двух разных сайтов должны присутствовать одновременно в ТОП по одному и другому запросу. Пример ниже.
  • При группировках больших семантики становится актуальна логика связей между запросами, на основе которой выделяют 3 базовых вида кластеризации: soft, middle и hard. О видах кластеризации мы еще поговорим в следующих записях этого дневника

Шаг 2. Продолжаем расширять семантику, используя инструмент “Похожие фразы ”, который . Внедряя ключевики из этого отчета, вы максимально . А параметр “Сила связи” подскажет вам, используют ли эту фразу в своем семантическом ядре ваши конкуренты из топ-20. Чем выше число, тем больше сайтов используют исследуемую фразу и предложенный синоним.

Выраженный результат показывается на товарах, которые люди могут искать по-всякому. Например, подушки для спины.

Шаг 3. Последний шаг в расширении семантики - это сбор поисковых подсказок поисковой системы. Преимущество в том, что сервисы собирают информацию в режиме реального времени и вытаскивают сразу все поисковые подсказки, которые может предложить Яндекс/Google. Поисковики же предлагают только до 12 подсказок на фразу .

Чтобы выгрузить все подсказки, переходим в инструмент “Поисковые подсказки ” и выгружаем список.

Обратите внимание на облако популярных фраз, именно такие слова чаще всего ищут люди со словосочетанием “ортопедические матрасы”. Если среди фраз есть определенные размеры, бренды или тип изделия, то стоит включить их в ассортимент интернет-магазина.

Также под информационный тип ключевиков, как “лучшие матрасы для проблем с позвоночником”, вы можете подготовить статью к вам в блог, что станет дополнительным источником трафика и продаж .

Шаг 4. Сводим все отчеты в единую таблицу и чистим дубли с помощью плагина Remove Duplicate .

Потраченное время - до 5 минут. Зависит от количества ключевых запросов.

Пользуюсь сервисами вы уже выигрываете время перед теми, кто собирает, чистит и кластеризует семантику вручную . Чтобы понять разницу, попробуйте провести все описанные шаги, вытаскивая ключевые фразы и поисковые подсказки в Wordstat, а затем повторите инструкцию.

Кластеризация

Также экономит до 8 часов автоматическая кластеризация . Это разбивка всех ключевых фраз на смысловые группы, под которые создается структура сайта, фильтры, категории товаров и так далее.

Для этого загрузите ваш файл со всеми ключевыми фразами в инструмент кластеризации и в течение 10–30 минут , в зависимости от количества ключевиков, вы получите отчет .

Если группировка не удовлетворяет качеством, не выходя из проекта, щелкните по значку “настройки ” и поставьте силу связи сильнее/слабее. Изменение настроек в пределах одного проекта бесплатное, перегруппировка семантики длится не больше 1 минуты.

Этап 3. Автоматизация уровень профи

Если вы уже собираете семантику с помощью сервисов через интерфейс, пришло время познакомить вас с API. Это набор функций, позволяющих пользователям получать доступ к данным или компонентам сервиса, в нашем случае - Serpstat. Преимущество работы по API:


А теперь повторим все действия по сбору семантики со второго этапа с помощью API.

Шаг 1. Скопируйте эту таблицу со скриптом в свой Google Диск.

Шаг 2. Скопируйте свой токен в личном профиле Serpstat и вставьте в соответствующее поле в таблице. Также выберите нужную базу поисковика и заполните параметры отбора ключевых фраз, добавьте список ключевых фраз, по которым вы хотите выгрузить отчеты.

Запустите скрипт, парся по очереди отчеты по подбору фраз, поисковых подсказок и похожих/сленговых фраз (см. скрин):

Программа попросит залогиниться через gmail-аккаунт и запросит доступ на разрешение работы. Подтвердите запуск скрипта, минуя предупреждение о небезопасности.

Шаг 3. Через 30–60 секунд скрипт завершит работу и соберет ключевые слова в рамках заданных параметров.

Также в этом скрипте можно настроить фильтр по минус-словам и любые другие.

Итого мы сэкономили еще несколько часов работы seo-специалиста на сведении всех отчетов в один и сборе данных по каждому ключевому слову в интерфейсе.

Скрипты для работы по API могут писать ваши seo-специалисты, а можно найти официальные в открытом доступе .

Выводы

Максимально ускоряют сбор семантического ядра без потери качества такие действия:

  1. Кластеризация с помощью специальных сервисов.
  2. Парсинг ключевых слов, подсказок и сленговых выражений по API seo-платформ.

(11 )

В этом посте мы расскажем полный алгоритм сбора семантического ядра преимущественно для информационного сайта, но данный подход можно применять и для коммерческих сайтов.

Первоначальная семантика и создание структуры сайта

Подготовка слов для парсинга и первоначальная структура сайта

Перед тем как начать парсить слова, нам надо знать их. Поэтому нам надо составить первоначальную структуру нашего сайта и начальные слова для парсинга (их еще называют маркерами).

Первоначальную структуру и слова вы можете посмотреть:

1. Используя логику, слова из головы (если вы понимаете в теме).
2. У своих конкурентов, которых вы проанализировали при выборе ниш или введя ваш основной запрос.
3. Из википедии. Обычно это выглядит вот так:

4. Смотрим wordstat по вашим основным запросам и правую колонку.
5. Другие тематические книги и справочники.

Например, тема нашего сайта – болезни сердца. Понятно, что у нас в структуре обязательно должны быть все болезни сердца.

Вам не обойтись без медицинского справочника. Я бы не стал смотреть конкурентов, потому что у них могут быть представлены не все заболевания, скорее всего они не успели их охватить.

И ваши начальные слова для парсинга будут именно все болезни сердца, а уже исходя из ключей, которые мы напарсим, вы будете строить структуру сайта, когда начнете их группировать.

К тому же вы можете взять все препараты для лечения сердца, как расширение темы и т.д. Вы смотрите википедию, рубрики у конкурентов на сайте, wordstat, думаете логически и таким способом находите еще маркерные слова, которые будете парсить.

Структура сайта

Вы можете смотреть конкурентов для общего ознакомления, но не всегда вы должны делать структуру как у них. Вы должны исходить в большей степени из логики вашей целевой аудитории, они же вводят запросы, которые вы парсите у поисковиков.

Например, как поступить? Перечислить все болезни сердца, а от них уже вести симптомы, лечение. Или все-таки сделать рубрики симптомы, лечение, а от них уже вести болезни. Эти вопросы обычно решаются при группировке ключевых слов исходя из данных поисковых систем. Но не всегда, иногда вам придется делать выбор самостоятельно и решать, как сделать структуру наилучшей, потому что запросы могут пересекаться.

Вы должны всегда помнить, что структура создается на протяжении всего сбора семантики и иногда в первоначальном виде она состоит из нескольких рубрик, а уже при дальнейшей группировке и сборе она расширяется, так как вы начинаете видеть запросы и логику. А иногда вы сможете её составить и сразу не парся ключевые слова, потому что знаете хорошо тематику или она отлично представлена у конкурентов. Никакой системы по составлению структуры сайта нет, можно сказать это лично ваше творчество.

Структура может быть вашей индивидуальной (отличающейся от конкурентов), но обязательно она должна быть удобной для людей, отвечать их логике, а значит логике и поисковых систем и такой, чтобы можно было охватить все тематические слова в вашей нише. Она должна быть лучшей и удобной!

Думайте наперед. Бывает такое что берете нишу, а потом вам охота ее расширить, и вы начинаете менять структуру всего сайта. А созданную структуру на сайте, очень сложно и муторно менять. В идеале вам надо будет поменять урлы вложения и все это переклеить на самом сайте. Короче, это жесть какая нудная и очень ответственная работа, так что сразу определяйтесь окончательно по мужски, что и как у вас должно быть!

Если вы очень плохо знакомы с тематикой создаваемого сайта и не знаете, как будет строиться структура, не знаете какие начальные слова для парсинга взять, то 1 и 2 этап сбора вы можете менять местами. То есть сначала пропарсить конкурентов (как их парсить разберем ниже), посмотреть их ключи, на основе этого составить структуру и начальные слова для парсинга, а потом уже парсить wordstat, подсказки и т.д.

Для составления структуры я использую майнд менеджер - Xmind . Он бесплатен и в нем есть все основное.

Простенькая структура выглядит вот так:


Это структура коммерческого сайта. Обычно в информационных сайтах нет пересечений и всяких фильтров карточек товаров. Но и эта структура не сложная, составлялась для клиента, чтобы он понял. Обычно мои структуры состоят из множество стрелок и пересечений, комментариев - в такой структуре могу разобраться только я сам.

Можно ли создавать семантику по ходу наполнения сайта?

Если семантика легкая, вы уверены в теме и знаете её, то можно делать семантику параллельно с наполнением сайта. Но первоначальную структуру надо накидать обязательно. Я сам иногда такое практикую в очень узких нишах или в очень широких, чтобы не тратить много времени на сбор семантики, а сразу запускать сайт, но всё-таки не советовал бы так делать. Вероятность ошибок очень большая, если у вас нет опыта. Все-таки легче, когда вся семантика готова, вся структура готова и все разгруппировано и понятно. К тому же в готовой семантике вы видите каким ключам надо уделить первостепенное внимание, которые не имеют конкуренцию и принесут больше посетителей.

Еще здесь надо отталкивать от размера сайта, если ниша широкая, то нет смысла собирать семантику, лучше ее делать по ходу, потому что на сбор семантике может уйти месяц и более.

Так вот мы накидали первоначально структуру или не накидали, решили идти вторым этапом. У нас есть список начальных слов или фраз нашей тематики, которые мы можем начать парсить.

Парсинг и работа в keycollector

Для парсинга конечно же использую keycollector . Я не буду останавливаться на настройке keycollectora, вы можете почитать хелп этой программы или найти статьи по настройке в интернете, их очень много и там все подробно расписано.

При выборе источников парсинга стоит рассчитывать свои трудозатраты и их эффективность. Например, если вы будете парсить базу Пастухова или MOAB, то вы закапаетесь в куче мусорных запросов, которые надо будет отсеивать, а это время. И по моему мнению, это того не стоит, чтобы найти парочку каких-то запросиков. На тему баз есть очень интересное исследование от RushAnalytics, конечно же они там хвалят себя, но если на это не обращать внимание, весьма интересные данные по процентам плохих ключевых слов http://www.rush-analytics.ru/blog/analytica-istochnikov-semantiki

На первом этапе я парщу wordstat, adwords, их подсказки и использую базу ключевых слов Букварикс (десктопная версия бесплатна). Так же раньше просматривал подсказки из Youtube вручную. Но недавно keycollector добавил возможность их парсить, и это прелестно. Если вы полный извращенец, то можете сюда добавить другие базы ключевых слов.

Запускаете парсинг и понеслось.

Чистка семантического ядра для информационного сайта

Мы спарсили запросы и у нас получился список различных слов. В нем конечно же присутствуют нужные слова, а так же и мусорные – пустые, не тематические, не актуальные и т.д. Поэтому их надо почистить.

Ненужные слова я не удаляю, а перемещаю их в группы, потому что:

  1. Они в дальнейшем могут стать пищей для размышления и приобрести актуальность.
  2. Исключаем вероятность случайного удаления слов.
  3. При парсинге или добавление новых фраз, они не будут добавляться, если поставить галочку.


Я иногда забывал её ставить, поэтому настраиваю парсинг в одной группе и парсю ключи только в ней, чтобы сбор не дублировался:


Вы можете работать так или так, кому как удобно.

Сбор частотностей

Собираем у всех слов через direct, базовую частотность [W] и точную [“!W”].


Все что не собралось, дособираем через wordstat.

Чистка однословников и не формат

Фильтруем по однословникам, смотрим их и убираем не нужные. Есть такие однословники по которым нет смысла продвигаться, они не однозначные или дублируют другой однословный запрос.


Например, у нас тематика - болезни сердца. По слову “сердце” нет смысла продвигаться, не понятно, что человек имеет ввиду - это слишком широкий и неоднозначный запрос.

Так же смотрим, по каким словам не собралась частотность – это либо в словах содержатся спец символы, либо слов в запросе более 7. Переносим их в неформат. Малая вероятность что такие запросы вводят люди.

Чистка по общей и точной частотности

Все слова с общей частотностью [W] от 0 до 1 убираем.

Так же убираю и все от 0 до 1 по точной частотностью [”!W”].

Разношу их по разным группам.

В дальнейшем в этих словах можно найти нормальные логические ключевые слова. Если ядро маленькое, то можно сразу вручную все слова с нулевой частотностью пересмотреть и оставить, которые как вам кажется вводят люди. Это поможет охватить тематику полностью и возможно, по таким словам будут переходить люди. Но естественно эти слова надо использовать в последнюю очередь, потому что по ним большого трафика точно не будет.

Значение от 0 до 1 тоже берется исходя от тематики, если ключевых слов много, то можно фильтровать и от 0 до 10. То есть все зависит от широты вашей тематики и ваших предпочтений.

Чистка по полноте охвата

Теория здесь такова: например, есть слово – “форум”, его базовая частотность составляет 8 136 416, а точная частотность 24 377, как видим отличие более чем в 300 раз. Поэтому можно предположить, что данный запрос пустой, он включает очень много хвостов.

Поэтому, по всем словам, я рассчитываю, такое KEI:

Точная частотность / Базовая частотность * 100% = полнота охвата

Чем меньше процент, тем больше вероятность что слово пустое.

В KeyCollector эта формула выглядит вот так:

YandexWordstatQuotePointFreq / (YandexWordstatBaseFreq+0.01) * 100

Здесь тоже все зависит от тематики и количества фраз в ядре, поэтому можно убирать полноту охвата меньше 5%. А где ядро большое то можно не брать и 10-30%.

Чистка по неявным дублям

Чтобы почистить неявные дубли, нам необходимо по ним собрать частотность Adwords и ориентироваться по ней, потому что она учитывает порядок слов. Экономим ресурсы, поэтому будем собирать этот показатель не у всего ядра, а только у дублей.


Таким способом мы нашли и отметили все не явные дубли. Закрываем вкладку - Анализ неявных дублей. Они у нас отметились в рабочей группе. Теперь отобразим только их, потому что съем параметров происходит только тех фраз, которые у нас показаны в группе на данный момент. И только потом запускаем парсинг.


Ждем, когда Adwords снимет показатели и заходим в анализ неявных дублей.


Выставляем вот такие параметры умной групповой отметки и нажимаем – выполнить умную проверку. Таким способом у нас в группе дублей не отметятся только самые высокочастотные запросы по Adwords.

Все дубли лучше конечно еще пробежаться и глянуть вручную, вдруг там что-то выставилось не так. Особенно уделить внимание группам, где нет показателей частотности, там дубли отмечаются случайно.

Все что вы отмечаете в анализе неявных группах, это проставляется и в рабочей группе. Так что после завершения анализа, просто закрываете вкладку и переносите все отмеченные неявные дубли в соответствующую папку.

Чистка по стоп словам

Стоп слова я тоже делю на группы. Отдельно заношу города. Они могут пригодится в дальнейшем, если мы надумаем делать каталог организаций.

Отдельно заношу слова содержащие в себе слова фото, видео. Вдруг они когда-нибудь пригодятся.

А так же, “витальные запросы”, например википедия, отношу сюда и форум, а так же в мед теме сюда могут относится – малышева, комаров и т.д.

Все так же зависит от тематики. Можно еще делать отдельно и коммерческие запросы – цена, купить, магазин.

Получается вот такой список групп по стоп словам:

Чистка накрученных слов

Это касается конкурентных тематик, их частенько накручивают конкуренты, чтобы ввести вас в заблуждение. Поэтому необходимо собрать сезонность и отсеять все слова с медианой равной 0.

А так же, можно глянуть соотношение базовой частотности к средней, большая разница может тоже указывать на накрутку запроса.

Но надо понимать, что эти показатели могут говорить и о том, что это новые слова по которым только недавно появилась статистика или они просто сезонные.

Чистка по гео

Обычно проверка по гео для информационных сайтов не требуется, но на всякий случай распишу этот момент.

Если есть сомнения, что часть запросов геозависимые, то лучше это проверить через сбор Rookee, он хоть бывает и ошибается, но намного реже чем проверка этого параметра по Яндексу. Потом после сбора Rookee стоит проверить все слова вручную, которые указались как геозависимые.

Ручная чистка

Теперь наше ядро стало в несколько раз меньше. Пересматриваем его в ручную и убираем ненужные фразы.

На выходе получаем вот такие группы нашего ядра:

Желтый - стоит покопаться, можно найти слова на будущее.

Оранжевый - могут пригодиться, если будем расширять сайт новыми сервисами.

Красный - не пригодятся.

Анализ конкуренции запросов для информационных сайтов

Собрав запросы и почистив их теперь нам надо проверить их конкуренцию, чтобы понимать в дальнейшем - какими запросами надо заниматься в первую очередь.

Конкуренция по количеству документов, title, главных страниц

Это все легко снимается через KEI в KeyCollector.


Получаем данные по каждому запросу, сколько документов найдено в поисковой системе, в нашем пример в Яндексе. Сколько главных страниц в выдаче по этому запросу и вхождений запроса в заголовок.

В интернете можно встретить различные формулы расчета этих показателей, даже вроде в свежем установленном KeyCollector по стандарту встроена какая-то формула расчета KEI. Но я им не следую, потому что надо понимать что каждый из этих факторов имеет разный вес. Например, самый главный, это наличие главных страниц в выдаче, потом уже заголовки и количество документов. Навряд ли эту важность факторов, как то можно учесть в формуле и если все-таки можно то без математика не обойтись, но тогда уже эта формула не сможет вписаться в возможности KeyCollector.

Конкуренция по биржам ссылок

Здесь уже интереснее. У каждой биржи свои алгоритмы расчета конкуренции и можно предположить, что они учитывают не только наличие главных страниц в выдаче, но и возраст страниц, ссылочную массу и другие параметры. В основном эти биржи конечно же рассчитаны на коммерческие запросы, но все равно более менее какие то выводы можно сделать и по информационным запросам.

Собираем данные по биржам и выводим средние показатели и уже ориентируемся по ним.


Я обычно собираю по 2-3 биржам. Главное чтобы все запросы были собраны по одним и тем же биржам и выведено среднее число только по ним. А не так, что какие то запросы собрали одними биржами, а другие другими и вывели среднее.

Для более наглядного вида можно применить формулу KEI, которая покажет стоимость одного посетителя исходя из параметров бирж:

KEI = AverageBudget / (AverageTraffic +0.01)

Средний бюджет по биржам делить на средний прогноз трафика по биржам, получаем стоимость одного посетителя исходя из данных бирж.

Конкуренция по мутаген

Его нет в keycollector, но это не помеха. Без проблем все слова можно выгрузить в Excel, а потом прогнать через KeyCollector.

Чем же лучше Keyso? У него больше база по сравнению с конкурентами. Она у него чистая, нет фраз которые дублируются и пишутся в разном порядке. Например, вы не найдете там таких повторяющихся ключей “диабет 1 типа”, “1 типа диабет”.

Так же Keyso умеет палить сайты с одним счетчиком Adsense, Analytics, Leadia и др. Вы можете увидеть какие еще есть сайты, у владельца анализируемого сайта. Да, и вообще по поиску сайтов конкурентов, считаю это лучшее решение.

Как работать с Keyso?

Берем один любой сайт своего конкурента, лучше конечно побольше, но не особо критично. Потому что мы будем работать в две итерации.Вводим его в поле. Жмакаем - анализировать.

Получаем информацию по сайту, нам здесь интересны конкуренты, жмем открыть всех.


У нас открываются все конкуренты.


Это все сайты, у которых хоть как-то пересекаются ключевые слова с нашим анализируемым сайтом. Здесь будет youtube.com, otvet.mail.ru и т.д., то есть крупные порталы, которые пишут обо всем подряд. Нам они не нужны, нам нужны сайты чисто только по нашей тематике. Поэтому мы их фильтруем по следующим критериям.

Похожесть – процент общих ключей от общего числа данного домена.

Тематичность – количество ключей нашего анализируемого сайта в ключах домена конкурента.

Поэтому пересечение этих параметров уберет общие сайты.

Ставим тематичность 10, похожесть 4 и смотрим, что у нас получится.

Получилось 37 конкурентов. Но все равно еще их проверим вручную, выгрузим в Excel и если надо уберем не нужные.


Теперь переходим на вкладку групповой отчет и вводим всех наших конкурентов, которых мы нашли выше. Жмем – анализировать.

Получаем список ключевых слов этих всех сайтов. Но мы еще полностью не раскрыли тематику. Поэтому мы переходим в конкуренты группы.

И теперь мы получаем всех конкурентов, тех всех сайтов которые мы ввели. Их в несколько раз больше и здесь так же много общетематических. Фильтруем их по похожести, допустим 30.

Получаем 841 конкурента.


Здесь мы можем посмотреть, сколько страниц у этого сайта, трафика и сделать выводы, какой же конкурент самый эффективный.

Экспортируем всех их в Excel. Перебираем руками и оставляем только конкурентов нашей ниши, можно отметить самых эффективных товарищей, чтобы потом оценить их и глянуть какие у них есть фишки на сайт, запросы дающие много трафика.

Теперь мы опять заходим в групповой отчет и добавляем уже всех найденных конкурентов и получаем список ключевых слов.

Здесь мы можем список сразу фильтрануть по “!wordstat” Больше 10.


Вот они наши запросы, теперь мы можем их добавить в KeyCollector и указать, чтобы не добавлялись фразы, которые есть уже в любой другой группе KeyCollector.

Теперь мы чистим наши ключи, и расширяем, группируем наше семантическое ядро.

Услуги по сбору семантического ядра

В данной отрасли можно найти не мало организаций, которые готовы предложить вам услуги по кластеризации. Например, если вы не готовы тратить время на то, чтобы самостоятельно изучить тонкости кластеризации и выполнить ее собственными руками, то можно найти множество специалистов, готовых выполнить эту работу.

Yadrex

Одна из первых на рынке, кто начал использовать искусственный интеллект для создания сематического ядра. Руководитель компании сам профессиональный вебмастер и специалист по SEO технологиям, поэтому он гарантирует качество работы своих сотрудников.

Кроме того, вы можете позвонить по указанным телефонам, чтобы получить ответы на все интересующие вас вопросы относительно работы.

Заказывая услуги, вы получите файл, где будут указаны группы содержания ядра и его структура. Дополнительно вы получаете структуру в mindmup.

Стоимость работы варьируется в зависимости от объема, чем больше объем работы, тем дешевле стоимость одного ключа. Максимальная стоимость для информационного проекта будет 2,9 рублей за один ключ. Для продающего 4,9 рублей за ключ. При большом заказе предоставляются скидки и бонусы.

Заключение

На этом создание семантического ядра для информационного сайта завершено.

Советую вам мониторить историю изменений программы KeyCollector, потому что она постоянно дополняется новыми инструментами, например недавно был добавлен youtube для парсинга. С помощью новых инструментов, вы можете ещё больше расширить свое семантическое ядро.

Семантическое ядро (сокращенно СЯ) - это определенный список ключевых слов, которые максимально описывают тематику сайта.

Зачем нужно составлять семантическое ядро сайта

  • семантическое ядро характеризует , именно благодаря ему индексирующие страницу роботы определяют не только естественность текста, но и тематику, чтобы внести страницу в соответствующий поисковый раздел. Очевидно, что роботы работают на полной автономии после введения адреса страницы сайта в базу поисковых ресурсов;
  • грамотно составленное ся является смысловой основой сайта и отражает подходящую структуру для сео-продвижения;
  • каждая страница сайта, соответственно, привязывается к определенной части СЯ веб-ресурса;
  • благодаря семантическому ядру формируется стратегия продвижения в поисковиках;
  • по семантическому ядру можно оценить во сколько обойдется продвижение.

Основные правила составления семантического ядра

    Чтобы собрать СЯ, потребуется собрать наборы ключевых слов. В этом отношении нужно оценивать свои силы относительно продвижения по высоко- и среднечастотным запросам. Если требуется получить максимум посетителей при наличии бюджета, нужно использовать высоко- и среднечастотные запросы. Если наоборот, то средне- и низкочастотные запросы.

    Даже при наличии высокого бюджета нет смысла продвигать сайт только по высокочастотным запросам. Часто такие запросы имеют слишком общий характер и неконкретизированную смысловую нагрузку, например «слушать музыку», «новости», «спорт».

При выборе поисковых запросов анализируют множество показателей, которые соответствуют поисковому словосочетанию:

  • количество показов (частота);
  • количество показов без морфологического изменений и словосочетаний;
  • страницы, которые выдаются поисковой системой при введении поискового запроса;
  • страницы в поисковом ТОП-е по ключевым запросам;
  • оценка стоимости продвижения по запросу;
  • конкурентность ключевых слов;
  • прогнозируемое количество переходов;
  • показатель отказов (закрытие сайта после перехода по ссылке) и сезонность услуги;
  • геозависимость ключевого слова (географическое расположение компании и ее клиентов).

Как можно собрать семантическое ядро

На практике подбор семантического ядра можно провести следующими методами:

    Источником ключевых слов для семантического ядра могут стать сайты конкурентов. Именно здесь можно быстро подобрать ключевые слова, а также определить частотность их «окружения» с помощью семантического анализа. Для этого потребуется сделать семантическую оценку страницы текста, наиболее упоминаемые слова составляют морфологическое ядро;

    Рекомендуем сформировать собственное семантическое ядро на базе статистики специальных сервисов. Воспользуйтесь, например, Wordstat Yandex – статистической системой поисковой системы Yandex. Здесь можно посмотреть частотность поискового запроса, а также узнать, что пользователи ищут вместе с этим ключевым словом;

    «Подсказки» систем появляются при попытке введения поисковой фразы в интерактивную строку. Эти слова и словосочетания могут также войти в СЯ как связные;

    Источником ключевых слов для СЯ могут стать закрытые базы данных поисковых запросов, например, база Пастухова. Это специальные массивы данных, содержащие информацию об эффективных сочетаниях поисковых запросов;

    Внутренняя статистика сайта также может стать источником данных об интересующих пользователя поисковых запросах. Она содержит информацию об источнике и знает, откуда пришел читатель, сколько страниц просмотрел и с какого браузера он заходил.

Бесплатные инструменты для составления семантического ядра:

Yandex.Wordstat - популярный бесплатный инструмент, используемый при составлении семантического ядра. С помощью сервиса можно узнать, какое количество раз посетители ввели в поисковую систему Yandex определенный запрос. Предоставляет возможность проанализировать динамику спроса на данный запрос по месяцам.

Google AdWords относится к числу наиболее используемых систем для оставления семантического ядра сайта. С помощью планировщика ключевых слов от Гугла можно просчитать и составить прогноз показов конкретных запросов в дальнейшем.

Яндекс.Директ многие разработчики используют для подбора максимально выгодные ключевые слова. Если в дальнейшем на сайте планируется размещение рекламных объявлений, то владелец ресурса при таком подходе получит неплохую прибыль.

Словоеб - младший брат Кей Коллектора, который применяется для составления семантического ядра сайта. За основу берутся данные из Яндекса. Из преимуществ можно отметить интуитивно понятный интерфейс, а также доступность не только для профессионалов, но и для новичков, которые только начинают заниматься SEO аналитикой.

Платные инструменты для составления семантического ядра:

Базы Пастухова по мнению многих специалистов не имеют конкурентов. В базе отображаются такие запросы, которые не показывает ни Гугл, ни Яндекс. Существует много других особенностей, присущих именно базам Макса Пастухова, среди которых можно отметить удобную программную оболочку.

SpyWords - интересный инструмент, позволяющий анализировать ключевые слова конкурентов. С его помощью можно провести сравнительный анализ семантических ядер интересующих ресурсов, а также получить все данные о РРС и SEO компаниях конкурентов. Ресурс русскоязычный, разобраться с его функционалом не составит никаких проблем.

Платная программа, созданная специально для профессионалов. Помогает составлять семантическое ядро, определяя актуальные запросы. Используется для оценки стоимости продвижения ресурса по интересующим ключевым словам. Помимо высокого уровня эффективности, данная программа выгодно отличается удобством в использовании.

SEMrush позволяет на основании данных с конкурирующих ресурсов определить наиболее результативные ключевые слова. С его помощью можно подобрать низкочастотные запросы, характеризующиеся высоким уровнем трафика. Как показывает практика, по таким запросам очень легко продвинуть ресурс на первые позиции выдачи.

SeoLib - сервис, завоевавший доверие со стороны оптимизаторов. Обладает достаточно большим функционалом. Позволяет грамотно составить семантическое ядро, а также выполнить необходимые аналитические мероприятия. В бесплатном режиме можно проанализировать 25 запросов в сутки.

Prodvigator позволяет собрать первичное семантическое ядро буквально за несколько минут. Это сервис используемый главным образом для анализа конкурирующих сайтов, а также для подбора наиболее результативных ключевых запросов. Анализ слов выбирается для Google по России или для Яндекса по Московскому региону.

Семантическое ядро собирается достаточно быстро, если использовать источники и базы данных в качестве подсказки.

Следует выделить следующие процессы

Согласно содержанию сайта и релевантных тем выбираются ключевые запросы, которые наиболее точно отражают смысловую нагрузку вашего веб-портала.
- Из выбранного набора отсеиваются лишние, возможно, те запросы, которые могут ухудшить индексацию ресурса. Фильтрация ключевых слов проводится на основании результатов анализа, описанного выше.
- Полученное семантическое ядро должно быть равномерно распределено между страницами сайта, при необходимости заказываются тексты с определенной тематикой и объемом вхождения ключевых слов.

Пример сбора семантического ядра с помощью сервиса Wordstat Yandex

Например, вы продвигаете салон ногтевого сервиса в Москве.

Думаем и подбираем всевозможные слова, которые подходят теме сайта.

Деятельность компании

  • салон маникюра;
  • салон ногтевого сервиса;
  • студия ногтевого сервиса;
  • студия маникюра;
  • студия педикюра;
  • студия ногтевого дизайна.

Общее название услуг

Педикюр;
- маникюр;
- наращивание ногтей.

Теперь заходим на сервис Яндекса и вводим каждый запрос, предварительно выбрав регион, по которому собираемся продвигаться.

Копируем все слова в Excel из левой колонки, плюс вспомогательные фразы из правой.

Удаляем лишние слова, которые не подходят под тематику. Ниже красным выделены слова, которые подходят.

Цифра 2320 запросов показывает, сколько раз люди набирали этот запрос не только в чистом виде, но и в составе других словосочетаний. Например: маникюр и цена в москве, цена на маникюр и педикюр в москве и т.д.

Если ввести наш запрос в кавычках, то здесь уже будет другая цифра, где учитываются словоформы ключевой фразы. например: маникюр цены, маникюр цену и т.д.

Если ввести тот же запрос запрос в кавычках с восклицательными знаками, то увидим сколько раз пользователи набирали запрос именно "маникюр цена".

Далее делаем разбивку полученного списка слов по страницам сайта. Так, например, высокочастотные запросы мы оставим на главной странице и на основных разделах сайта, такие как: маникюр, студия ногтевого сервиса, наращивание ногтей. Средне- и низкочастотные распределим по остальным страницам, например: маникюр и педикюр цены, наращивание ногтей гелем дизайн. Слова также должны быть разделены на группы по смыслу.

  • Главная страница - студия, салон ногтевого сервиса и т.д.
  • 3 раздела - педикюр, маникюр, цены на маникюр и педикюр.
  • Страницы - наращивание ногтей, аппаратный педикюр и т.д.

Какие ошибки можно допустить при составлении СЯ

При составлении семантического ядра никто не застрахован от ошибок. К наиболее распространенным относятся следующие:

  1. Всегда есть опасность выбора неэффективных запросов, которые дают минимальное количество посетителей.
  2. При повторной раскрутке сайта не стоит менять полностью контент, размещенный на сайте. В противном случае будут обнулены все предыдущие параметры, в том числе, ранжирование в поисковой выдаче.
  3. Не стоит использовать некорректные для русского языка запросы, поисковые роботы уже хорошо определяют такие запросы и при «спаме» ключевыми словами убирают страницу из поиска.

Желаем удачи в продвижении вашего сайта!

Быстрая навигация по этой странице:

Как и практически все другие вебмастеры, я составляю семантическое ядро с помощью программы KeyCollector — это безусловно лучшая программа для составления семантического ядра. Как ей пользоваться — это тема для отдельной статьи, хотя и в Интернете полно информации на этот счет — рекомендую, к примеру, мануал от Дмитрия Сидаша (sidash.ru).

Поскольку поставлен вопрос о примере составления ядра — привожу пример.

Список ключей

Предположим, у нас сайт посвящен британским кошкам. Вбиваю в «Список фраз» словосочетание «британская кошка» и нажимаю на кнопку «Парсить».

Получаю длинный список фраз, который будет начинаться со следующих фраз (приведена фраза и частнотность):

Британские кошки 75553 британские кошки фото 12421 британская вислоухая кошка 7273 питомник британских кошек 5545 кошки британской породы 4763 британская короткошерстная кошка 3571 окрасы британских кошек 3474 британские кошки цена 2461 кошка голубая британская 2302 британская вислоухая кошка фото 2224 вязка британских кошек 1888 британские кошки характер 1394 куплю британскую кошку 1179 британские кошки купить 1179 длинношерстная британская кошка 1083 беременность британской кошки 974 кошка британская шиншилла 969 кошки британской породы фото 953 питомник британских кошек москва 886 окрас британских кошек фото 882 британские кошки уход 855 британская короткошерстная кошка фото 840 шотландские и британские кошки 763 имена британских кошек 762 кошка британская голубая фото 723 фото британской голубой кошки 723 британская кошка черная 699 чем кормить британских кошек 678

Сам список намного больше, я только привел его начало.

Группировка ключей

Исходя из этого списка, у меня на сайте будут статьи про разновидности кошек (вислоухая, голубая, короткошерстная, длинношерстная), будет статья про беременность этих животных, про то, чем их кормить, про имена и так далее по списку.

Под каждую статью берется один основной такой запрос (=тема статьи). Впрочем, только одним запросом статья не исчерпывается — в нее также добавляются другие подходящие по смыслу запросы, а также разные вариации и словоформы основного запроса, которые можно найти в Кей Коллекторе ниже по списку.

Например, со словом «вислоухая» имеются следующие ключи:

Британская вислоухая кошка 7273 британская вислоухая кошка фото 2224 британская вислоухая кошка цена 513 порода кошек британская вислоухая 418 британская голубая вислоухая кошка 224 шотландские вислоухие и британские кошки 190 кошки британской породы вислоухие фото 169 британская вислоухая кошка фото цена 160 британская вислоухая кошка купить 156 британская вислоухая голубая кошка фото 129 британские вислоухие кошки характер 112 британская вислоухая кошка уход 112 вязка британских вислоухих кошек 98 британская короткошерстная вислоухая кошка 83 окрас британских вислоухих кошек 79

Чтобы не было переспама (а переспам может быть и по совокупности использования слишком большого количества ключей в тексте, в заголовке, в и т.д.), я бы не стал брать их все с включением основного запроса, но отдельные слова из них имеет смысл употребить в статье (фото, купить, характер, уход и т.д.) для того, чтобы статья лучше ранжировалась по большому количеству низко-частотных запросов.

Таким образом, у нас под статью про вислоухих кошек сформируется группа ключевых слов, которые мы употребим в статье. Точно также сформируются и группы ключевиков под другие статьи — вот и ответ на вопрос о том, как создать семантическое ядро сайта.

Частотность и конкуренция

Еще есть немаловажный момент, связанный с точной частотностью и конкуренцией — их обязательно нужно собрать в Key Collector. Для этого нужно выделить все запросы галочками и на вкладке «Частотности Yandex.Wordstat» нажать кнопку «Собрать частотности «!» — будет показана точная частнотность каждой фразы (т.е. именно с таким порядком слов и в таком падеже), это намного более точный показатель, чем общая частотность.

Для проверки конкуренции в том же Key Collector нужно нажать кнопку «Получить данные для ПС Яндекс» (или для Google), далее нажать «Рассчитать KEI по имеющимся данным». В результате программа соберет, сколько главных страниц по данному запросу находится в ТОП-10 (чем больше — тем сложнее туда пробиться) и сколько страниц в ТОП-10 содержат такой title (аналогично, чем больше — тем сложнее пробиться в топ).

Дальше нужно действовать исходя из того, какая у нас стратегия. Если мы хотим создать всеобъемлющий сайт про кошек, то нам не так важна точная частотность и конкуренция. Если же нам нужно только опубликовать несколько статей — то берем запросы, у которых самая высокая частотность и при этом самая низкая конкуренция, и на их основании пишем статьи.