Домой /  Интернет / Семантическое ядро для главной страницы. Как составить семантическое ядро для интернет-магазина: пошаговая инструкция. I. Очистить от «мусора», дублей и «пустышек»

Семантическое ядро для главной страницы. Как составить семантическое ядро для интернет-магазина: пошаговая инструкция. I. Очистить от «мусора», дублей и «пустышек»

(11 )

В этом посте мы расскажем полный алгоритм сбора семантического ядра преимущественно для информационного сайта, но данный подход можно применять и для коммерческих сайтов.

Первоначальная семантика и создание структуры сайта

Подготовка слов для парсинга и первоначальная структура сайта

Перед тем как начать парсить слова, нам надо знать их. Поэтому нам надо составить первоначальную структуру нашего сайта и начальные слова для парсинга (их еще называют маркерами).

Первоначальную структуру и слова вы можете посмотреть:

1. Используя логику, слова из головы (если вы понимаете в теме).
2. У своих конкурентов, которых вы проанализировали при выборе ниш или введя ваш основной запрос.
3. Из википедии. Обычно это выглядит вот так:

4. Смотрим wordstat по вашим основным запросам и правую колонку.
5. Другие тематические книги и справочники.

Например, тема нашего сайта – болезни сердца. Понятно, что у нас в структуре обязательно должны быть все болезни сердца.

Вам не обойтись без медицинского справочника. Я бы не стал смотреть конкурентов, потому что у них могут быть представлены не все заболевания, скорее всего они не успели их охватить.

И ваши начальные слова для парсинга будут именно все болезни сердца, а уже исходя из ключей, которые мы напарсим, вы будете строить структуру сайта, когда начнете их группировать.

К тому же вы можете взять все препараты для лечения сердца, как расширение темы и т.д. Вы смотрите википедию, рубрики у конкурентов на сайте, wordstat, думаете логически и таким способом находите еще маркерные слова, которые будете парсить.

Структура сайта

Вы можете смотреть конкурентов для общего ознакомления, но не всегда вы должны делать структуру как у них. Вы должны исходить в большей степени из логики вашей целевой аудитории, они же вводят запросы, которые вы парсите у поисковиков.

Например, как поступить? Перечислить все болезни сердца, а от них уже вести симптомы, лечение. Или все-таки сделать рубрики симптомы, лечение, а от них уже вести болезни. Эти вопросы обычно решаются при группировке ключевых слов исходя из данных поисковых систем. Но не всегда, иногда вам придется делать выбор самостоятельно и решать, как сделать структуру наилучшей, потому что запросы могут пересекаться.

Вы должны всегда помнить, что структура создается на протяжении всего сбора семантики и иногда в первоначальном виде она состоит из нескольких рубрик, а уже при дальнейшей группировке и сборе она расширяется, так как вы начинаете видеть запросы и логику. А иногда вы сможете её составить и сразу не парся ключевые слова, потому что знаете хорошо тематику или она отлично представлена у конкурентов. Никакой системы по составлению структуры сайта нет, можно сказать это лично ваше творчество.

Структура может быть вашей индивидуальной (отличающейся от конкурентов), но обязательно она должна быть удобной для людей, отвечать их логике, а значит логике и поисковых систем и такой, чтобы можно было охватить все тематические слова в вашей нише. Она должна быть лучшей и удобной!

Думайте наперед. Бывает такое что берете нишу, а потом вам охота ее расширить, и вы начинаете менять структуру всего сайта. А созданную структуру на сайте, очень сложно и муторно менять. В идеале вам надо будет поменять урлы вложения и все это переклеить на самом сайте. Короче, это жесть какая нудная и очень ответственная работа, так что сразу определяйтесь окончательно по мужски, что и как у вас должно быть!

Если вы очень плохо знакомы с тематикой создаваемого сайта и не знаете, как будет строиться структура, не знаете какие начальные слова для парсинга взять, то 1 и 2 этап сбора вы можете менять местами. То есть сначала пропарсить конкурентов (как их парсить разберем ниже), посмотреть их ключи, на основе этого составить структуру и начальные слова для парсинга, а потом уже парсить wordstat, подсказки и т.д.

Для составления структуры я использую майнд менеджер - Xmind . Он бесплатен и в нем есть все основное.

Простенькая структура выглядит вот так:


Это структура коммерческого сайта. Обычно в информационных сайтах нет пересечений и всяких фильтров карточек товаров. Но и эта структура не сложная, составлялась для клиента, чтобы он понял. Обычно мои структуры состоят из множество стрелок и пересечений, комментариев - в такой структуре могу разобраться только я сам.

Можно ли создавать семантику по ходу наполнения сайта?

Если семантика легкая, вы уверены в теме и знаете её, то можно делать семантику параллельно с наполнением сайта. Но первоначальную структуру надо накидать обязательно. Я сам иногда такое практикую в очень узких нишах или в очень широких, чтобы не тратить много времени на сбор семантики, а сразу запускать сайт, но всё-таки не советовал бы так делать. Вероятность ошибок очень большая, если у вас нет опыта. Все-таки легче, когда вся семантика готова, вся структура готова и все разгруппировано и понятно. К тому же в готовой семантике вы видите каким ключам надо уделить первостепенное внимание, которые не имеют конкуренцию и принесут больше посетителей.

Еще здесь надо отталкивать от размера сайта, если ниша широкая, то нет смысла собирать семантику, лучше ее делать по ходу, потому что на сбор семантике может уйти месяц и более.

Так вот мы накидали первоначально структуру или не накидали, решили идти вторым этапом. У нас есть список начальных слов или фраз нашей тематики, которые мы можем начать парсить.

Парсинг и работа в keycollector

Для парсинга конечно же использую keycollector . Я не буду останавливаться на настройке keycollectora, вы можете почитать хелп этой программы или найти статьи по настройке в интернете, их очень много и там все подробно расписано.

При выборе источников парсинга стоит рассчитывать свои трудозатраты и их эффективность. Например, если вы будете парсить базу Пастухова или MOAB, то вы закапаетесь в куче мусорных запросов, которые надо будет отсеивать, а это время. И по моему мнению, это того не стоит, чтобы найти парочку каких-то запросиков. На тему баз есть очень интересное исследование от RushAnalytics, конечно же они там хвалят себя, но если на это не обращать внимание, весьма интересные данные по процентам плохих ключевых слов http://www.rush-analytics.ru/blog/analytica-istochnikov-semantiki

На первом этапе я парщу wordstat, adwords, их подсказки и использую базу ключевых слов Букварикс (десктопная версия бесплатна). Так же раньше просматривал подсказки из Youtube вручную. Но недавно keycollector добавил возможность их парсить, и это прелестно. Если вы полный извращенец, то можете сюда добавить другие базы ключевых слов.

Запускаете парсинг и понеслось.

Чистка семантического ядра для информационного сайта

Мы спарсили запросы и у нас получился список различных слов. В нем конечно же присутствуют нужные слова, а так же и мусорные – пустые, не тематические, не актуальные и т.д. Поэтому их надо почистить.

Ненужные слова я не удаляю, а перемещаю их в группы, потому что:

  1. Они в дальнейшем могут стать пищей для размышления и приобрести актуальность.
  2. Исключаем вероятность случайного удаления слов.
  3. При парсинге или добавление новых фраз, они не будут добавляться, если поставить галочку.


Я иногда забывал её ставить, поэтому настраиваю парсинг в одной группе и парсю ключи только в ней, чтобы сбор не дублировался:


Вы можете работать так или так, кому как удобно.

Сбор частотностей

Собираем у всех слов через direct, базовую частотность [W] и точную [“!W”].


Все что не собралось, дособираем через wordstat.

Чистка однословников и не формат

Фильтруем по однословникам, смотрим их и убираем не нужные. Есть такие однословники по которым нет смысла продвигаться, они не однозначные или дублируют другой однословный запрос.


Например, у нас тематика - болезни сердца. По слову “сердце” нет смысла продвигаться, не понятно, что человек имеет ввиду - это слишком широкий и неоднозначный запрос.

Так же смотрим, по каким словам не собралась частотность – это либо в словах содержатся спец символы, либо слов в запросе более 7. Переносим их в неформат. Малая вероятность что такие запросы вводят люди.

Чистка по общей и точной частотности

Все слова с общей частотностью [W] от 0 до 1 убираем.

Так же убираю и все от 0 до 1 по точной частотностью [”!W”].

Разношу их по разным группам.

В дальнейшем в этих словах можно найти нормальные логические ключевые слова. Если ядро маленькое, то можно сразу вручную все слова с нулевой частотностью пересмотреть и оставить, которые как вам кажется вводят люди. Это поможет охватить тематику полностью и возможно, по таким словам будут переходить люди. Но естественно эти слова надо использовать в последнюю очередь, потому что по ним большого трафика точно не будет.

Значение от 0 до 1 тоже берется исходя от тематики, если ключевых слов много, то можно фильтровать и от 0 до 10. То есть все зависит от широты вашей тематики и ваших предпочтений.

Чистка по полноте охвата

Теория здесь такова: например, есть слово – “форум”, его базовая частотность составляет 8 136 416, а точная частотность 24 377, как видим отличие более чем в 300 раз. Поэтому можно предположить, что данный запрос пустой, он включает очень много хвостов.

Поэтому, по всем словам, я рассчитываю, такое KEI:

Точная частотность / Базовая частотность * 100% = полнота охвата

Чем меньше процент, тем больше вероятность что слово пустое.

В KeyCollector эта формула выглядит вот так:

YandexWordstatQuotePointFreq / (YandexWordstatBaseFreq+0.01) * 100

Здесь тоже все зависит от тематики и количества фраз в ядре, поэтому можно убирать полноту охвата меньше 5%. А где ядро большое то можно не брать и 10-30%.

Чистка по неявным дублям

Чтобы почистить неявные дубли, нам необходимо по ним собрать частотность Adwords и ориентироваться по ней, потому что она учитывает порядок слов. Экономим ресурсы, поэтому будем собирать этот показатель не у всего ядра, а только у дублей.


Таким способом мы нашли и отметили все не явные дубли. Закрываем вкладку - Анализ неявных дублей. Они у нас отметились в рабочей группе. Теперь отобразим только их, потому что съем параметров происходит только тех фраз, которые у нас показаны в группе на данный момент. И только потом запускаем парсинг.


Ждем, когда Adwords снимет показатели и заходим в анализ неявных дублей.


Выставляем вот такие параметры умной групповой отметки и нажимаем – выполнить умную проверку. Таким способом у нас в группе дублей не отметятся только самые высокочастотные запросы по Adwords.

Все дубли лучше конечно еще пробежаться и глянуть вручную, вдруг там что-то выставилось не так. Особенно уделить внимание группам, где нет показателей частотности, там дубли отмечаются случайно.

Все что вы отмечаете в анализе неявных группах, это проставляется и в рабочей группе. Так что после завершения анализа, просто закрываете вкладку и переносите все отмеченные неявные дубли в соответствующую папку.

Чистка по стоп словам

Стоп слова я тоже делю на группы. Отдельно заношу города. Они могут пригодится в дальнейшем, если мы надумаем делать каталог организаций.

Отдельно заношу слова содержащие в себе слова фото, видео. Вдруг они когда-нибудь пригодятся.

А так же, “витальные запросы”, например википедия, отношу сюда и форум, а так же в мед теме сюда могут относится – малышева, комаров и т.д.

Все так же зависит от тематики. Можно еще делать отдельно и коммерческие запросы – цена, купить, магазин.

Получается вот такой список групп по стоп словам:

Чистка накрученных слов

Это касается конкурентных тематик, их частенько накручивают конкуренты, чтобы ввести вас в заблуждение. Поэтому необходимо собрать сезонность и отсеять все слова с медианой равной 0.

А так же, можно глянуть соотношение базовой частотности к средней, большая разница может тоже указывать на накрутку запроса.

Но надо понимать, что эти показатели могут говорить и о том, что это новые слова по которым только недавно появилась статистика или они просто сезонные.

Чистка по гео

Обычно проверка по гео для информационных сайтов не требуется, но на всякий случай распишу этот момент.

Если есть сомнения, что часть запросов геозависимые, то лучше это проверить через сбор Rookee, он хоть бывает и ошибается, но намного реже чем проверка этого параметра по Яндексу. Потом после сбора Rookee стоит проверить все слова вручную, которые указались как геозависимые.

Ручная чистка

Теперь наше ядро стало в несколько раз меньше. Пересматриваем его в ручную и убираем ненужные фразы.

На выходе получаем вот такие группы нашего ядра:

Желтый - стоит покопаться, можно найти слова на будущее.

Оранжевый - могут пригодиться, если будем расширять сайт новыми сервисами.

Красный - не пригодятся.

Анализ конкуренции запросов для информационных сайтов

Собрав запросы и почистив их теперь нам надо проверить их конкуренцию, чтобы понимать в дальнейшем - какими запросами надо заниматься в первую очередь.

Конкуренция по количеству документов, title, главных страниц

Это все легко снимается через KEI в KeyCollector.


Получаем данные по каждому запросу, сколько документов найдено в поисковой системе, в нашем пример в Яндексе. Сколько главных страниц в выдаче по этому запросу и вхождений запроса в заголовок.

В интернете можно встретить различные формулы расчета этих показателей, даже вроде в свежем установленном KeyCollector по стандарту встроена какая-то формула расчета KEI. Но я им не следую, потому что надо понимать что каждый из этих факторов имеет разный вес. Например, самый главный, это наличие главных страниц в выдаче, потом уже заголовки и количество документов. Навряд ли эту важность факторов, как то можно учесть в формуле и если все-таки можно то без математика не обойтись, но тогда уже эта формула не сможет вписаться в возможности KeyCollector.

Конкуренция по биржам ссылок

Здесь уже интереснее. У каждой биржи свои алгоритмы расчета конкуренции и можно предположить, что они учитывают не только наличие главных страниц в выдаче, но и возраст страниц, ссылочную массу и другие параметры. В основном эти биржи конечно же рассчитаны на коммерческие запросы, но все равно более менее какие то выводы можно сделать и по информационным запросам.

Собираем данные по биржам и выводим средние показатели и уже ориентируемся по ним.


Я обычно собираю по 2-3 биржам. Главное чтобы все запросы были собраны по одним и тем же биржам и выведено среднее число только по ним. А не так, что какие то запросы собрали одними биржами, а другие другими и вывели среднее.

Для более наглядного вида можно применить формулу KEI, которая покажет стоимость одного посетителя исходя из параметров бирж:

KEI = AverageBudget / (AverageTraffic +0.01)

Средний бюджет по биржам делить на средний прогноз трафика по биржам, получаем стоимость одного посетителя исходя из данных бирж.

Конкуренция по мутаген

Его нет в keycollector, но это не помеха. Без проблем все слова можно выгрузить в Excel, а потом прогнать через KeyCollector.

Чем же лучше Keyso? У него больше база по сравнению с конкурентами. Она у него чистая, нет фраз которые дублируются и пишутся в разном порядке. Например, вы не найдете там таких повторяющихся ключей “диабет 1 типа”, “1 типа диабет”.

Так же Keyso умеет палить сайты с одним счетчиком Adsense, Analytics, Leadia и др. Вы можете увидеть какие еще есть сайты, у владельца анализируемого сайта. Да, и вообще по поиску сайтов конкурентов, считаю это лучшее решение.

Как работать с Keyso?

Берем один любой сайт своего конкурента, лучше конечно побольше, но не особо критично. Потому что мы будем работать в две итерации.Вводим его в поле. Жмакаем - анализировать.

Получаем информацию по сайту, нам здесь интересны конкуренты, жмем открыть всех.


У нас открываются все конкуренты.


Это все сайты, у которых хоть как-то пересекаются ключевые слова с нашим анализируемым сайтом. Здесь будет youtube.com, otvet.mail.ru и т.д., то есть крупные порталы, которые пишут обо всем подряд. Нам они не нужны, нам нужны сайты чисто только по нашей тематике. Поэтому мы их фильтруем по следующим критериям.

Похожесть – процент общих ключей от общего числа данного домена.

Тематичность – количество ключей нашего анализируемого сайта в ключах домена конкурента.

Поэтому пересечение этих параметров уберет общие сайты.

Ставим тематичность 10, похожесть 4 и смотрим, что у нас получится.

Получилось 37 конкурентов. Но все равно еще их проверим вручную, выгрузим в Excel и если надо уберем не нужные.


Теперь переходим на вкладку групповой отчет и вводим всех наших конкурентов, которых мы нашли выше. Жмем – анализировать.

Получаем список ключевых слов этих всех сайтов. Но мы еще полностью не раскрыли тематику. Поэтому мы переходим в конкуренты группы.

И теперь мы получаем всех конкурентов, тех всех сайтов которые мы ввели. Их в несколько раз больше и здесь так же много общетематических. Фильтруем их по похожести, допустим 30.

Получаем 841 конкурента.


Здесь мы можем посмотреть, сколько страниц у этого сайта, трафика и сделать выводы, какой же конкурент самый эффективный.

Экспортируем всех их в Excel. Перебираем руками и оставляем только конкурентов нашей ниши, можно отметить самых эффективных товарищей, чтобы потом оценить их и глянуть какие у них есть фишки на сайт, запросы дающие много трафика.

Теперь мы опять заходим в групповой отчет и добавляем уже всех найденных конкурентов и получаем список ключевых слов.

Здесь мы можем список сразу фильтрануть по “!wordstat” Больше 10.


Вот они наши запросы, теперь мы можем их добавить в KeyCollector и указать, чтобы не добавлялись фразы, которые есть уже в любой другой группе KeyCollector.

Теперь мы чистим наши ключи, и расширяем, группируем наше семантическое ядро.

Услуги по сбору семантического ядра

В данной отрасли можно найти не мало организаций, которые готовы предложить вам услуги по кластеризации. Например, если вы не готовы тратить время на то, чтобы самостоятельно изучить тонкости кластеризации и выполнить ее собственными руками, то можно найти множество специалистов, готовых выполнить эту работу.

Yadrex

Одна из первых на рынке, кто начал использовать искусственный интеллект для создания сематического ядра. Руководитель компании сам профессиональный вебмастер и специалист по SEO технологиям, поэтому он гарантирует качество работы своих сотрудников.

Кроме того, вы можете позвонить по указанным телефонам, чтобы получить ответы на все интересующие вас вопросы относительно работы.

Заказывая услуги, вы получите файл, где будут указаны группы содержания ядра и его структура. Дополнительно вы получаете структуру в mindmup.

Стоимость работы варьируется в зависимости от объема, чем больше объем работы, тем дешевле стоимость одного ключа. Максимальная стоимость для информационного проекта будет 2,9 рублей за один ключ. Для продающего 4,9 рублей за ключ. При большом заказе предоставляются скидки и бонусы.

Заключение

На этом создание семантического ядра для информационного сайта завершено.

Советую вам мониторить историю изменений программы KeyCollector, потому что она постоянно дополняется новыми инструментами, например недавно был добавлен youtube для парсинга. С помощью новых инструментов, вы можете ещё больше расширить свое семантическое ядро.

Если вам знакома боль от «нелюбви» поисковиков к страницам вашего интернет-магазина, прочитайте эту статью. Я расскажу о пути к повышению видимости сайта, а точнее, о его первом этапе — сборе ключевых слов и составлении семантического ядра . Об алгоритме его создания и инструментах, которые при этом используются.

Заказать сбор семантического ядра у SEO-специалистов агентства Netpeak:

Зачем составлять семантическое ядро?

Для повышения видимости страниц сайта. Cделать так, чтобы поисковые роботы Яндекса и Google начали находить по запросам пользователей страницы именно вашего сайта. Безусловно, сбор ключевых слов (составление семантики) — первый шаг к этой цели. Дальше набрасывается условный «скелет» для распределения ключевых слов по разным посадочным страницам. А затем уже пишутся и внедряются статьи/метатеги.

Кстати, на просторах интернета можно найти множество определений семантического ядра.

1. «Семантическое ядро — упорядоченный набор поисковых слов, их морфологических форм и словосочетаний, которые наиболее точно характеризуют вид деятельности, товар или услугу, предлагаемые сайтом». Википедия .

Для сбора семантики конкурентов в Serpstat введите один из ключевых запросов, выберите регион, нажмите «Поиск» и перейдите в категорию «Анализ ключевых фраз». Затем выберите «SEO-анализ» и нажмите «Подбор фраз». Экспортируйте результаты:

2.3. Используем Key Collector/Словоёб для создания семантического ядра

Если нужно составить семантическое ядро для крупного интернет-магазина, без Key Collector не обойтись. Но если вы новичок, то удобней использовать бесплатный инструмент — Словоёб (пусть это название вас не пугает). Скачайте программу, а в настройках Яндекс.Директ укажите логин и пароль от своей Яндекс.Почты:
Создайте новый проект. Во вкладке «Данные» выберите функцию «Добавить фразы». Выберите регион и введите запросы, которые вы получили ранее:
Совет: создавайте отдельный проект под каждый новый домен, а под каждую категорию/посадочную страницу делайте отдельную группу. Например: Теперь соберите семантику из Яндекс.Вордстата. Откройте вкладку «Сбор данных» — «Пакетный сбор слов из левой колонки Yandex.Wordstat». В открывшемся окошке выберите галочку «Не добавлять фразы, если они уже есть в любых других группах». Впишите несколько самых популярных среди пользователей (высокочастотных) фраз и нажмите «Начать сбор»:

Кстати, для больших проектов в Key Collector можно собрать статистику из сервисов анализа конкурентов SEMrush, SpyWords, Serpstat (ex. Prodvigator) и других дополнительных источников.

В 2008 году я создал свой первый интернет-проект.

Это был интернет-магазин электроники, который требовал продвижения.

Изначально работу по раскрутке передал программистам, создавшим его.

А что продвигать?

Список ключей составил им за 5 минут: мобилки, видеокамеры, фотоаппараты, айфоны, самсунги — все категории и товары на сайте.

Это были общие названия, которые совершенно не были похожи на правильно составленное семантическое ядро.

Длительный период прошел без результатов.

Непонятные отчеты заставили искать исполнителей, специализирующихся на продвижении сайтов.

Нашел местную компанию, поручил им проект, но и тут все без толку.

Тогда пришло понимание, что продвижением должны заниматься настоящие профессионалы.

Перечитав много отзывов, нашел одного из лучших фрилансеров, который заверил в успехе.

Через полгода снова нет результатов.

Именно отсутствие результатов в органике на протяжении двух лет привело меня в SEO.

Впоследствии это стало основным призванием.

Теперь я понимаю, что было не так в моем первичном продвижении.

Эти ошибки повторяет основная масса даже опытных SEO-специалистов, которые не один год потратили на продвижение сайтов.

Промахи заключались в неправильной работе с ключевыми словами.

По сути, не было понимания, что мы продвигаем.

Нет времени на сбор семантического ядра, заполните быстро контактные данные.








Бесплатные инструменты составления СЯ

Бесплатные инструменты поиска ключей важны для поиска интересных идей.

За них не надо платить, иногда требуется регистрация.

Я подробно Вам расскажу секреты, как получить готовую семантику с этих инструментов.

С писок ключей собрать довольно просто, есть множество бесплатных и платных инструментов.

Давайте начнем с 4 популярных бесплатных ресурсов, которыми постоянно пользуюсь сам.

1.1. Google keyword planner — самый универсальный инструмент, в котором можно сделать фильтры по региону, языку.

Интересен тем, что делает большую подборку однородных ключей, показывает трафик и уровень конкурентности в контекстной рекламе.

Для работы требует регистрации в Google Adwords.

Также важно создать хоть одну компанию, которую можно не проплачивать.

Все эти процессы визуально понятны, так что давайте перейдем непосредственно к планировщику ключевых слов.

Для начала работы с инструментом кликайте на гаечный ключ (верхний правый угол) и выбирайте “Планировщик ключевых слов”.

На скриншоте отображена новая версия дизайна.

После этого Вы попадаете на страницу, где можно ввести много вариантов ключей, сделать поиск по релевантной странице или выбрать нужную категорию.

В новом интерфейсе дизайна мы видим такое окно.

Мы рассмотрим оба варианта подбора ключевых слов.

1. ВАРИАНТ

Вы видите 2 модуля.

  1. Найти ключевые слова
  2. Получите данные о количестве запросов и прогнозы

При переходе в модуль “Найти ключевые слова” , Вы получаете форму для ввода вариантов ключевых фраз, которые необходимо прописывать через запятую.

Как мы видим, количество полученных вариантов уже значительно расширилось.

В старом интерфейсе их было не больше 700, в новом мы получили 1365 вариантов.

Количество полученных вариантов пока уступают платным сервисам, который подбирают более широкий список низкочастотных запросов.

В этом же окне можно откорректировать следующие функции.

  1. Регион поисковых запросов
  2. Поисковую сеть: Google или Google + партнеры
  3. Скачать полученные варианты в csv-формат екселя
  4. По умолчанию показывает данные за год, можно подкорректировать для сезонных запросов
  5. Показывает количество найденных вариантов
  6. Корректировка нужных данных или добавление фильтров (по умолчанию только 1 фильтр, не показывать контент для взрослых).

Данные по месяцам разбитые в красивой инфографике, что очень удобно для просмотра сезонных запросов.

Также немаловажный фактор с каких устройств просматривают данные ключи — десктоп и мобильная версия.

Идем ниже и получаем непосредственно список ключей с частотностью, минимальной и максимальной ставкой за клик.

При переходе в модуль “Получите данные о количестве запросов и прогнозы”, введем ранее рассматриваемые запросы.

Получаем данные конверсии по выбранным ключам: расходность, количество конверсий, ценность конверсии, клики.

Это ценная информация для планирования бюджета в Google Adwords и примерное сопоставление с SEO.

Хочу сразу огорчить тех, кто планирует использовать только этот инструмент.

Корректность данных вызывает большие сомнения.

Известный специалист в мире SEO Ренд Фишкин раскритиковал точность трафика и правильность кластеризации.

Поэтому лучше дополнительно использовать другие известные ресурсы.

1.2. Wordstat.yandex.ru — аналог от Яндекса, который также показывает трафик, однородные запросы.

Для работы нужно залогиниться с помощью Яндекс почты или социалок.

Вопросы: why, who, what, how, where (почему, кто, что, как, где) — часто используемые слова в этом сегменте.

Смотрите ниже список популярных слов для голосового поиска в англоязычном сегменте.

При этом хочу предостеречь Вас — не переоптимизируйте!

Джон Мюллер, один из аналитиков Гугл, предупредил об этом.

Не нужно специально видоизменять часть контента под голосовой поиск, если снижается его качество.

Думайте про поведенческие факторы, это наиболее важные параметры.

1.4. Спрогнозируйте ключи. Для этого используйте бесплатную утилиту сбора ключей.

Понимаю, что сложная терминология, поэтому рассмотрим на примере.

Просто создайте один запрос в первой колонке такого вида (СИНОНИМ1|синоним2|синоним3) (Синоним4|синоним5|синоним6).

Например: (ремонт|починить|отремонтировать) (двигателей|двс).

В другие колонки впишите регионы: Москва, МСК (в ГЕО колонку).

В колонке “Регион” пропишите номер региона по Wordstat.

Затем если Вы нажмете кнопку “ПОЛУЧИТЬ КЛЮЧЕВЫЕ СЛОВА (1)” — появится кнопка “НАЙТИ ЕЩЕ КЛЮЧЕВЫЕ СЛОВА (2)” — система покажет выдачу по Wordstat без учета слов, которые Вы уже использовали.

Также можете кликнуть нижеперечисленные строки (3) — для проверки выдачи по отобранным группам.

Ненужные слова прописать в колонку МИНУС-слов.

Нужные — в другие колонки (для удобства они подписаны как Свойства, Типы, Номенклатуры, Бренды, Транзакционные запросы, Регионы и прочее).

Например, тут ясно, что “своими руками, видео, механика” — уходят в минус, а “дизельных, капитальный, турбины, блока, форсунки” — нам пригодятся для подстраниц и подразделов (4).

После каждого обновления списка нажимайте по кругу снова “ПОЛУЧИТЬ КЛЮЧЕВЫЕ СЛОВА (5)” и “НАЙТИ ЕЩЕ КЛЮЧЕВЫЕ СЛОВА (6)” — и продолжайте цикл, пока в выдаче не останется один мусор.

Система будет подставлять в минус-оператор уже использованные запросы.

Удобство утилиты заключается в том, что она исключает повторы в поисковом запросе Яндекса, что очень упрощает работу.

Готовые списки можно перенести в Excel, кликая на каждую строчку или просто закинув их сразу в KeyCollector (предварительно добавив список минус-слов в соответствующий раздел).

Скорость парсинга семантики может сократиться от нескольких часов до нескольких минут.

1.5. Ubersuggest — этот инструмент купил известный СЕО гуру Нейл Пател за 120 тыс. долларов.

После этого он вложил еще 120 тыс. дол. США на его усовершенствование и не останавливается на этом.

Также он пообещал, что Ubersuggest будет всегда бесплатный.

Данные для данного инструмента тянутся с Google Keyword Planner и Google Suggest.

При использовании не надо регистраций, что также является большим плюсом.

Данный тул не имеет русскоязычной версии, при этом есть возможность получить данные по русскоязычным ключам.

Для поиска списка ключей, введите высокочастотный запрос, выберите язык и поисковую систему.

Дополнительная возможность добавить в поле справа список минус-слов.

Полученные данные можно выкачать в csv-формате екселя.

Данный функционал реализован внизу полученного списка.

Платные инструменты для поиска ключей

Платные инструменты важны для предоставления более полного списка ключей.

Также они предоставляют дополнительные важные параметры анализа поисковых ключей.

Я расскажу Вам про 3 платных инструмента, которыми пользуюсь лично.

Много низкочастотных запросов также можно подобрать с помощью SEO-ресурсов: serpstat.com , ahrefs.com , semrush.com, moz.com, keywordtool.io и других .

Проплачивать все не нужно, выберите те, которые больше подходят Вам.

Эти инструменты платные, с разными месячными тарифными планами.

Если Вам необходимо получить доступ разово, обращайтесь ко мне на фриланс .

За небольшую оплату (от $5) предоставлю Вам информацию по Вашим ключам.

Бесплатные версии этих инструментов имеют ограниченную версию.

Для поиска низкочастотных ключей необходимо ввести высокочастотный запрос, выбранные системы самостоятельно расширяют возможные варианты.

Для запроса “пластиковые окна” с помощью Serpstat мы получили 5200 вариантов по Яндекс.Москва, в Гугле Россия — 3500.

Для этого же запроса в Ahrefs сгенерировали 7721 вариант разных ключей.

Кстати, Тим Соуло, украинский специалист в сфере маркетинга Ahrefs, заявил , что даст подписку на полгода тому, кто покажет сервис, который генерирует больше ключей.

Такой же запрос в keywordtool.io собрал только 744 варианта ключей, причем этот инструмент специализируется только на ключевиках.

Я его использую в основном для поиска ключевых запросов для Ютуба, Амазона, ебай.

После сбора списка ключей важно их разбросать по страницам сайта или кластеризовать .

Уже несколько раз я упоминал это трудно произносимое слово “кластеризация”.

Давайте рассмотрим его более подробно.

Начнем с ремикса известной скороговорки, чтобы упростить произношение:-)

Кластеризация ключевых слов

Группировка ключей по страницам сайта — это одна из самых трудоемких задач.

Некоторые выполняют ее в ручную, некоторые платят соответствующим сервисам.

Это отнимает много времени и требует больших затрат.

Я же покажу Вам бесплатный быстрый способ сгруппировать семантическое ядро.

Одна из самых распространенных ошибок — это неправильная группировка ключевых слов по страницам продвигаемого сайта или кластеризация семантического ядра.

Это все равно, что строить дом и не иметь плана строительства.

Разбивка списка ключей по страницам сайта — это корень любого продвижения.

Поисковый ключ — это вопрос, заданный пользователем интернета, на который он хочет получить релевантный ответ.

Запросы должны соответствовать контенту на странице.

В противном случае пользователи начнут уходить с Вашего сайта.

Поисковик не будет показывать в выдаче такой ресурс, у которого плохие поведенческие факторы.

Все перечисленные выше инструменты при использовании 3-4 слов в ключевой фразе снижают время на группировку ключей , при этом теряя много разных комбинаций.

И что делать, если ключей действительно очень много?

Ручная кластеризация нескольких тысяч ключей отнимает порой до нескольких дней.

Нужно сравнивать выдачу по разным однородным ключам.

Если страницы в ТОПе совпадают, значит ключи можно объединить в одну группу.

Лучше всего рассмотреть этот вопрос на примере.

Как видим, в ТОПе одни и те же URL, соответственно не нужно создавать отдельные страницы под эти запросы, потому что пользователи ищут один и тот же контент.

Даже если несколько страниц совпадает в выдаче, значит ключи можно объединять в одну группу.

Основные трудности в кластеризации — это проверка нескольких десятков или даже сотен тысяч ключей.

В данной ситуации ошибки неизбежны.

Люди не роботы, они устают.

Где-то на них давят сроки, приходится выполнять работу неполноценно.

Это относится даже к опытным сеошникам.

Много лет, видя одни и те же ошибки, хотелось найти решение данного вопроса.

В интернете появилось несколько платных инструментов, которые автоматизируют работу по кластеризации ключей.

Но тут также возникает вопрос по качеству, цене и времени выполнения.

К примеру, цены за кластеризацию списка до 4000 ключей включены в тарифный план B на serpstat.com.

Все, что надо проверить сверху плана, стоит $20 за 3000 ключей.

Я уважаю труд наших коллег, которые создали незаменимые SEO-инструменты, но скажу честно, даже для одного среднего проекта — это очень мало.

Только на одну страницу сайта может вести от нескольких сотен до несколько тысяч ключей.

Ценовую политику можно понять, алгоритмам необходимо доставать выдачу и сопоставлять результаты по однородным страницам.

Это затраченные ресурсы плюс коммерческая составляющая.

При этом выдача постоянно меняется, соответственно меняются страницы в ТОПе.

То что было релевантно, через пару месяцев может стать нерелевантным.

Второй недостаток — время, которое нивелируется тем, что процесс можно запустить и вернуться к нему, когда он будет завершен.

Как правило, это занимает до нескольких часов, в зависимости от скорости загрузки сервиса.

Ждать мы не любим, платить тем более:-)

Поэтому мы максимально изучили проблемы группировки ключей и создали свой революционный кластеризатор ключевых слов , который решает основные проблемы:

  • наш инструмент предлагает бесплатную кластеризацию неограниченного списка ключей (если сервис будет перегружен, мы введем лимит до 10К ключей в день);
  • выполняет кластеризацию за считанные секунды;
  • позволяет установить индивидуальные настройки в зависимости от требований выдачи;
  • убирает мусорные и нерелевантные запросы;
  • объединяет синонимы в одну группу;
  • минимизирует ручной труд.

С помощью нашего кластеризатора мы создали готовую семантику под ключ для англоязычного проекта из 80 тысяч ключей всего за 20 минут!

Тематика “dating” (знакомства), при этом мы ничего не упустили из виду.

Еще месяц назад я бы сказал, что это безумие, сегодня — это реальность.

На сайте есть инструкция, как пользоваться инструментом, а также кнопка “Как это работает”.

Давайте вкратце расскажу про основные элементы.

Важное примечание, поля не обязательные к заполнению.

Все зависит от выбранных ключей.

Для первичного теста я заполняю только одно поле “Считать как одно слово”.

Готовый вариант дополнительно кластеризую.

  • Копируете ключи, можно с частотой, вставляйте в форму кластеризатора. Например из wordstat.yandex.ru или из двух колонок Excel. Система распознает ключи и цифры как отдельные составляющие. Данные в итоговом варианте распределяются правильно.
  • Второй вариант — загрузить из файла форматов txt, csv, xls, xlsx. Вы можете просто выкачать семантику из Serpstat, Ahrefs, Google Keyword Planner, Key Collector или других инструментов. Специально их обрабатывать под кластеризатор не надо. Система сама распределит все по нужным параметрам. Если же калькулятор не поймет, какие колонки к чему относятся, появится диалоговое окно с уточнением по выбранным колонкам.
  • Далее выбираете уровень частотности: ВЧ (высокочастотные), СЧ (среднечастотные), НЧ (низкочастотные), МЧ (микрочастотные). Здесь все индивидуально, пробуйте разные варианты и сверяйте с реальной выдачей.
  • Обязательно ставьте галочку “Учитывать геозависимость” или нет. К примеру, Вы занимаетесь продвижением сайтов в городе Харькове. В ТОПе много страниц не оптимизированы под него, значит геозависимость уходит на второй план. Если же Ваш основной запрос “ремонт холодильников в Харькове”, значит Вам необходимо учитывать геозависимость.
  • “Расширенные кластеры для семантики” группирует некластеризованные запросы в максимально релевантные группы. При отключении этой функции ключи без групп попадут в раздел “Не сгруппировано”.
  • Далее заполняете форму “Считать как одно слово” . Это необходимо для того, чтобы объединить несколько слов в единое целое. В результате система не будет разбивать фразы на отдельные кластеры. К примеру: стиральная машина. Система не будет делить на 2 кластера такие слова, как “стиральная” и “машина”. Другие примеры: одежда для новорожденных, iPhone 8, интернет магазин электроники. Если у Вас таких фраз несколько, вводите их через запятую.
  • Минус-слова необходимы, чтобы сразу отсеять из списка нерелевантные ключи. К примеру, слово “бесплатно”. Чтобы не отсеять такие фразы, как “бесплатная доставка”, используйте оператор восклицательный знак “!”. Тогда Вы запретите системе склонять это слово. Например: !бесплатно.
  • Список игнорируемых слов — это те слова, которые не влияют на результаты в выдаче. Система автоматически игнорирует предлоги в русскоязычном и англоязычном сегменте, поэтому их вводить необязательно. К примеру, фраза “Apple iPhone X”. Слово “Apple” никак не влияет на результаты поиска, потому что пользователи ищут именно данные по айфону. Чтобы не создавать лишний кластер, добавляете его в эту форму.
  • Последняя форма — это синонимы. К примеру, слова “купить”, “цена”, “стоимость” означают одно и то же для коммерческих запросов. Система автоматически распознает их как синонимы, поэтому вносить их не обязательно. Вводите другие слова синонимы: “iPhone”, “айфон” или “выбрать”, “выбирать”, они имеют одно и то же значение в русскоязычном сегменте. Если синонимов много, нажимаете плюс и добавляете другие варианты.

Для получения финального варианта нажимаете “ПОИСК” и получаете кластеризованный список.

Релевантные ключи выделяете галочками.

Мы сопоставляли результаты с платными кластеризаторами, точность полученных данных в нашем инструменте выше.

Удобство и скорость работы в нем лучше, чем даже в Excel, который работает медленно при добавлении огромного списка ключей и большого количества формул.

Я бы выложил результаты наших сравнений, но думаю это будет некорректно по отношению к нашим коллегам.

Плюс с нашей стороны необъективно приводить примеры, которые могут посчитать за удачные.

Поэтому все оставляю на суд читателей.

Буду рад услышать Ваше мнение в комментариях.

Конечно, наш кластеризатор не волшебная таблетка, которая решает все проблемы.

Даже инструменты Гугл не показывают точные данные в кластеризации.

Наш кластеризатор — это колоссальная экономия времени.

Готовые списки проще проверить и упорядочить по страницам сайта.

Продвижение по низкочастотным запросам

Продвижение по низкочастотным запросам — это старт для любого молодого проекта.

Не пытайтесь выбить из ТОП-10 опытные большие проекты с ограниченным бюджетом.

Я покажу Вам эффективные способы поиска низкочастотных ключей.

Основная масса владельцев молодых сайтов изначально подбирает высокочастотные и среднечастотные запросы.

Это такие ключи, как “купить iphone ”, “аренда квартир ” и т.п.

По ним ТОП оккупировали высокотрастовые сайты, которые явно не хотят его покидать.

Бюджеты на SEO у таких ресурсов в разы выше, плюс дополнительная трастовость помогает продвигать их с меньшими усилиями.

Вы никогда не сдвинете в ТОПе сайты с миллионными трафиками, про которые все знают.

Молодому ресурсу необходимо концентрироваться на низкочастотных запросах, при этом, согласно анализу MOZ, 80% всех продаж в интернете осуществляется от низкочастотных запросов.

Низкочастотные запросы содержат в себе 4 и более слов с частотностью до 1000 человек в месяц.

Создавайте контент под них и получайте трафик в ближайшее время.

Поиск низкочастотных запросов можно выполнять с помощью различных инструментов.

Давайте рассмотрим основные из них.

4.1. Используйте поисковые подсказки: Гугл, Яндекс, Бинг, Facebook, Twitter , Pinterest , Wikipedia, Amazon, любых других сайтов, у которых есть такая функция.

Это, конечно, большое количество ручной работы и сплошная головная боль, но именно такой подход позволяет найти реальные ключи для продвижения.

4.2. Используйте форумы, в которых представлена Ваша тематика, особенно такие, как Reddit .

Находите ветки, собравшие много комментариев в Вашей тематике.

Копируйте название ветки и создавайте под эти ключи контент.

Давайте рассмотрим на примере, как конкурировать по известным запросам с такими монстрами, как Amazon, Expedia, Yelp в американском сегменте.

К примеру, Вы продвигаете запрос “ticket fly” (авиабилеты).

С этими ключами ранжируются такие сайты, как Expedia, Kayak, у которых только трафик по брендовым запросам более 4 миллионов!

Проверьте выдачу, первые 4 сайта — это контекстная реклама.

А потом в органике одни монстры, у которых трафика не меньше нескольких миллионов.

Поверьте, с ними не реально конкурировать по этим ключам.

Вам необходимо искать запросы, которые эти ресурсы не продвигают.

Многие западные SEO-компании для небольших коммерческих сайтов вообще не используют инструменты для подбора ключей.

Вводите основной запрос в поиск Reddit.

Проверяете популярные ветки, которые набрали много очков и комментариев.

Копируете название или его основную часть.

Для примера я ввел в поиск Reddit ключ “fly ticket” и просматриваю популярные ветки.

Пусть Вас не вводит в заблуждение прогнозируемый трафик только по ключам, которые увидите в теме ветки.

Если Ваша цель попасть в ТОП и получать трафик, то Вам необходимо анализировать этот параметр.

Некоторые специалисты проверяют стоимость клика и уровень конкуренции контекстной рекламы, но эти данные могут значительно отличаться от показателей в SEO.

Это больше интересно в ознакомительных целях, но не для определения бюджета на SEO.

Для анализа уровня конкурентности в SEO лучше всего использовать ahrefs.com, majestic.com, moz.com, semrush.com.

Недавно semrush объединил базы доноров с majestic, поэтому качество проверки доноров там тоже на высоте.

Не пытайтесь с маленьким бюджетом двигать высококонкурентные запросы.

Лучше сосредоточьтесь на ключах с низким уровнем конкурентности.

LSI (однородные запросы)

Однородные запросы (LSI) увеличивают видимость контента и, соответственно, трафик.

Больше трафика — больше продаж.

Я покажу Вам все эффективные методы поиска LSI.

LSI (Latent Semantic Index) — это однородные запросы, которые показываются внизу выдачи.

Поисковик их использует для читателей, не нашедших полезную информацию в ТОП 10, чтобы они смогли сформировать запрос по-другому.

С помощью таких ключей можно расширять контент или создавать новый.

Это уже зависит от Вашей кластеризации.

При продвижении сайта в другом регионе однородные запросы показываются под Ваше существующее IP.

В такой ситуации коррективы вносят запросы под Ваш регион.

Если Вы не хотите играться со сменой IP, используйте приложение для Гугл Chrome — GeoClever .

После его установки прямо в поиске Вы можете выбрать любой город мира, вплоть до малоизвестных.

Быстро список поисковых подсказок можно получить с помощью wordstat.yandex.ru .

Для этого после ввода основного ключа просматривайте правый блок.

Давайте проверим запрос “SEO оптимизация”.

Как видим, полученных вариантов больше, чем в Яндексе и Гугл.

Ну а если Вы хотите собрать все однородные запросы для Youtube, Bing, Yahoo, Ebay, Amazon, Google, которые только может собрать софт, то используйте Scrapebox (смотрите пункт 5).

Недостаток этой программы в том, что она платная, стоит $67.

Для работы требует использовать базу IP, которую можно купить в интернете.

Плюсы в том, что большое количество поисковых подсказок сложно получить еще где-то.

Также софт многофункциональный, помогает автоматизировать много других ручных процессов.

С помощью Scrapebox я собрал 7786 результатов по запросу “SEO оптимизация”.

Конечно, многие из этих ключей — мусорные.

Используйте кластеризатор из пункта 3 для отсева ненужных ключей.

Также в программе можно проверить реальный трафик выбранных запросов.

Принцип Парето

Выбор приоритетов важен для получения результатов.

Для этого используйте принцип Парето.

Я покажу Вам самые эффективные методы выбора приоритетных ключей к продвижению.

Итальянский экономист Вильфредо Парето в 1886 году открыл принцип, согласно которому 20% усилий дают 80% результатов.

Он обнаружил, что 20% населения Италии владеют 80% земельной площади, 20% кустов гороха дают 80% урожая.

Этот принцип работает и в наши дни.

Дорогие женщины, отсюда следует, что мужчины заранее готовятся к поздравлениям.

Но сеошники должны еще раньше быть готовыми к продвижению этих ключей.

Не пытайтесь продвинуть высококонкурентный запрос в короткие сроки.

Это как накачаться за месяц до пляжного сезона.

Кто не успел, тот опоздал.

Готовьтесь, как у меня получается всегда, на следующий год.

Оптимизация метаинформации

Задача метаинформации — сообщить пользователю, о чем Ваша страница.

Также метатеги помогают поисковику сопоставить ключи с контентом сайта.

Я покажу Вам, как правильно оптимизировать метаинформацию на сайте.

Подобрали список ключей, разбили по страницам?

А теперь переходите к созданию метаинформации — Title & Description.

Многие разделяют этот процесс и написание тегов передают копирайтерам.

Ни в коем случае так не делайте.

Даже классные копирайтеры неправильно прописывают метатеги.

В результате трафика не будет, т.к. Ваши ключи не соответствует контенту.

А, как мы знаем, чем больше кликов, тем больше конверсии.

Поисковики не будут показывать в ТОПе сайты, на которые не переходят.

Они расценивают их как не релевантные.

Давайте сначала разберем, что такое метатеги и где их можно встретить.

Title — это код страницы сайта, который выглядит таким образом: Это название Вашей страницы

Он вшивается в код страницы, не отображается во внутреннем контенте.

Встретить его можно во вкладке Вашего браузера.

Когда делятся страницей в социалках, к примеру на Facebook.

Самое важное отображение — при проверке результатов в поиске.

Метатег Description, или краткое описание страницы, отображается в коде следующим образом:

Размер показываемого мета-тега Description в Гугл составляет около 160 символов.

Этот метатег можно не прописывать, в отличие от Title.

В такой ситуации поисковик подбирает с Вашей страницы контент, который будет максимально релевантный поисковым ключам.

Если же Вы не уверены в автоматическом выборе поисковика, пропишите Description.

Как же увеличить кликабельность Title?

Принцип простой: в форме поиска вставляете URL или пишите потенциальный Title.

В полученных результатах система выставляет Вам оценку от 0 до 100 и дает рекомендации по оптимизации.

Давайте более подробно рассмотрим методы оптимизации Title.

9.1. Добавьте смайлики

Именно они привлекают больше внимания, чем стандартные: 10, 20, 50 и т.д.

Как Вы думаете, почему Title этой статьи “Семантическое Ядро Сайта: 9 Примеров Составления (Курс 2018)”?

Цифра “9” более реальная, чем 10, 20, 50, 100…

Странные цифры не вызывают чувства недосказанности или наоборот сжатия информации, потому что в данной ситуации мы перечислили наши лучшие методы составления СЯ, а не натягивали еще десятый.

Использование скобок увеличивает кликабельность на 38%, согласно анализу Hubspot .

Это огромный плюс, потому что в скобки можно вставить синонимы или выделить важные данные.

Используйте разные скобки: круглые, квадратные.

9.4. Вызывайте любопытство

Лучший способ спровоцировать на клик — вызвать любопытство.

Подумайте, что может вызвать такое чувство у Вашей аудитории.

Вспомните эти появляющиеся новости, о том, что какая-нибудь звезда умерла.

При переходе на сайт оказывается, это была фейковая информация.

Главная цель — клик!

Лучший пример — Дейл Карнеги и названия его книг: “Как завоевывать друзей и оказывать влияние на людей”, “Как перестать беспокоиться и начать жить”.

Эти названия уже несколько поколений провоцируют людей читать его творчество.

9.5. Включайте побуждающие слова

Много побуждающих слов включается в контент, но их также можно добавить в Title?

Для этого используйте разные варианты: скидки, дешево, получить бесплатно, скачать.

Для поиска побуждающих слов анализируйте выдачу по контекстной рекламе.

В Google Adwords и Яндекс.Директ очень важно привлечь много кликов.

Если на Ваше объявление не кликают, значит клик для Вас будет дороже, оттого контекстологии уделяют этому особое внимание.

Как находить побуждающие слова, давайте рассмотрим на примерах.

Введем поисковый ключи “купить айфон 8 Киев”.

Собираете отсюда базу побуждающих слов, выбираете те, которые соответствуют контенту на сайте.

Еще один прием используют при настройке ремаркетинга.

Маркетологи заманивают тех, кто покинул корзину без покупки, дополнительными скидками.

Это значительно увеличивает процент продаж.

Попробуйте этот же прием при заполнении Вашего Title.

Предложите скидки, акции. Люди это очень любят!

9.6. Используйте Ваш домен в Title

Когда я в технике Эверест рассказал про использование домена в Title, некоторые пользователи интернета написали в комментариях, что это полная чушь.

Честно, я тоже так думал.

Не понимал, для чего многие сайты используют свой бренд в коротком названии.

Вместо него можно добавить туда дополнительных ключей.

Мое мнение резко поменялось после того, как я прочитал много исследований по этому поводу.

Суть заключается в Вашей открытости для пользователей интернета.

Именно добавление бренда значительно усиливает кликабельность.

Лучше всего использовать Ваш бренд в конце Title.

Если его вписывать в начале, это отодвигает внимание от основных ключей.

9.7. Пишите каждое слово с большой буквы

Именно этот пункт вызывает больше всего сомнений у многих сеошников.

Они сомневаются в том, что это соответствует правилам русского языка.

В английском языке считается грамотно правильным, когда каждое слово в заглавии пишется с большой буквы.

Давайте посмотрим, как все происходит в контекстной рекламе.

Как видим из скриншота, такой прием используется не только в Title, но и в описании.

Для чего это делается?

Заглавные буквы привлекают больше внимания, соответственно увеличивается процент кликов.

В русскоязычной органике данный прием редко используется, поэтому все оставляю на суд читателей.

Лично я не нашел правил русского языка, где указано, что это не правильно.

Предлагаю обсудить в комментариях.

ВЫВОД

Изначально я хотел написать статью про SEO-оптимизацию сайта и начал с ключевых слов.

Но в процессе создания материала пришло понимание, что информации по этому вопросу очень много.

Так и получилась статья про поиск и составление ключевых слов.

Для поиска ключей не нужно ограничиваться одним инструментом.

Это чем-то похоже на мозговой штурм (смотрите пункт 1), где изначально собираются все идеи на протяжении нескольких дней всей командой.

На финальном этапе из хороших выделяют реальные идеи, на которые есть время и ресурсы.

То же самое и с ключами: изначально надо собрать огромный список запросов.

Для этого важно использовать платные и бесплатные инструменты.

Следующий шаг — устранение большого количества нерелевантных ключей и сохранение только тех, которые соответствуют Вашим целям.

Для этого используйте кластеризатор ключевых слов, который соберет все ключи по группам.

Они должны соответствовать Вашим приоритетам.

Не пытайтесь продвигать все.

Лучше синица в руках, чем журавль в небе.

Используйте принцип Парето — 20% товаров приносят 80% прибыли.

Сосредоточьтесь на низкочастотных ключах, которые дают 80% всех продаж в интернете.

Не пытайтесь бороться с ограниченным бюджетом с крупными опытными сайтами, которые вкладывают миллионы в продвижение.

Лучше найдите свою нишу.

Используйте для этого форумы и подсказки поиска.

Используйте LSI (однородные запросы) для расширения списка ключей и существующего контента.

Проверяйте сезонность выбранных ключей с помощью Google Trends.

Готовьтесь своевременно к продвижению.

Не откладывайте его на короткий срок.

Оптимизируйте метаинформацию под выбранные ключи, особенно Title.

Это второй алгоритм внутреннего ранжирования, от его привлекательности зависит, перейдет к Вам посетитель на сайт или нет.

Если Вы читаете эти строчки, значит осилили статью, за что я Вам несказанно благодарен.

Предлагаю продолжить обсуждение в комментариях.

Семантическое ядро (сокращенно СЯ) - это определенный список ключевых слов, которые максимально описывают тематику сайта.

Зачем нужно составлять семантическое ядро сайта

  • семантическое ядро характеризует , именно благодаря ему индексирующие страницу роботы определяют не только естественность текста, но и тематику, чтобы внести страницу в соответствующий поисковый раздел. Очевидно, что роботы работают на полной автономии после введения адреса страницы сайта в базу поисковых ресурсов;
  • грамотно составленное ся является смысловой основой сайта и отражает подходящую структуру для сео-продвижения;
  • каждая страница сайта, соответственно, привязывается к определенной части СЯ веб-ресурса;
  • благодаря семантическому ядру формируется стратегия продвижения в поисковиках;
  • по семантическому ядру можно оценить во сколько обойдется продвижение.

Основные правила составления семантического ядра

    Чтобы собрать СЯ, потребуется собрать наборы ключевых слов. В этом отношении нужно оценивать свои силы относительно продвижения по высоко- и среднечастотным запросам. Если требуется получить максимум посетителей при наличии бюджета, нужно использовать высоко- и среднечастотные запросы. Если наоборот, то средне- и низкочастотные запросы.

    Даже при наличии высокого бюджета нет смысла продвигать сайт только по высокочастотным запросам. Часто такие запросы имеют слишком общий характер и неконкретизированную смысловую нагрузку, например «слушать музыку», «новости», «спорт».

При выборе поисковых запросов анализируют множество показателей, которые соответствуют поисковому словосочетанию:

  • количество показов (частота);
  • количество показов без морфологического изменений и словосочетаний;
  • страницы, которые выдаются поисковой системой при введении поискового запроса;
  • страницы в поисковом ТОП-е по ключевым запросам;
  • оценка стоимости продвижения по запросу;
  • конкурентность ключевых слов;
  • прогнозируемое количество переходов;
  • показатель отказов (закрытие сайта после перехода по ссылке) и сезонность услуги;
  • геозависимость ключевого слова (географическое расположение компании и ее клиентов).

Как можно собрать семантическое ядро

На практике подбор семантического ядра можно провести следующими методами:

    Источником ключевых слов для семантического ядра могут стать сайты конкурентов. Именно здесь можно быстро подобрать ключевые слова, а также определить частотность их «окружения» с помощью семантического анализа. Для этого потребуется сделать семантическую оценку страницы текста, наиболее упоминаемые слова составляют морфологическое ядро;

    Рекомендуем сформировать собственное семантическое ядро на базе статистики специальных сервисов. Воспользуйтесь, например, Wordstat Yandex – статистической системой поисковой системы Yandex. Здесь можно посмотреть частотность поискового запроса, а также узнать, что пользователи ищут вместе с этим ключевым словом;

    «Подсказки» систем появляются при попытке введения поисковой фразы в интерактивную строку. Эти слова и словосочетания могут также войти в СЯ как связные;

    Источником ключевых слов для СЯ могут стать закрытые базы данных поисковых запросов, например, база Пастухова. Это специальные массивы данных, содержащие информацию об эффективных сочетаниях поисковых запросов;

    Внутренняя статистика сайта также может стать источником данных об интересующих пользователя поисковых запросах. Она содержит информацию об источнике и знает, откуда пришел читатель, сколько страниц просмотрел и с какого браузера он заходил.

Бесплатные инструменты для составления семантического ядра:

Yandex.Wordstat - популярный бесплатный инструмент, используемый при составлении семантического ядра. С помощью сервиса можно узнать, какое количество раз посетители ввели в поисковую систему Yandex определенный запрос. Предоставляет возможность проанализировать динамику спроса на данный запрос по месяцам.

Google AdWords относится к числу наиболее используемых систем для оставления семантического ядра сайта. С помощью планировщика ключевых слов от Гугла можно просчитать и составить прогноз показов конкретных запросов в дальнейшем.

Яндекс.Директ многие разработчики используют для подбора максимально выгодные ключевые слова. Если в дальнейшем на сайте планируется размещение рекламных объявлений, то владелец ресурса при таком подходе получит неплохую прибыль.

Словоеб - младший брат Кей Коллектора, который применяется для составления семантического ядра сайта. За основу берутся данные из Яндекса. Из преимуществ можно отметить интуитивно понятный интерфейс, а также доступность не только для профессионалов, но и для новичков, которые только начинают заниматься SEO аналитикой.

Платные инструменты для составления семантического ядра:

Базы Пастухова по мнению многих специалистов не имеют конкурентов. В базе отображаются такие запросы, которые не показывает ни Гугл, ни Яндекс. Существует много других особенностей, присущих именно базам Макса Пастухова, среди которых можно отметить удобную программную оболочку.

SpyWords - интересный инструмент, позволяющий анализировать ключевые слова конкурентов. С его помощью можно провести сравнительный анализ семантических ядер интересующих ресурсов, а также получить все данные о РРС и SEO компаниях конкурентов. Ресурс русскоязычный, разобраться с его функционалом не составит никаких проблем.

Платная программа, созданная специально для профессионалов. Помогает составлять семантическое ядро, определяя актуальные запросы. Используется для оценки стоимости продвижения ресурса по интересующим ключевым словам. Помимо высокого уровня эффективности, данная программа выгодно отличается удобством в использовании.

SEMrush позволяет на основании данных с конкурирующих ресурсов определить наиболее результативные ключевые слова. С его помощью можно подобрать низкочастотные запросы, характеризующиеся высоким уровнем трафика. Как показывает практика, по таким запросам очень легко продвинуть ресурс на первые позиции выдачи.

SeoLib - сервис, завоевавший доверие со стороны оптимизаторов. Обладает достаточно большим функционалом. Позволяет грамотно составить семантическое ядро, а также выполнить необходимые аналитические мероприятия. В бесплатном режиме можно проанализировать 25 запросов в сутки.

Prodvigator позволяет собрать первичное семантическое ядро буквально за несколько минут. Это сервис используемый главным образом для анализа конкурирующих сайтов, а также для подбора наиболее результативных ключевых запросов. Анализ слов выбирается для Google по России или для Яндекса по Московскому региону.

Семантическое ядро собирается достаточно быстро, если использовать источники и базы данных в качестве подсказки.

Следует выделить следующие процессы

Согласно содержанию сайта и релевантных тем выбираются ключевые запросы, которые наиболее точно отражают смысловую нагрузку вашего веб-портала.
- Из выбранного набора отсеиваются лишние, возможно, те запросы, которые могут ухудшить индексацию ресурса. Фильтрация ключевых слов проводится на основании результатов анализа, описанного выше.
- Полученное семантическое ядро должно быть равномерно распределено между страницами сайта, при необходимости заказываются тексты с определенной тематикой и объемом вхождения ключевых слов.

Пример сбора семантического ядра с помощью сервиса Wordstat Yandex

Например, вы продвигаете салон ногтевого сервиса в Москве.

Думаем и подбираем всевозможные слова, которые подходят теме сайта.

Деятельность компании

  • салон маникюра;
  • салон ногтевого сервиса;
  • студия ногтевого сервиса;
  • студия маникюра;
  • студия педикюра;
  • студия ногтевого дизайна.

Общее название услуг

Педикюр;
- маникюр;
- наращивание ногтей.

Теперь заходим на сервис Яндекса и вводим каждый запрос, предварительно выбрав регион, по которому собираемся продвигаться.

Копируем все слова в Excel из левой колонки, плюс вспомогательные фразы из правой.

Удаляем лишние слова, которые не подходят под тематику. Ниже красным выделены слова, которые подходят.

Цифра 2320 запросов показывает, сколько раз люди набирали этот запрос не только в чистом виде, но и в составе других словосочетаний. Например: маникюр и цена в москве, цена на маникюр и педикюр в москве и т.д.

Если ввести наш запрос в кавычках, то здесь уже будет другая цифра, где учитываются словоформы ключевой фразы. например: маникюр цены, маникюр цену и т.д.

Если ввести тот же запрос запрос в кавычках с восклицательными знаками, то увидим сколько раз пользователи набирали запрос именно "маникюр цена".

Далее делаем разбивку полученного списка слов по страницам сайта. Так, например, высокочастотные запросы мы оставим на главной странице и на основных разделах сайта, такие как: маникюр, студия ногтевого сервиса, наращивание ногтей. Средне- и низкочастотные распределим по остальным страницам, например: маникюр и педикюр цены, наращивание ногтей гелем дизайн. Слова также должны быть разделены на группы по смыслу.

  • Главная страница - студия, салон ногтевого сервиса и т.д.
  • 3 раздела - педикюр, маникюр, цены на маникюр и педикюр.
  • Страницы - наращивание ногтей, аппаратный педикюр и т.д.

Какие ошибки можно допустить при составлении СЯ

При составлении семантического ядра никто не застрахован от ошибок. К наиболее распространенным относятся следующие:

  1. Всегда есть опасность выбора неэффективных запросов, которые дают минимальное количество посетителей.
  2. При повторной раскрутке сайта не стоит менять полностью контент, размещенный на сайте. В противном случае будут обнулены все предыдущие параметры, в том числе, ранжирование в поисковой выдаче.
  3. Не стоит использовать некорректные для русского языка запросы, поисковые роботы уже хорошо определяют такие запросы и при «спаме» ключевыми словами убирают страницу из поиска.

Желаем удачи в продвижении вашего сайта!

Здравствуйте, уважаемые читатели блога сайт. Хочу сделать очередной заход на тему «сбора семядра». Сначала , как полагается, а потом много практики, может быть и несколько неуклюжей в моем исполнении. Итак, лирика. Ходить с завязанными глазами в поисках удачи мне надоело уже через год, после начала ведения этого блога. Да, были «удачные попадания» (интуитивное угадывание часто задаваемых поисковикам запросов) и был определенный трафик с поисковиков, но хотелось каждый раз бить в цель (по крайней мере, ее видеть).

Потом захотелось большего — автоматизации процесса сбора запросов и отсева «пустышек». По этой причине появился опыт работы с Кейколлектором (и его неблагозвучным младшим братом) и очередная статья на тему . Все было здорово и даже просто замечательно, пока я не понял, что есть один таки очень важный момент, оставшийся по сути за кадром — раскидывание запросов по статьям.

Писать отдельную статью под отдельный запрос оправдано либо в высококонкурентных тематиках, либо в сильно доходных. Для инфосайтов же — это полный бред, а посему приходится запросы объединять на одной странице. Как? Интуитивно, т.е. опять же вслепую. А ведь далеко не все запросы уживаются на одной странице и имеют хотя бы гипотетический шанс выйти в Топ.

Собственно, сегодня как раз и пойдет речь об автоматической кластеризации семантического ядра посредством KeyAssort (разбивке запросов по страницам, а для новых сайтов еще и построение на их основе структуры, т.е. разделов, категорий). Ну, и сам процесс сбора запросов мы еще раз пройдем на всякий пожарный (в том числе и с новыми инструментами).

Какой из этапов сбора семантического ядра самый важный?

Сам по себе сбор запросов (основы семантического ядра) для будущего или уже существующего сайта является процессом довольно таки интересным (кому как, конечно же) и реализован может быть несколькими способами, результаты которых можно будет потом объединить в один большой список (почистив дубли, удалив пустышки по стоп словам).

Например, можно вручную начать терзать Вордстат , а в добавок к этому подключить Кейколлектор (или его неблагозвучную бесплатную версию). Однако, это все здорово, когда вы с тематикой более-менее знакомы и знаете ключи, на которые можно опереться (собирая их производные и схожие запросы из правой колонки Вордстата).

В противном же случае (да, и в любом случае это не помешает) начать можно будет с инструментов «грубого помола». Например, Serpstat (в девичестве Prodvigator), который позволяет буквально «ограбить» ваших конкурентов на предмет используемых ими ключевых слов (смотрите ). Есть и другие подобные «грабящие конкурентов» сервисы (spywords, keys.so), но я «прикипел» именно к бывшему Продвигатору.

В конце концов, есть и бесплатный Букварис , который позволяет очень быстро стартануть в сборе запросов. Также можно заказать частным образом выгрузку из монстрообразной базы Ahrefs и получить опять таки ключи ваших конкурентов. Вообще, стоит рассматривать все, что может принести хотя бы толику полезных для будущего продвижения запросов, которые потом не так уж сложно будет почистить и объединить в один большой (зачастую даже огромный список).

Все это мы (в общих чертах, конечно же) рассмотрим чуть ниже, но в конце всегда встает главный вопрос — что делать дальше . На самом деле, страшно бывает даже просто подступиться к тому, что мы получили в результате (пограбив десяток-другой конкурентов и поскребя по сусекам Кейколлектором). Голова может лопнуть от попытки разбить все эти запросы (ключевые слова) по отдельным страницах будущего или уже существующего сайта.

Какие запросы будут удачно уживаться на одной странице, а какие даже не стоит пытаться объединять? Реально сложный вопрос, который я ранее решал чисто интуитивно, ибо анализировать выдачу Яндекса (или Гугла) на предмет «а как там у конкурентов» вручную убого, а варианты автоматизации под руку не попадались. Ну, до поры до времени. Все ж таки подобный инструмент «всплыл» и о нем сегодня пойдет речь в заключительной части статьи.

Это не онлайн-сервис, а программное решение, дистрибутив которого можно скачать на главной странице официального сайта (демо-версию).

Посему никаких ограничений на количество обрабатываемых запросов нет — сколько надо, столько и обрабатывайте (есть, однако, нюансы в сборе данных). Платная версия стоит менее двух тысяч, что для решаемых задач, можно сказать, даром (имхо).

Но про техническую сторону KeyAssort мы чуть ниже поговорим, а тут хотелось бы сказать про сам принцип, который позволяет разбить список ключевых слов (практически любой длины) на кластеры, т.е. набор ключевых слов, которые с успехом можно использовать на одной странице сайта (оптимизировать под них текст, заголовки и ссылочную массу — применить магию SEO).

Откуда вообще можно черпать информацию? Кто подскажет, что «выгорит», а что достоверно не сработает? Очевидно, что лучшим советчиком будет сама поисковая система (в нашем случае Яндекс, как кладезь коммерческих запросов). Достаточно посмотреть на большом объеме данных выдачу (допустим, проаналазировать ТОП 10) по всем этим запросам (из собранного списка будущего семядра) и понять, что удалось вашим конкурентам успешно объединить на одной странице. Если эта тенденция будет несколько раз повторяться, то можно говорить о закономерности, а на основе нее уже можно бить ключи на кластеры.

KeyAssort позволяет в настройках задавать «строгость», с которой будут формироваться кластеры (отбирать ключи, которые можно использовать на одной странице). Например, для коммерции имеет смысл ужесточать требования отбора, ибо важно получить гарантированный результат, пусть и за счет чуть больших затрат на написание текстов под большее число кластеров. Для информационных сайтов можно наоборот сделать некоторые послабления, чтобы меньшими усилиями получить потенциально больший трафик (с несколько большим риском «невыгорания»). Как это сделать опять же поговорим.

А что делать, если у вас уже есть сайт с кучей статей, но вы хотите расширить существующее семядро и оптимизировать уже имеющиеся статьи под большее число ключей, чтобы за минимум усилий (чуток сместить акцент ключей) получить поболе трафика? Эта программка и на этот вопрос дает ответ — можно те запросы, под которые уже оптимизированы существующие страницы, сделать маркерными, и вокруг них KeyAssort соберет кластер с дополнительными запросами, которые вполне успешно продвигают (на одной странице) ваши конкуренты по выдаче. Интересненько так получается...

Как собрать пул запросов по нужной вам тематике?

Любое семантическое ядро начинается, по сути, со сбора огромного количества запросов, большая часть из которых будет отброшена. Но главное, чтобы на первичном этапе в него попали те самые «жемчужины», под которые потом и будут создаваться и продвигаться отдельные страницы вашего будущего или уже существующего сайта. На данном этапе, наверное, самым важным является набрать как можно больше более-менее подходящих запросов и ничего не упустить, а пустышки потом легко отсеяться.

Встает справедливый вопрос, а какие инструменты для этого использовать ? Есть один однозначный и очень правильный ответ — разные. Чем больше, тем лучше. Однако, эти самые методики сбора семантического ядра, наверное, стоит перечислить и дать общие оценки и рекомендации по их использованию.

  1. Яндекс Вордстат и его аналоги у других поисковых систем — изначально эти инструменты предназначались для тех, кто размещает контекстную рекламу, чтобы они могли понимать, насколько популярны те или иные фразы у пользователей поисковиков. Ну, понятно, что Сеошники этими инструментами пользуются тоже и весьма успешно. Могу порекомендовать пробежаться глазами по статье , а также упомянутой в самом начале этой публикации статье (полезно будет начинающим).

    Из недостатков Водстата можно отметить:

    1. Чудовищно много ручной работы (однозначно требуется автоматизация и она будет рассмотрена чуть ниже), как по пробивке фраз основанных на ключе, так и по пробивке ассоциативных запросов из правой колонки.
    2. Ограничение выдачи Вордстата (2000 запросов и не строчкой больше) может стать проблемой, ибо для некоторых фраз (например, «работа») это крайне мало и мы упускаем из вида низкочастотные, а иногда даже и среднечастотные запросы, способные приносить неплохой трафик и доход (их ведь многие упускают). Приходится «сильно напрягать голову», либо использовать альтернативные методы (например, базы ключевых слов, одну из которых мы рассмотрим ниже — при этом она бесплатная!).
  2. КейКоллектор (и его бесплатный младший брат Slovoeb ) — несколько лет назад появление этой программы было просто «спасением» для многих тружеников сети (да и сейчас представить без КК работу над семядром довольно трудно). Лирика. Я купил КК еще два или три года назад, но пользовался им от силы несколько месяцев, ибо программа привязана к железу (начинке компа), а она у меня по нескольку раз в год меняется. В общем, имея лицензию на КК пользуюсь SE — так то вот, до чего лень доводит.

    Подробности можете почитать в статье « ». Обе программы помогут вам собрать запросы и из правой, и из левой колонки Вордстата, а также поисковые подсказки по нужным вам ключевым фразам. Подсказки — это то, что выпадает из поисковой строки, когда вы начинаете набирать запрос. Пользователи часто не закончив набор просто выбирают наиболее подходящий из этого списка вариант. Сеошники это дело просекли и используют такие запросы в оптимизации и даже .

    КК и SE позволяют сразу набрать очень большой пул запросов (правда, может потребоваться много времени, либо покупка XML лимитов, но об этом чуть ниже) и легко отсеять пустышки, например, проверкой частотности фраз взятых в кавычки (учите матчасть, если не поняли о чем речь — ссылки в начале публикации) или задав список стоп-слов (особо актуально для коммерции). После чего весь пул запросов можно легко экспортировать в Эксель для дальнейшей работы или для загрузки в KeyAssort (кластеризатор), о котором речь пойдет ниже.

  3. СерпСтат (и другие подобные сервисы) — позволяет введя Урл своего сайта получить список ваших конкурентов по выдаче Яндекса и Гугла. А по каждому из этих конкурентов можно будет получить полный список ключевых слов, по которым им удалось пробиться и достичь определенных высот (получить трафик с поисковиков). Сводная таблица будет содержать частотность фразы, место сайта по ней в Топе и кучу другой разной полезной и не очень информации.

    Не так давно я пользовал почти самый дорогой тарифный план Серпстата (но только один месяц) и успел за это время насохранять в Экселе чуть ли не гигабайт разных полезняшек. Собрал не только ключи конкурентов, но и просто пулы запросов по интересовавшим меня ключевым фразам, а также собрал семядра самых удачных страниц своих конкурентов, что, мне кажется, тоже очень важно. Одно плохо — теперь никак время не найду, чтобы вплотную заняться обработкой всей это бесценной информации. Но возможно, что KeyAssort все-таки снимет оцепенение перед чудовищной махиной данных, которые нужно обработать.

  4. Букварикс — бесплатная база ключевых слов в своей собственной программной оболочке. Подбор ключевиков занимает доли секунды (выгрузка в Эксель минуты). Сколько там миллионов слов не помню, но отзывы о ней (в том числе и мой) просто отличные, и главное все это богатство бесплатно! Правда, дистрибутив программы весить 28 Гигов, а в распокованном виде база занимает на жестком диске более 100 Гбайт, но это все мелочи по сравнению с простотой и скоростью сбора пула запросов.

    Но не только скорость сбора семядра является основным плюсом по сравнению с Вордстатом и КейКоллектором. Главное, что тут нет ограничений на 2000 строк для каждого запроса, а значит никакие НЧ и сверх НЧ от нас не ускользнут. Конечно же, частотность можно будет еще раз уточнить через тот же КК и по стоп-словам в нем отсев провести, но основную задачу Букварикс выполняет замечательно. Правда, сортировка по столбцам у него не работает, но сохранив пул запросов в Эксель там можно будет сортировать как заблагороссудится.

Наверное, еще как минимум несколько «серьезных» инструментов собора пула запросов приведете вы сами в комментариях, а я их успешно позаимствую...

Как очистить собранные поисковые запросы от «пустышек» и «мусора»?

Полученный в результате описанных выше манипуляций список, скорее всего, будет весьма большим (если не огромным). Поэтому прежде чем загружать его в кластерезатор (у нас это будет KeyAssort) имеет смысл его слегка почистить . Для этого пул запросов, например, можно выгрузить к кейколлектор и убрать:

  1. Запросы со слишком низкой частотностью (лично я пробиваю частотность в кавычках, но без восклицательных знаков). Какой порог выбирать решать вам, и во многом это зависит от тематики, конкурентности и типа ресурса, под который собирается семядро.
  2. Для коммерческих запросов имеется смысл использовать список стоп-слов (типа, «бесплатно», «скачать», «реферат», а также, например, названия городов, года и т.п.), чтобы заранее убрать из семядра то, что заведомо не приведет на сайт целевых покупателей (отсеять халявшиков, ищущих информацию, а не товар, ну, и жителей других регионов, например).
  3. Иногда имеет смысл руководствоваться при отсеве показателем конкуренции по данному запросу в выдаче. Например, по запросу «пластиковые окна» или «кондиционеры» можно даже не рыпаться — провал обеспечен заранее и со стопроцентной гарантией.

Скажите, что это слишком просто на словах, но сложно на деле. А вот и нет. Почему? А потому что один уважаемый мною человек (Михаил Шакин) не пожалел времени и записал видео с подробным описанием способов очистки поисковых запросов в Key Collector :

Спасибо ему за это, ибо данные вопрос гораздо проще и понятнее показать, чем описать в статье. В общем справитесь, ибо я в вас верю...

Настройка кластеризатора семядра KeyAssort под ваш сайт

Собственно, начинается самое интересное. Теперь весь этот огромный список ключей нужно будет как-то разбить (раскидать) на отдельных страницах вашего будущего или уже существующего сайта (который вы хотите существенно улучшить в плане приносимого с поисковых систем трафика). Не буду повторяться и говорить о принципах и сложности данного процесса, ибо зачем тогда я первую часть этой стать писал.

Итак, наш метод довольно прост. Идем на официальный сайт KeyAssort и скачиваем демо-версию , чтобы попробовать программу на зуб (отличие демо от полной версии — это невозможность выгрузить, то бишь экспортировать собранное семядро), а уже опосля можно будет и оплатить (1900 рубликов — мало, мало по современным реалиям). Если хотите сразу начать работу над ядром что называется «на чистовик», то лучше тогда выбрать полную версию с возможностью экспорта.

Программа КейАссорт сама собирать ключи не умеет (это, собственно, и не ее прерогатива), а посему их потребуется в нее загрузить. Сделать это можно четырьмя способами — вручную (наверное, имеется смысл прибегать к этому методу для добавления каких-то найденных уже опосля основного сбора ключей), а также три пакетных способа импорта ключей :

  1. в формате тхт — когда нужно импортировать просто список ключей (каждый на отдельной строке тхт файлика и ).
  2. а также два варианта экселевского формата: с нужными вам в дальнейшем параметрами, либо с собранными сайтами из ТОП10 по каждому ключу. Последнее может ускорить процесс кластеризации, ибо программе KeyAssort не придется самой парсить выдачу для сбора эти данных. Однако, Урлы из ТОП10 должны быть свежими и точными (такой вариант списка можно получить, например, в Кейколлекторе).

Да, что я вам рассказываю — лучше один раз увидеть:

В любом случае, сначала не забудьте создать новый проект в том же самом меню «Файл», а уже потом только станет доступной функция импорта:

Давайте пробежимся по настройкам программы (благо их совсем немного), ибо для разных типов сайтов может оказаться оптимальным разный набор настроек. Открываете вкладку «Сервис» — «Настройки программы» и можно сразу переходить на вкладку «Кластеризация» :

Тут самое важное — это, пожалуй, выбор необходимого вам вида кластеризации . В программе могут использоваться два принципа, по которым запросы объединяются в группы (кластеры) — жесткий и мягкий.

  1. Hard — все запросы попавшие в одну группу (пригодные для продвижения на одной странице) должны быть объединены на одной странице у необходимого числа конкурентов из Топа (это число задается в строке «сила группировки»).
  2. Soft — все запросы попавшие в одну группу будут частично встречаться на одной странице у нужного числа конкурентов и Топа (это число тоже задается в строке «сила группировки»).

Есть хорошая картинка наглядно все это иллюстрирующая:

Если непонятно, то не берите в голову, ибо это просто объяснение принципа, а нам важна не теория, а практика, которая гласит, что:

  1. Hard кластеризацию лучше применять для коммерческих сайтов . Этот метод дает высокую точность, благодаря чему вероятность попадания в Топ объединенных на одной странице сайта запросов будет выше (при должном подходе к оптимизации текста и его продвижению), хотя самих запросов будет меньше в кластере, а значит самих кластеров больше (больше придется страниц создавать и продвигать).
  2. Soft кластеризацию имеет смысл использовать для информационных сайтов , ибо статьи будут получаться с высоким показателем полноты (будут способны дать ответ на ряд схожих по смыслу запросов пользователей), которая тоже учитывается в ранжировании. Да и самих страниц будет поменьше.

Еще одной важной, на мой взгляд, настройкой является галочка в поле «Использовать маркерные фразы» . Зачем это может понадобиться? Давайте посмотрим.

Допустим, что у вас уже есть сайт, но страницы на нем были оптимизированы не под пул запросов, а под какой-то один, или же этот пул вы считаете недостаточно объемным. При этом вы всем сердцем хотите расширить семядро не только за счет добавления новых страниц, но и за счет совершенствования уже существующих (это все же проще в плане реализации). Значит нужно для каждой такой страниц добрать семядро «до полного».

Именно для этого и нужна эта настройка. После ее активации напротив каждой фразы в вашем списке запросов можно будет поставить галочку. Вам останется только отыскать те основные запросы, под которые вы уже оптимизировали существующие страницы своего сайта (по одному на страницу) и программа KeyAssort выстроит кластеры именно вокруг них. Собственно, все. Подробнее в этом видео:

Еще одна важная (для правильной работы программы) настройка живет на вкладке «Сбор данных с Яндекс XML» . вы можете прочитать в приведенной статье. Если вкратце, то Сеошники постоянно парсят выдачу Яндекса и выдачу Вордстата, создавая чрезмерную нагрузку на его мощности. Для защиты была внедрена капча, а также разработан спецдоступ по XML, где уже не будет вылезать капча и не будет происходить искажение данных по проверяемым ключам. Правда, число таких проверок в сутки будет строго ограничено.

От чего зависит число выделенных лимитов? От того, как Яндекс оценит ваши . можно перейдя по этой ссылке (находясь в том же браузере, где вы авторизованы в Я.Вебмастере). Например, у меня это выглядит так:

Там еще есть снизу график распределения лимитов по времени суток, что тоже важно. Если запросов нужно пробить много, а лимитов мало, то не проблема. Их можно докупить . Не у Яндекса, конечно же, напрямую, а у тех, у кого эти лимиты есть, но они им не нужны.

Механизм Яндекс XML позволяет проводить передачу лимитов, а биржи, подвязавшиеся быть посредниками, помогают все это автоматизировать. Например, на XMLProxy можно прикупить лимитов всего лишь по 5 рублей за 1000 запросов, что, согласитесь, совсем уж не дорого.

Но не суть важно, ибо купленные вами лимиты все равно ведь перетекут к вам на «счет», а вот чтобы их использовать в KeyAssort, нужно будет перейти на вкладку "Настройка " и скопировать длинную ссылку в поле «URL для запросов» (не забудьте кликнуть по «Ваш текущий IP» и нажать на кнопку «Сохранить», чтобы привязать ключ к вашему компу):

После чего останется только вставить этот Урл в окно с настройками KeyAssort в поле «Урл для запросов»:

Собственно все, с настройками KeyAssort покончено — можно приступать к кластеризации семантического ядра.

Кластеризация ключевых фраз в KeyAssort

Итак, надеюсь, что вы все настроили (выбрали нужный тип кластеризации, подключили свои или покупные лимиты от Яндекс XML), разобрались со способами импорта списка с запросами, ну и успешно все это дело перенесли в КейАссорт. Что дальше? А дальше уж точно самое интересное — запуск сбора данных (Урлов сайтов из Топ10 по каждому запросу) и последующая кластеризация всего списка на основе этих данных и сделанных вами настроек.

Итак, для начала жмем на кнопку «Собрать данные» и ожидаем от нескольких минут до нескольких часов, пока программа прошерстит Топы по всем запросам из списка (чем их больше, тем дольше ждать):

У меня на три сотни запросов (это маленькое ядро для серии статей про работу в интернете) ушло около минуты. После чего можно уже приступать непосредственно к кластеризации , становится доступна одноименная кнопка на панели инструментов KeyAssort. Процесс этот очень быстрый, и буквально через несколько секунд я получил целый набор калстеров (групп), оформленных в виде вложенных списков:

Подробнее об использовании интерфейса программы, а также про создание кластеров для уже существующих страниц сайта смотрите лучше в ролике, ибо так гораздо нагляднее:

Все, что хотели, то мы и получили, и заметьте — на полном автомате. Лепота.

Хотя, если вы создаете новый сайт, то кроме кластеризации очень важно бывает наметить будущую структуру сайта (определить разделы/категории и распределить по ним кластеры для будущих страниц). Как ни странно, но это вполне удобно делать именно в KeyAssort, но правда уже не в автоматическом режиме, а в ручном режиме. Как?

Проще опять же будет один раз увидеть — все верстается буквально на глазах простым перетаскиванием кластеров из левого окна программы в правое:

Если программу вы таки купили, то сможете экспортировать полученное семантическое ядро (а фактически структуру будущего сайта) в Эксель. Причем, на первой вкладке с запросами можно будет работать в виде единого списка, а на второй уже будет сохранена та структура, что вы настроили в KeyAssort. Весьма, весьма удобно.

Ну, как бы все. Готов обсудить и услышать ваше мнение по поводу сбора семядра для сайта.

Удачи вам! До скорых встреч на страницах блога сайт

Вам может быть интересно

Vpodskazke - новый сервис Вподсказке для продвижения подсказок в поисковых системах SE Ranking - лучший сервис мониторинга позиций для новичков и профессионалов в SEO Сбор полного семантического ядра в Топвизоре, многообразие способов подбора ключевых слов и их группировка по страницам Практика сбора семантического ядра под SEO от профессионала - как это происходит в текущих реалиях 2018 Оптимизация поведенческих факторов без их накрутки SEO PowerSuite - программы для внутренней (WebSite Auditor, Rank Tracker) и внешней (SEO SpyGlass, LinkAssistant) оптимизации сайта
SERPClick: продвижение поведенческими факторами