-Подписка по e-mail

 

 -Поиск по дневнику

Поиск сообщений в secret_girl_

 -Статистика

Статистика LiveInternet.ru: показано количество хитов и посетителей
Создан: 12.10.2007
Записей:
Комментариев:
Написано: 3073


Семантическое ядро.

Четверг, 26 Января 2012 г. 16:36 + в цитатник

семантическое ядро/1998707_seodro (700x397, 64Kb)Да про программу Key Collector я то почитала но как с ней работать я так и не поняла...

Вот нашла хорошую статью Как с помощью Key Collector составить семантическое ядро. 

Цитирую.

 

Наконец настроив площадку, переходим к составлениюсемантического ядра. Недолго думая, было решено двигаться по НЧ+СЧ (вторых совсем немного), ибо двигаться по некоммерческим ВЧ, на мой взгляд, неоправданно: большинство из таких ВЧ оказываются “пустыми” (об этом ниже). Сразу оговорюсь, для деления запросов на НЧ, СЧ и ВЧ я использую значения 10/1000/10000.

По прикидкам, первоначальное ядро будет включать примерно 800-1000 запросов. После достижения удовлетворительного результата по этим запросам, ядро, соответственно, будет расширяться.

Чтобы обозначить некие отправные точки для составления ядра, я обратился к заранее составленному списку категорий и подкатегорий для сайта. На данном этапе он выглядит примерно так:

Список категорий

Возможно, названия несовершенны или где-то области пересекаются. Это неважно, все лишнее уйдет на этапах группировки ключевиков.

Далее я просто брал название каждой из подкатегорий и парсил в различных вариациях. Или делил на дополнительные подподкатегории и парсил их. К примеру, для “ухода за телом” парсил еще и “уход за кожей“, “уход за волосами“, “уход за ногтями” и т.п. Далее в несколько этапов чистил список, отсеивая нецелевые и запросы-пустышки. Всю работу осуществлял с помощью KeyCollector. Не буду лишний раз рекламировать, скажу лишь, что эта программа из категории “must have”, для любого оптимизатора, кто работает с большим количеством ключевиков (особенно это касается НЧ).

Думаю, лучше всего будет рассмотреть процесс составления ядра на конкретном примере. Для примера мы возьмем запрос “уход за волосами” + производные.

Итак, в КейКоллекторе запускаем парсинг по фразе “уход за волосами“. После получения полного списка определяем нижнюю границу частотности, запросы ниже которой не будут представлять для нас интереса ввиду их непопулярности. Каждый эту границу определяет сам, в зависимости от общего количества трафика в нише и собственной готовности работать с массой непопулярных запросов. Я отделял запросы, имеющие частотность меньше 50-70. В узких нишах пренебрегать такими запросами – непозволительная роскошь, но в женской тематике трафа очень много, посему такие запросы я из ядра исключил. Кликабельно.

Парсинг в KeyCollector

Теперь займемся отделением “пустых” запросов. Жмем на кнопку с увеличительным стеклом -> “уточнить частотности “!”” – количество показов запроса именно в той форме, в которой он нам показан (без морфологических изменений или разбавки). Этот пункт является для нас ключевым. Продвижение по таким запросам может отнять массу ресурсов, а трафа там будет, мягко говоря, меньше, чем вы ожидали.

Пустые запросы

 

Далее сортируем по частотности “!” и так же удаляем запросы, кол-во показов которых ниже установленной нами границы.

Есть еще один нюанс. Хорошо, когда запрос явно “пустой”, но бывают ситуации, когда сложно однозначно классифицировать его “полезность”. К примеру, если у запроса точных (“!”) 250 показов – это хорошо, но если при этом общая частотность у него, скажем 10000, то стоит задуматься, целесообразно ли продвигать такой запрос. Чтобы мы меньше задумывались в KeyCollector’е реализована функция расчета KEI.

KEI – Keyword Effectiveness Index – если обобщить ту кучу трактовок, которую тянет за собой это понятие, то можно представить KEI как отношение отдачи от ключевого слова к усилиям, затраченным на его продвижение. Формулы приводятся самые разнообразные, и, что интересно, единственно правильной нет и быть не может, посему KEI до сих пор является предметом активных споров. Мне не хотелось бы ничего доказывать или навязывать свою позицию по этому поводу, мы просто воспользуемся готовым решением, которое как-то представил г-н Кокшаров на своем блоге. Нужную формулу также ищите там. В принципе, можно использовать в качестве формулы KEI банальное отношение общего кол-ва показов к кол-ву показов в точной форме ( {WordstatBaseFreq}  /  {WordstatQuotePointFreq} ), только нужно будет опытным путем выявить нижнюю границу, принимая значения ниже которой KEI будет свидетельствовать о нецелесообразности продвижения данного ключевика. Я же далее буду использовать коэффициенты, актуальные для формулы Кокшарова.

Вводим формулу KEI

Итак, формулу забили, жмем “Рассчитать KEI по имеющимся данным”. Выполняется это практически мгновенно. Я отсеивал значения KEI ниже 1,5-1,7, в зависимости от общей частотности ключевика: чем больше общая частотность, тем выше должен быть KEI, для НЧ же наоборот, минимально допустимое значение можно уменьшить.

Остался последний этап просеивания. Открываем список стоп-слов и вносим туда вариации “купить“, “заказать“, “скачать“, “форум“, и прочие нецелевые. К сожалению, стоп-слова не смогут решить всех проблем: запросы с геопривязкой (названия городов в запросе), или, к примеру, запросы с названиями болезней (таких было много при парсинге диет, к примеру, “диета при гастрите“), вариаций таких запросов может быть очень много. Тут уж придется просматривать самостоятельно.

В итоге получаем окончательный список запросов, который благополучно копируем в эксель. Чтобы было удобнее в  дальнейшем ориентироваться, я, кроме самих запросов, копировал их частотности (общую и в точной форме), KEI каждого запроса, а так же классификацию запросов сервисом rookee.

Далее просто парсим все сопряженные группы запросов. “Как ухаживать за волосами“, “маски для волос“, “выпадают/секутся волосы“, “лечение волос“, “как красить волосы” и т.п. Чтобы лишний раз не ломать над этим голову, парсим вторую колонку вордстата. Если она пуста (такое бывает нередко), просто парсим основной ВЧ, в нашем случае это “волосы“. Сразу увидим все популярные ветки запросов, которые, в свою очередь, также последовательно парсим и просеиваем по вышеприведенной методике.

Все вышеописанное можно проделывать и без спецсофта, через банальные вордстат и адстат (Рамблера), но, сами понимаете, телодвижений придется сделать гораздо больше.

Через n итераций имеет список такого вида:

Готовый список запросов

Собственно, этот кластер семантического ядра можно считать готовым, осталось только преобразовать весь этот хаос к надлежащему виду. Сгруппируем запросы.

Тут ничего сложного нет, просто собираем группы похожих по смыслу ключевиков. На одну страницу будет приходиться одна группа ключей. Статей нужно как можно больше, так что не жадничаем: не стоит собирать группы из более чем 10-15 ключей (в случае с НЧ) и если будут попадаться ключевики, не имеющие похожих, то не стоит такие пытаться запихнуть в другие группы и рушить логическую структуру будущей статьи, уж лучше заказать под такой ключ отдельную небольшую заметку.

Сгруппированный список запросов

Все. Таким же образом проходим по всем подкатегориям + сопряженным (в ходе парсинга таких вы найдете немало). Планомерно проводя парсинг одной субтематики за другой, вы навряд ли что-либо упустите. На выходе мы имеем готовое наглядно упорядоченное семантическое ядро.

Критика, вопросы, пожелания – в комментарии.

В следующей статье будем готовить контент: расчитывать кол-во и тип вхождений каждого ключа, объем статей, теги и т.п. и займемся поиском копирайтера, который реализует все это дело.

Серия сообщений "Seo":
Часть 1 - Установила Keycollector. Вот разбираюсь....
Часть 2 - Семантическое ядро.
Часть 3 - Эффект Твиттера: как Твиттер влияет на выдачу
Часть 4 - HTML5 vs. SEO
...
Часть 10 - Google Adwords - разбираемся...
Часть 11 - Как найти клиентов с Google AdWords
Часть 12 - Как составить семантическое ядро?

Метки:  

 

Добавить комментарий:
Текст комментария: смайлики

Проверка орфографии: (найти ошибки)

Прикрепить картинку:

 Переводить URL в ссылку
 Подписаться на комментарии
 Подписать картинку