Maison / l'Internet / Noyau sémantique pour la page principale. Comment créer un noyau sémantique pour une boutique en ligne : instructions étape par étape. I. Nettoyer les "poubelles", les doublons et les "factices"

Noyau sémantique pour la page principale. Comment créer un noyau sémantique pour une boutique en ligne : instructions étape par étape. I. Nettoyer les "poubelles", les doublons et les "factices"

(11 )

Dans cet article, nous décrirons l'algorithme complet de collecte du noyau sémantique, principalement pour un site informatif, mais cette approche peut également s'appliquer à des sites marchands.

Sémantique initiale et création de la structure du site

Préparation des mots pour l'analyse et la structure initiale du site

Avant de commencer à analyser des mots, nous devons les connaître. Par conséquent, nous devons créer la structure initiale de notre site et les mots initiaux pour l'analyse (ils sont également appelés marqueurs).

Vous pouvez voir la structure et les mots d'origine :

1. En utilisant la logique, les mots de la tête (si vous comprenez le sujet).
2. De vos concurrents, que vous avez analysés lors du choix des niches ou de la saisie de votre requête principale.
3. De Wikipédia. Il ressemble généralement à ceci :

4. Nous regardons wordstat pour vos requêtes principales et la colonne de droite.
5. Autres ouvrages thématiques et ouvrages de référence.

Par exemple, le sujet de notre site est la maladie cardiaque. Il est clair que nous devons avoir toutes les maladies cardiaques dans notre structure.

Vous ne pouvez pas vous passer d'un manuel médical. Je ne regarderais pas les concurrents, car ils n'ont peut-être pas toutes les maladies, ils n'ont probablement pas eu le temps de les couvrir.

Et vos premiers mots pour l'analyse seront exactement toutes les maladies cardiaques, et sur la base des clés que nous analysons, vous construirez la structure du site lorsque vous commencerez à les regrouper.

De plus, vous pouvez prendre tous les médicaments pour le traitement du cœur, comme extension du sujet, etc. Vous regardez Wikipedia, les rubriques des concurrents sur le site, wordstat, pensez logiquement et trouvez ainsi plus de mots marqueurs que vous analyserez.

Structure du site

Vous pouvez regarder les concurrents pour un aperçu général, mais vous n'êtes pas toujours obligé de créer une structure comme la leur. Vous devriez procéder davantage à partir de la logique de votre public cible, ils saisissent également les requêtes que vous analysez à partir des moteurs de recherche.

Par exemple, comment procéder ? Énumérez toutes les maladies cardiaques et, à partir d'elles, effectuez déjà des symptômes, un traitement. Ou, néanmoins, faites des rubriques pour les symptômes, le traitement, et à partir d'eux conduisent déjà à des maladies. Ces problèmes sont généralement résolus en regroupant les mots-clés en fonction des données des moteurs de recherche. Mais pas toujours, parfois vous devrez faire vos propres choix et décider comment rendre la structure la meilleure, car les demandes peuvent se chevaucher.

Vous devez toujours vous rappeler que la structure est créée tout au long de la collection de sémantiques et parfois dans sa forme originale, elle se compose de plusieurs en-têtes, et avec un regroupement et une collection supplémentaires, elle se développe à mesure que vous commencez à voir les requêtes et la logique. Et parfois, vous pouvez le composer et ne pas vous soucier immédiatement des mots-clés, car vous connaissez bien le sujet ou il est bien représenté par les concurrents. Il n'y a pas de système pour compiler la structure du site, vous pouvez dire que c'est votre créativité personnelle.

La structure peut être personnelle (différente des concurrents), mais elle doit être pratique pour les gens, répondre à leur logique, et donc à la logique des moteurs de recherche, et telle que vous puissiez couvrir tous les mots thématiques de votre créneau. Ce devrait être le meilleur et confortable!

Penser à l'avance. Il arrive que vous preniez un créneau, puis que vous souhaitiez l'étendre, et que vous commenciez à modifier la structure de l'ensemble du site. Et la structure créée sur le site est très difficile et morne à changer. Idéalement, vous devrez modifier les URL des pièces jointes et coller le tout sur le site lui-même. Bref, quel travail fastidieux et très responsable, alors décidez immédiatement comme un homme quoi et comment vous devriez avoir!

Si vous êtes très nouveau sur le sujet du site en cours de création et que vous ne savez pas comment la structure sera construite, que vous ne savez pas quels mots initiaux prendre pour l'analyse, vous pouvez alors échanger les étapes 1 et 2 de la collection. Autrement dit, analysez d'abord les concurrents (nous analyserons comment les analyser ci-dessous), examinez leurs clés, sur cette base, créez une structure et des mots initiaux pour l'analyse, puis analysez wordstat, astuces, etc.

Pour compiler la structure, j'utilise le gestionnaire d'esprit - Xmind. C'est gratuit et a tout ce dont vous avez besoin.

Une structure simple ressemble à ceci :


C'est la structure d'un site marchand. Habituellement, dans les sites d'information, il n'y a pas d'intersections ni de filtres de fiches de produits. Mais cette structure n'est pas compliquée non plus, elle a été compilée pour que le client la comprenne. Habituellement, mes structures consistent en de nombreuses flèches et intersections, des commentaires - moi seul peux comprendre une telle structure.

Est-il possible de créer une sémantique dans le processus de remplissage du site ?

Si la sémantique est facile, que vous avez confiance dans le sujet et que vous le connaissez, alors vous pouvez faire la sémantique en parallèle avec le contenu du site. Mais la structure initiale doit nécessairement être jetée. Je pratique moi-même parfois cela dans des niches très étroites ou dans des niches très larges, pour ne pas passer beaucoup de temps à collecter de la sémantique, mais pour lancer immédiatement le site, mais je ne conseillerais toujours pas de le faire. La probabilité d'erreurs est très élevée si vous n'avez aucune expérience. Pourtant, c'est plus facile lorsque toute la sémantique est prête, que toute la structure est prête et que tout est dégroupé et compréhensible. De plus, dans la sémantique finie, vous pouvez voir quelles clés doivent être prioritaires, lesquelles n'ont pas de concurrence et apporteront plus de visiteurs.

Ici, vous devez également repousser la taille du site, si la niche est large, il est inutile de collecter la sémantique, il est préférable de le faire en cours de route, car la collecte de la sémantique peut prendre un mois ou plus.

Nous avons donc initialement intégré la structure ou ne l'avons pas intégrée, nous avons décidé de passer à la deuxième étape. Nous avons une liste de mots ou d'expressions initiaux pour notre sujet que nous pouvons commencer à analyser.

Analyser et travailler dans keycollector

Pour l'analyse, bien sûr, j'utilise keycollector . Je ne m'attarderai pas sur la mise en place de keycollectora, vous pouvez lire l'aide de ce programme ou trouver des articles de configuration sur Internet, il y en a beaucoup et tout y est décrit en détail.

Lors du choix des sources de grattage, vous devez calculer vos coûts de main-d'œuvre et leur efficacité. Par exemple, si vous analysez la base de données de Pastukhov ou MOAB, vous fouillerez dans un tas de requêtes indésirables qui devront être filtrées, et c'est le moment. Et à mon avis, cela ne vaut pas la peine de trouver quelques demandes. Il existe une étude très intéressante sur les bases de données de RushAnalytics, bien sûr elles s'en vantent, mais si vous n'y prêtez pas attention, des données très intéressantes sur le pourcentage de mauvais mots-clés http://www.rush-analytics.ru/ blog/analytica-istochnikov-sémantique

Lors de la première étape, j'analyse wordstat, adwords, leurs conseils et j'utilise la base de données de mots clés Bookvarix (la version de bureau est gratuite). J'avais aussi l'habitude de parcourir manuellement les conseils de Youtube. Mais récemment, keycollector a ajouté la possibilité de les analyser, ce qui est très agréable. Si vous êtes un pervers complet, vous pouvez ajouter d'autres bases de mots-clés ici.

Commencez l'analyse et c'est parti.

Nettoyer le noyau sémantique d'un site d'information

Nous avons analysé les requêtes et nous avons obtenu une liste de mots différents. Bien sûr, il contient les mots nécessaires, ainsi que les mots indésirables - vides, non thématiques, non pertinents, etc. Par conséquent, ils doivent être nettoyés.

Je ne supprime pas les mots inutiles, mais les déplace dans des groupes, car :

  1. À l'avenir, ils peuvent devenir matière à réflexion et acquérir une pertinence.
  2. Nous excluons la possibilité de suppression accidentelle de mots.
  3. Lors de l'analyse ou de l'ajout de nouvelles phrases, elles ne seront pas ajoutées si vous cochez la case.


J'ai parfois oublié de le définir, j'ai donc configuré l'analyse dans un groupe et analysé les clés uniquement dans celui-ci afin que la collection ne soit pas dupliquée :


Vous pouvez travailler de cette façon ou de cette façon, selon ce qui vous convient.

Collection de fréquences

Nous recueillons de tous les mots par direct, fréquence de base [W] et exact [“!W”].


Tout ce qui ne s'est pas réuni, nous le collectons via wordstat.

Nettoyage d'un seul mot et non-format

Nous filtrons par mots simples, les examinons et supprimons ceux qui ne sont pas nécessaires. Il existe de telles requêtes à un mot qu'il est insensé de continuer, elles ne sont pas sans ambiguïté ou ne dupliquent pas une autre requête à un mot.


Par exemple, nous avons un sujet - les maladies cardiaques. Par le mot «cœur», il ne sert à rien d'aller de l'avant, ce qu'une personne veut dire n'est pas clair - c'est une demande trop large et ambiguë.

Nous examinons également les mots que la fréquence n'a pas collectés - il contient soit des caractères spéciaux dans les mots, soit il y a plus de 7 mots dans la requête. Nous les transférons au non-format. Il est peu probable que de telles demandes soient saisies par des personnes.

Brossage par fréquence globale et exacte

Nous supprimons tous les mots avec une fréquence commune [W] de 0 à 1.

J'enlève aussi tout de 0 à 1 selon la fréquence exacte [”!W”].

Je les divise en différents groupes.

Dans ce qui suit, des mots clés logiques normaux peuvent être trouvés dans ces mots. Si le noyau est petit, vous pouvez immédiatement revoir manuellement tous les mots avec une fréquence nulle et partir, ce que, comme vous le pensez, les gens entrent. Cela aidera à couvrir complètement le sujet et il est possible que les gens suivent de tels mots. Mais naturellement, ces mots doivent être utilisés en dernier, car selon eux grand trafic certainement pas.

La valeur de 0 à 1 est également prise en fonction du sujet, s'il y a beaucoup de mots clés, vous pouvez filtrer de 0 à 10. Autrement dit, tout dépend de l'étendue de votre sujet et de vos préférences.

Chaussure par couverture

La théorie ici est la suivante: par exemple, il y a un mot - "forum", sa fréquence de base est de 8 136 416 et la fréquence exacte est de 24 377, car nous voyons que la différence est de plus de 300 fois. Par conséquent, nous pouvons supposer que cette requête est vide, elle comprend beaucoup de queues.

Par conséquent, par tous les mots, je calcule, tel KEI :

Fréquence fine / Fréquence de base * 100 % = couverture de couverture

Plus le pourcentage est faible, plus il est probable que le mot soit vide.

Dans KeyCollector, cette formule ressemble à ceci :

YandexWordstatQuotePointFreq / (YandexWordstatBaseFreq+0.01) * 100

Ici aussi, tout dépend du sujet et du nombre de phrases dans le noyau, vous pouvez donc supprimer l'exhaustivité de la couverture à moins de 5%. Et là où le noyau est gros, vous ne pouvez même pas en prendre 10 à 30%.

Purge par doublons implicites

Pour nettoyer les doublons implicites, nous devons collecter la fréquence Adwords à partir d'eux et naviguer par celle-ci, car il prend en compte l'ordre des mots. Nous économisons des ressources, nous collecterons donc cet indicateur non pas sur l'ensemble du noyau, mais uniquement sur les doublons.


De cette façon, nous avons trouvé et marqué tous les doublons non évidents. Fermez l'onglet - Analyse des doublons implicites. Ils nous ont marqués dans groupe de travail. Maintenant, nous n'afficherons qu'eux, car les paramètres ne sont tirés que des phrases que nous avons montrées dans le groupe sur ce moment. Et seulement alors nous commençons l'analyse.


On attend qu'Adwords prenne les indicateurs et se lance dans l'analyse des doublons implicites.


Nous définissons ces paramètres d'une marque de groupe intelligent et cliquez sur - effectuer une vérification intelligente. De cette façon, seules les requêtes Adwords les plus fréquentes ne seront pas marquées dans notre groupe de doublons.

Bien sûr, il vaut mieux passer en revue tous les doublons et regarder manuellement, tout à coup quelque chose s'est mal configuré. Portez une attention particulière aux groupes où il n'y a pas d'indicateurs de fréquence, où les doublons sont marqués au hasard.

Tout ce que vous marquez dans l'analyse des groupes implicites, c'est aussi déposé dans le groupe de travail. Ainsi, une fois l'analyse terminée, fermez simplement l'onglet et transférez tous les doublons implicites marqués dans le dossier approprié.

Nettoyage par mots vides

Arrêtez les mots que je divise également en groupes. Séparément, j'apporterai les villes. Ils peuvent être utiles à l'avenir si nous décidons de créer un répertoire d'organisations.

Séparément, je saisis les mots contenant les mots photo, vidéo. Un jour, ils seront utiles.

Et aussi, "demandes vitales", par exemple, Wikipedia, j'inclus le forum ici, ainsi que dans le sujet médical, cela peut inclure - Malyshev, les moustiques, etc.

Tout dépend du sujet aussi. Vous pouvez également faire des demandes commerciales distinctes - prix, acheter, stocker.

Il s'avère que voici une liste de groupes par mots vides :

Nettoyer les mots tordus

Cela s'applique aux sujets concurrentiels, ils sont souvent trompés par des concurrents dans le but de vous induire en erreur. Par conséquent, il est nécessaire de collecter la saisonnalité et d'éliminer tous les mots avec une médiane égale à 0.

Et aussi, vous pouvez regarder le rapport de la fréquence de base à la moyenne, une grande différence peut également indiquer une demande de triche.

Mais vous devez comprendre que ces indicateurs peuvent également indiquer qu'il s'agit de nouveaux mots pour lesquels les statistiques ne sont apparues que récemment ou qu'ils sont simplement saisonniers.

Nettoyage par géo

Habituellement, la vérification par géo pour les sites d'information n'est pas nécessaire, mais juste au cas où, je signerai ce moment.

S'il y a le moindre doute que certaines demandes sont géo-dépendantes, il est préférable de vérifier cela via la collection Rookee, bien qu'elle fasse parfois des erreurs, mais beaucoup moins souvent que de vérifier ce paramètre par Yandex. Ensuite, après avoir collecté Rookee, il convient de vérifier manuellement tous les mots, qui sont indiqués comme géodépendants.

Nettoyage manuel

Maintenant, notre noyau est devenu plusieurs fois plus petit. Nous l'examinons manuellement et supprimons les phrases inutiles.

En conséquence, nous obtenons les groupes suivants de notre noyau :

Jaune - mérite d'être creusé, vous pouvez trouver des mots pour l'avenir.

Orange - peut être utile si nous élargissons le site avec de nouveaux services.

Rouge - pas utile.

Analyse de la concurrence des requêtes pour les sites d'information

Après avoir collecté les demandes et les avoir nettoyées, nous devons maintenant vérifier leur concurrence afin de comprendre à l'avenir quelles demandes doivent être traitées en premier lieu.

Concurrence dans le nombre de documents, titres, pages principales

Tout cela est facilement supprimé via KEI dans le KeyCollector.


Nous obtenons des données pour chaque demande, combien de documents ont été trouvés dans le moteur de recherche, dans notre exemple dans Yandex. Combien de pages principales se trouvent dans les résultats de cette requête et les occurrences de la requête dans le titre.

Sur Internet, vous pouvez trouver différentes formules pour calculer ces indicateurs, même s'il semble que dans le KeyCollector fraîchement installé, selon la norme, une sorte de formule de calcul de KEI est intégrée. Mais je ne les suis pas, car vous devez comprendre que chacun de ces facteurs a poids différent. Par exemple, le plus important est la présence des pages principales dans les résultats de recherche, puis les rubriques et le nombre de documents. Il est peu probable que cette importance des facteurs puisse d'une manière ou d'une autre être prise en compte dans la formule, et si c'est encore possible, alors vous ne pouvez pas vous passer d'un mathématicien, mais alors cette formule ne pourra pas s'adapter aux capacités de KeyCollector .

Concurrence sur le marché des liens

C'est plus intéressant ici. Chaque échange a ses propres algorithmes de calcul de la concurrence, et on peut supposer qu'ils prennent en compte non seulement la présence de pages principales dans les résultats de recherche, mais également l'âge des pages, la masse de liens et d'autres paramètres. Fondamentalement, ces échanges sont bien sûr conçus pour des demandes commerciales, mais encore, plus ou moins, certaines conclusions peuvent être tirées des demandes d'informations.

Nous collectons des données sur les échanges et affichons des moyennes et nous nous concentrons déjà sur eux.


Je collecte généralement sur 2-3 échanges. L'essentiel est que toutes les demandes soient collectées pour les mêmes échanges et que le nombre moyen ne soit dérivé que pour elles. Et non pas pour que certaines demandes aient été collectées par certains échanges, et d'autres par d'autres, et qu'ils en aient déduit la moyenne.

Pour une vue plus visuelle, vous pouvez appliquer la formule KEI, qui affichera le coût d'un visiteur en fonction des paramètres des échanges :

KEI = Budget moyen / (Trafic moyen +0,01)

Divisez le budget moyen des échanges par le trafic moyen prévu pour les échanges, nous obtenons le coût par visiteur basé sur les données des échanges.

compétition mutagène

Ce n'est pas dans keycollector, mais ce n'est pas un problème. Sans problème, tous les mots peuvent être téléchargés vers Excel, puis exécutés via le KeyCollector.

Pourquoi Keyso est-il meilleur ? Il a une base plus large que ses concurrents. C'est propre, il n'y a pas de phrases qui sont dupliquées et écrites dans un ordre différent. Par exemple, vous n'y trouverez pas de telles touches répétées "diabète de type 1", "diabète de type 1".

Keyso sait également comment incendier des sites avec un compteur Adsense, Analytics, Leadia, etc. Vous pouvez voir quels autres sites il y a du propriétaire du site analysé. Oui, et en général, quand il s'agit de trouver des sites concurrents, je pense que c'est la meilleure solution.

Comment travailler avec Keyso ?

Nous prenons n'importe quel site de notre concurrent, c'est mieux bien sûr plus, mais pas particulièrement critique. Parce que nous allons travailler en deux itérations, saisissez-le dans le champ. Zhmakaem - analyser.

On se renseigne sur le site, on s'intéresse aux concurrents ici, cliquez sur ouvrir tout.


Nous ouvrons tous les concurrents.


Ce sont tous des sites qui chevauchent d'une manière ou d'une autre des mots-clés avec notre site analysé. Il y aura youtube.com, otvet.mail.ru, etc., c'est-à-dire de grands portails qui écrivent sur tout. Nous n'en avons pas besoin, nous avons besoin de sites uniquement sur notre sujet. Par conséquent, nous les filtrons selon les critères suivants.

La similarité est le pourcentage de clés communes par rapport au nombre total de ce domaine.

Thématicité - le nombre de clés de notre site analysé dans les clés du domaine du concurrent.

Par conséquent, l'intersection de ces paramètres supprimera les sites partagés.

Nous mettons le thème 10, similarité 4 et voyons ce que nous obtenons.

Il s'est avéré 37 concurrents. Mais tout de même, nous allons toujours les vérifier manuellement, les télécharger sur Excel et, si nécessaire, supprimer ceux qui ne sont pas nécessaires.


Allez maintenant dans l'onglet de rapport de groupe et entrez tous nos concurrents que nous avons trouvés ci-dessus. Cliquez pour analyser.

Nous obtenons une liste de mots clés pour tous ces sites. Mais nous n'avons pas encore entièrement dévoilé le sujet. Nous passons donc chez les concurrents du groupe.

Et maintenant, nous obtenons tous les concurrents, tous les sites auxquels nous sommes entrés. Il y en a plusieurs fois plus et il y en a aussi beaucoup de thématiques générales. Nous les filtrons par similarité, disons 30.

Nous obtenons 841 concurrents.


Ici, nous pouvons voir le nombre de pages de ce site, le trafic et tirer des conclusions sur le concurrent le plus efficace.

Nous les exportons tous vers Excel. Nous trions entre nos mains et ne laissons que les concurrents de notre créneau, nous pouvons marquer les camarades les plus efficaces afin de les évaluer plus tard et voir quelles puces ils ont sur le site, des requêtes qui donnent beaucoup de trafic.

Maintenant, nous allons à nouveau au rapport de groupe et ajoutons tous les concurrents que nous avons déjà trouvés et obtenons une liste de mots-clés.

Ici, nous pouvons immédiatement filtrer la liste par "!wordstat" Plus de 10.


Voici nos demandes, maintenant nous pouvons les ajouter au KeyCollector et spécifier que les phrases qui sont déjà dans un autre groupe KeyCollector ne sont pas ajoutées.

Maintenant, nous nettoyons nos clés et élargissons, regroupons nos noyau sémantique.

Services de collecte sémantique de base

Dans cette industrie, vous pouvez trouver de nombreuses organisations prêtes à vous offrir des services de clustering. Par exemple, si vous n'êtes pas prêt à prendre le temps d'apprendre les subtilités du clustering et de le faire vous-même, il y a beaucoup de gens prêts à faire le travail.

Yadrex

L'un des premiers sur le marché à utiliser intelligence artificielle créer un noyau sématique. Le chef d'entreprise est lui-même webmaster professionnel et spécialiste des technologies SEO, il est donc garant de la qualité du travail de ses collaborateurs.

De plus, vous pouvez appeler les numéros indiqués pour obtenir des réponses à toutes vos questions concernant les travaux.

Lors de la commande de services, vous recevrez un fichier contenant les groupes de contenu du noyau et sa structure. De plus, vous obtenez la structure dans le mindmup.

Le coût des travaux varie en fonction du volume, plus le volume de travail est important, moins le coût d'une clé est élevé. Coût maximal pour projet d'information sera de 2,9 roubles pour une clé. Pour le vendeur 4,9 roubles par clé. Des rabais et des primes sont offerts pour les grosses commandes.

Conclusion

Ceci achève la création du noyau sémantique du site d'information.

Je vous conseille de surveiller l'historique des modifications du programme KeyCollector, car il est constamment complété par de nouveaux outils, par exemple, youtube pour l'analyse a été récemment ajouté. Avec l'aide de nouveaux outils, vous pouvez encore étendre votre noyau sémantique.

Si vous connaissez la douleur de "l'aversion" des moteurs de recherche pour les pages de votre boutique en ligne, lisez cet article. Je parlerai de la voie pour augmenter la visibilité du site, ou plutôt de sa première étape - la collecte de mots-clés et la compilation d'un noyau sémantique. A propos de l'algorithme pour sa création et des outils qui sont utilisés pour cela.

Commandez la collection du noyau sémantique auprès des spécialistes SEO de l'agence Netpeak :

Pourquoi constituer un noyau sémantique ?

Augmenter la visibilité des pages du site. Faites en sorte que les robots de recherche Yandex et Google commencent à trouver des pages de votre site à la demande des utilisateurs. Bien sûr, la collecte de mots-clés (composant la sémantique) est la première étape vers cet objectif. Ensuite, un « squelette » conditionnel est ajouté pour répartir les mots-clés selon différentes pages de destination. Et puis les articles/meta tags sont déjà écrits et implémentés.

Soit dit en passant, sur Internet, vous pouvez trouver de nombreuses définitions du noyau sémantique.

1. "Le noyau sémantique est un ensemble ordonné de mots de recherche, leurs formes morphologiques et les phrases qui caractérisent le plus précisément le type d'activité, de produit ou de service proposé par le site." Wikipédia.

Pour collecter la sémantique des concurrents dans Serpstat, entrez l'une des requêtes clés, sélectionnez une région, cliquez sur "Rechercher" et allez dans la catégorie "Analyse" Expressions-clés". Sélectionnez ensuite "Analyse SEO" et cliquez sur "Sélectionner des phrases". Exporter les résultats :

2.3. Utilisation de Key Collector/Slovoeb pour créer un noyau sémantique

Si vous avez besoin de créer un noyau sémantique pour une grande boutique en ligne, vous ne pouvez pas vous passer de Key Collector. Mais si vous êtes débutant, il est plus pratique d'utiliser un outil gratuit - Slovoeb (que ce nom ne vous effraie pas). Téléchargez le programme et, dans les paramètres Yandex.Direct, spécifiez le nom d'utilisateur et le mot de passe de votre Yandex.Mail :
Créez un nouveau projet. Dans l'onglet "Données", sélectionnez la fonction "Ajouter des phrases". Sélectionnez une région et entrez les demandes que vous avez reçues précédemment :
Conseil : créez un projet distinct pour chaque nouveau domaine, et créez un groupe distinct pour chaque catégorie/page de destination. Par exemple: Collectez maintenant la sémantique de Yandex.Wordstat. Ouvrez l'onglet "Collecte de données" - "Collection par lots de mots de la colonne de gauche de Yandex.Wordstat". Dans la fenêtre qui s'ouvre, cochez la case "Ne pas ajouter de phrases si elles existent déjà dans d'autres groupes". Entrez certaines des phrases les plus populaires (à haute fréquence) parmi les utilisateurs et cliquez sur "Commencer à collecter":

Soit dit en passant, pour les grands projets dans Key Collector, vous pouvez collecter des statistiques à partir des services d'analyse des concurrents SEMrush, SpyWords, Serpstat (ex. Prodvigator) et d'autres sources supplémentaires.

En 2008, j'ai créé mon premier projet Internet.

C'était un magasin d'électronique en ligne qui avait besoin de promotion.

Initialement, le travail de promotion a été confié aux programmeurs qui l'ont créé.

Que promouvoir ?

Ils ont compilé une liste de clés en 5 minutes : téléphones portables, caméscopes, appareils photo, iPhones, Samsung - toutes les catégories et tous les produits du site.

Il s'agissait de noms communs qui ne ressemblaient pas du tout à un noyau sémantique correctement composé.

Une longue période passa sans résultats.

Des rapports incompréhensibles contraints de rechercher des artistes spécialisés dans la promotion de sites Web.

J'ai trouvé une entreprise locale, je leur ai confié le projet, mais même ici, tout n'a servi à rien.

Ensuite, la compréhension est venue que de vrais professionnels devraient être engagés dans la promotion.

Après avoir lu de nombreuses critiques, j'ai trouvé l'un des meilleurs freelances qui assura le succès.

Six mois plus tard, toujours aucun résultat.

C'est le manque de résultats en organique depuis deux ans qui m'a poussé vers le SEO.

Par la suite, cela est devenu la vocation principale.

Maintenant, je comprends ce qui n'allait pas dans ma promotion initiale.

Ces erreurs sont répétées par la plupart des spécialistes du référencement, même expérimentés, qui ont passé plus d'un an à promouvoir des sites Web.

Les ratés étaient dans le mauvais travail avec des mots-clés.

En fait, il n'y avait aucune compréhension de ce que nous promouvons.

Vous n'avez pas le temps de collecter le noyau sémantique, remplissez rapidement les coordonnées.








Outils gratuits de compilation CR

Les outils de recherche de clés gratuits sont essentiels pour trouver des idées intéressantes.

Vous n'avez pas à payer pour eux, parfois une inscription est requise.

Je vais vous expliquer en détail les secrets de la façon d'obtenir une sémantique prête à l'emploi à partir de ces outils.

Avec une liste de clés, il est assez facile à assembler, il existe de nombreux outils gratuits et payants.

Commençons par 4 ressources gratuites populaires que j'utilise moi-même tout le temps.

1.1. Le planificateur de mots clés de Google est l'outil le plus polyvalent dans lequel vous pouvez créer des filtres par région, langue.

Il est intéressant dans la mesure où il fait une large sélection de mots-clés homogènes, montre le trafic et le niveau de concurrence en publicité contextuelle.

Nécessite une inscription pour travailler Google AdWords.

Il est également important de créer au moins une entreprise pour laquelle vous ne pouvez pas payer.

Tous ces processus sont visuellement clairs, alors passons directement au planificateur de mots clés.

Pour commencer avec l'outil, cliquez sur la clé à molette (coin supérieur droit) et sélectionnez "Planificateur de mots clés".

La capture d'écran montre une nouvelle version conception.

Après cela, vous accédez à une page où vous pouvez entrer de nombreuses options pour les clés, rechercher sur une page pertinente ou sélectionner la catégorie souhaitée.

Dans la nouvelle interface de conception, nous voyons une telle fenêtre.

Nous considérerons les deux options pour sélectionner les mots-clés.

1. OPTION

Vous voyez 2 modules.

  1. Rechercher des mots-clés
  2. Obtenez des données et des prévisions sur le volume de demandes

Lorsque vous accédez au module "Rechercher des mots-clés", Vous obtenez un formulaire pour entrer des options pour les phrases clés qui doivent être écrites séparées par des virgules.

Comme nous pouvons le constater, le nombre d'options reçues a déjà considérablement augmenté.

Dans l'ancienne interface, il n'y en avait pas plus de 700, dans la nouvelle, nous avons 1365 options.

Le nombre d'options reçues est toujours inférieur services payants, qui récupèrent une liste plus large de requêtes à faible fréquence.

Dans la même fenêtre, vous pouvez régler les fonctions suivantes.

  1. Région Requêtes de recherche
  2. Réseau de Recherche : Google ou Google + Partners
  3. Téléchargez les options résultantes au format csv-excel
  4. Affiche les données annuelles par défaut, peut être ajustée pour les requêtes saisonnières
  5. Affiche le nombre de correspondances trouvées
  6. Corriger les données nécessaires ou ajouter des filtres (un seul filtre par défaut, ne pas afficher le contenu pour adultes).

Les données mensuelles sont divisées en belles infographies, ce qui est très pratique pour visualiser les requêtes saisonnières.

Un autre facteur important à partir duquel ces clés sont visualisées est la version de bureau et mobile.

Nous allons ci-dessous et obtenons directement une liste de mots-clés avec fréquence, enchère minimum et maximum par clic.

Lors du passage au module "Obtenir des données sur le nombre de demandes et les prévisions", nous introduirons les demandes précédemment considérées.

Nous obtenons des données de conversion pour les mots clés sélectionnés : dépenses, nombre de conversions, valeur de conversion, clics.

Il s'agit d'informations précieuses pour la planification budgétaire dans Google Adwords et une comparaison approximative avec le référencement.

Je veux immédiatement contrarier ceux qui envisagent d'utiliser uniquement cet outil.

L'exactitude des données est discutable.

Un expert bien connu dans le monde du référencement, Rand Fishkin, a critiqué la précision du trafic et l'exactitude du clustering.

Par conséquent, il est préférable d'utiliser en plus d'autres ressources bien connues.

1.2. Wordstat.yandex.ru est un analogue de Yandex, qui affiche également le trafic, les requêtes homogènes.

Pour travailler, vous devez vous connecter à l'aide de la messagerie Yandex ou des réseaux sociaux.

Questions : pourquoi, qui, quoi, comment, où (pourquoi, qui, quoi, comment, où) sont des mots fréquemment utilisés dans ce segment.

Voir ci-dessous pour une liste de mots populaires pour la recherche vocale dans le segment anglais.

En même temps, je tiens à vous avertir - ne suroptimisez pas !

John Mueller, l'un des analystes de Google, avertià ce sujet.

Il n'est pas nécessaire de modifier spécifiquement une partie du contenu pour Recherche vocale si sa qualité diminue.

Pensez aux facteurs comportementaux, ce sont les paramètres les plus importants.

1.4. Prédire les clés. Pour ce faire, utilisez l'utilitaire gratuit de collecte de clés.

Je comprends que la terminologie est complexe, alors regardons un exemple.

Créez simplement une requête dans la première colonne de ce type (SYNONYM1|Synonym2|Synonym3) (Synonym4|Synonym5|Synonym6).

Par exemple : (réparation|réparation|réparation) (moteurs|moteurs).

Dans les autres colonnes, entrez les régions : Moscou, MSK (dans la colonne GEO).

Dans la colonne "Région", notez le numéro de la région selon Wordstat.

Ensuite, si vous appuyez sur le bouton « GET KEYWORDS (1) » — le bouton « FIND MORE KEYWORDS (2) » apparaîtra — le système affichera les résultats de Wordstat sans tenir compte des mots que vous avez déjà utilisés.

Vous pouvez également cliquer sur les lignes ci-dessous (3) pour vérifier les résultats des groupes sélectionnés.

Écrivez les mots inutiles dans la colonne MOINS-mots.

Les nécessaires se trouvent dans d'autres colonnes (pour plus de commodité, ils sont étiquetés comme Propriétés, Types, Nomenclature, Marques, Demandes transactionnelles, Régions, etc.).

Par exemple, il est clair ici que "bricolage, vidéo, mécanique" passent dans le rouge, et "diesel, immobilisation, turbines, bloc, injecteurs" nous seront utiles pour les sous-pages et sous-sections (4).

Après chaque mise à jour de la liste, cliquez à nouveau dans un cercle « GET KEYWORDS (5) » et « FIND MORE KEYWORDS (6) » - et continuez le cycle jusqu'à ce qu'il n'y ait plus que des ordures dans les résultats de la recherche.

Le système remplacera les requêtes déjà utilisées par l'opérateur moins.

La commodité de l'utilitaire réside dans le fait qu'il exclut les répétitions dans la requête de recherche Yandex, ce qui simplifie grandement le travail.

Des listes prêtes à l'emploi peuvent être transférées vers Excel en cliquant sur chaque ligne ou simplement en les déposant directement dans le KeyCollector (après avoir ajouté une liste de mots-clés négatifs dans la section appropriée).

La vitesse d'analyse sémantique peut être réduite de plusieurs heures à plusieurs minutes.

1.5. Ubersuggest - Cet outil a été acheté par le célèbre gourou du référencement Neil Patel pour 120 000 $.

Après cela, il a investi 120 000 dollars supplémentaires. Les États-Unis sur son amélioration et ne s'arrêtent pas là.

Il a également promis qu'Ubersuggest serait toujours gratuit.

Les données de cet outil sont extraites de Google Keyword Planner et de Google Suggest.

Lors de son utilisation, aucune inscription n'est nécessaire, ce qui est également un gros plus.

Cet outil n'a pas de version en langue russe, alors qu'il est possible d'obtenir des données sur les clés en langue russe.

Pour rechercher une liste de clés, saisissez une requête fréquente, sélectionnez une langue et un moteur de recherche.

Une option supplémentaire pour ajouter une liste de mots-clés négatifs dans le champ de droite.

Les données reçues peuvent être téléchargées au format csv-excel.

Cette fonctionnalité est implémentée au bas de la liste résultante.

Outils de recherche de clés payants

Les outils payants sont importants pour fournir une liste plus complète de clés.

Ils fournissent également des paramètres supplémentaires importants pour l'analyse des clés de recherche.

Je vais vous parler de 3 outils payants que j'utilise personnellement.

De nombreuses requêtes à basse fréquence peuvent également être captées à l'aide des ressources SEO : serpstat.com, ahrefs.com, semrush.com, moz.com, keywordtool.io et autres.

Vous n'avez pas besoin de tout payer, choisissez ceux qui vous conviennent le mieux.

Ces outils sont payants, avec différents forfaits mensuels.

Si vous avez besoin d'un accès ponctuel, contactez-moi pour le freelance.

Pour une somme modique (à partir de 5 $), je vous fournirai des informations sur vos clés.

Les versions gratuites de ces outils ont une version limitée.

Pour rechercher des clés à basse fréquence, vous devez entrer une requête à haute fréquence, les systèmes sélectionnés élargissent indépendamment les options possibles.

Pour la requête "fenêtres en plastique" utilisant Serpstat, nous avons reçu 5200 options pour Yandex.Moscow et 3500 pour Google Russie.

Pour la même requête, Ahrefs a généré 7 721 variantes de clés différentes.

Au fait, Tim Soulo, spécialiste du marketing ukrainien chez Ahrefs, déclaré, qui donnera un abonnement pour six mois à celui qui montre le service qui génère plus de clés.

La même requête dans keywordtool.io n'a collecté que 744 options de mots clés, et cet outil se spécialise uniquement dans les mots clés.

Je l'utilise principalement pour rechercher des mots-clés pour YouTube, Amazon, ebay.

Après avoir collecté la liste des clés, il est important de les disperser sur les pages du site ou de les regrouper.

J'ai déjà mentionné plusieurs fois ce mot difficile à prononcer "clustering".

Regardons cela plus en détail.

Commençons par un remix d'un virelangue bien connu pour faciliter la prononciation :-)

Regroupement de mots clés

Le regroupement de mots-clés par pages de site est l'une des tâches les plus chronophages.

Certains le font manuellement, d'autres paient les services appropriés.

Cela prend du temps et coûte cher.

je vais vous montrer gratuitement manière rapide regrouper le noyau sémantique.

L'une des erreurs les plus courantes est le regroupement incorrect des mots-clés sur les pages du site promu ou le regroupement du noyau sémantique.

C'est comme construire une maison sans avoir de plan de construction.

La répartition de la liste des clés par pages du site est à la base de toute promotion.

Une clé de recherche est une question posée par un internaute à laquelle il souhaite recevoir une réponse pertinente.

Les requêtes doivent correspondre au contenu de la page.

Sinon, les utilisateurs commenceront à quitter votre site.

Le moteur de recherche n'affichera pas dans les résultats de recherche une ressource qui présente de mauvais facteurs comportementaux.

Tous les outils ci-dessus, lorsqu'ils utilisent 3 à 4 mots dans une phrase clé, réduisent le temps de regroupement des clés, tout en perdant de nombreuses combinaisons différentes.

Et s'il y a vraiment beaucoup de clés ?

Le regroupement manuel de plusieurs milliers de clés prend parfois plusieurs jours.

Il est nécessaire de comparer l'émission de différentes clés homogènes.

Si les pages du TOP correspondent, les touches peuvent être combinées en un seul groupe.

Il est préférable de considérer cette question avec un exemple.

Comme vous pouvez le voir, les mêmes URL sont dans le TOP, il n'est donc pas nécessaire de créer des pages séparées pour ces requêtes, car les utilisateurs recherchent le même contenu.

Même si plusieurs pages correspondent dans les résultats de la recherche, les clés peuvent être combinées en un seul groupe.

La principale difficulté du clustering est la vérification de plusieurs dizaines voire centaines de milliers de clés.

Dans cette situation, les erreurs sont inévitables.

Les gens ne sont pas des robots, ils se fatiguent.

Quelque part, ils sont pressés par les délais, ils doivent faire le travail de manière incomplète.

Cela s'applique même aux référenceurs expérimentés.

Depuis de nombreuses années, voyant les mêmes erreurs, je voulais trouver une solution à ce problème.

Plusieurs outils payants sont apparus sur Internet qui automatisent le travail de clustering de clés.

Mais cela pose aussi la question de la qualité, du prix et du délai.

Par exemple, les prix pour le regroupement d'une liste de 4000 clés maximum sont inclus dans plan tarifaire B sur serpstat.com.

Tout ce que vous devez vérifier en plus du plan coûte 20 $ pour 3 000 clés.

Je respecte le travail de nos collègues qui ont créé des outils SEO indispensables, mais pour être honnête, même pour un projet moyen, c'est très peu.

Une seule page du site peut mener de plusieurs centaines à plusieurs milliers de clés.

La politique de tarification peut être comprise, les algorithmes doivent obtenir le problème et comparer les résultats sur des pages homogènes.

Ce sont les ressources dépensées plus la composante commerciale.

Dans le même temps, le problème change constamment et les pages du TOP changent en conséquence.

Ce qui était pertinent peut devenir non pertinent dans quelques mois.

Le deuxième inconvénient est le temps, qui est compensé par le fait que le processus peut être démarré et y revenir lorsqu'il est terminé.

En règle générale, cela prend plusieurs heures, en fonction de la vitesse de téléchargement du service.

Nous n'aimons pas attendre, encore moins payer :-)

Par conséquent, nous avons étudié autant que possible les problèmes de regroupement de clés et créé notre clustereur de mots clés révolutionnaire, qui résout les principaux problèmes :

  • notre outil offre un regroupement gratuit d'une liste illimitée de clés (si le service est surchargé, nous introduirons une limite de 10 000 clés par jour) ;
  • effectue le regroupement en quelques secondes ;
  • vous permet de définir des paramètres individuels en fonction des exigences d'émission ;
  • supprime les requêtes indésirables et non pertinentes ;
  • combine les synonymes en un seul groupe ;
  • minimise le travail manuel.

Avec l'aide de notre clusterer, nous avons créé une sémantique clé en main pour un projet anglophone à partir de 80 000 clés en seulement 20 minutes !

Le thème est « dating » (rencontres), alors que nous n'avons rien perdu de vue.

Il y a un mois, j'aurais dit que c'est de la folie, aujourd'hui c'est une réalité.

Le site contient des instructions sur la façon d'utiliser l'outil, ainsi qu'un bouton "Comment ça marche".

Parlons brièvement des principaux éléments.

Remarque importante, les champs sont facultatifs.

Tout dépend des clés choisies.

Pour le test principal, je remplis un seul champ « Compte pour un mot ».

La version finale est en outre groupée.

  • Copiez les clés, aussi souvent que possible, collez-les dans le formulaire du clusterer. Par exemple, à partir de wordstat.yandex.ru ou à partir de deux colonnes Excel. Le système reconnaît les clés et les chiffres comme des composants distincts. Les données de la version finale sont distribuées correctement.
  • La deuxième option consiste à charger à partir d'un fichier txt, csv, xls, xlsx. Vous pouvez simplement télécharger la sémantique de Serpstat, Ahrefs, Google Keyword Planner, Key Collector ou d'autres outils. Il n'est pas nécessaire de les traiter spécialement pour le clusterer. Le système lui-même distribuera tout selon les paramètres nécessaires. Si la calculatrice ne comprend pas quelles colonnes font référence à quoi, une boîte de dialogue apparaîtra avec des précisions sur les colonnes sélectionnées.
  • Ensuite, sélectionnez le niveau de fréquence : HF (haute fréquence), MF (moyenne fréquence), LF (basse fréquence), MF (microfréquence). Ici tout est individuel, essayez différentes variantes et comparer avec la sortie réelle.
  • Assurez-vous de cocher "Prendre en compte la géodépendance" ou non. Par exemple, vous faites la promotion de sites Web dans la ville de Kharkov. Dans le TOP, de nombreuses pages ne sont pas optimisées pour cela, ce qui signifie que la géo-dépendance est laissée de côté. Si votre demande principale est la « réparation de réfrigérateurs à Kharkiv », vous devez tenir compte de la géodépendance.
  • "Clusters étendus pour la sémantique" regroupe les requêtes non groupées dans les groupes les plus pertinents. Si cette fonction est désactivée, les clés sans groupe seront placées dans le Non groupé."
  • Ensuite, remplissez le formulaire "Compte comme un mot". Ceci est nécessaire pour combiner plusieurs mots en un seul ensemble. Par conséquent, le système ne divisera pas les phrases en groupes distincts. Par exemple: Machine à laver. Le système ne divisera pas les mots tels que "lavage" et "voiture" en 2 groupes. Autres exemples : vêtements pour nouveau-nés, iPhone 8, magasin d'électronique en ligne. Si vous avez plusieurs phrases de ce type, saisissez-les en les séparant par des virgules.
  • Les mots-clés négatifs sont nécessaires pour éliminer immédiatement les mots-clés non pertinents de la liste. Par exemple, le mot "gratuit". Afin de ne pas éliminer des phrases telles que " livraison gratuite”, utilisez l'opérateur de point d'exclamation “!”. Alors vous interdisez au système d'infléchir ce mot. Par exemple : !gratuit.
  • La liste des mots ignorés est celle des mots qui n'affectent pas les résultats du problème. Le système ignore automatiquement les prépositions dans les segments russe et anglais, il n'est donc pas nécessaire de les saisir. Par exemple, l'expression " Iphone Apple X". Le mot "Apple" n'affecte en rien les résultats de la recherche, car les utilisateurs recherchent des données sur l'iPhone. Afin de ne pas créer de cluster supplémentaire, ajoutez-le à ce formulaire.
  • La dernière forme est celle des synonymes. Par exemple, les mots "acheter", "prix", "coût" signifient la même chose pour demandes commerciales. Le système les reconnaît automatiquement comme des synonymes, il n'est donc pas nécessaire de les saisir. Entrez d'autres mots synonymes: "iPhone", "iPhone" ou "choisir", "choisir", ils ont le même sens dans le segment russophone. S'il y a beaucoup de synonymes, appuyez sur le plus et ajoutez d'autres options.

Pour obtenir la version finale, appuyez sur "RECHERCHE" et obtenez une liste groupée.

Les touches pertinentes sont cochées.

Nous avons comparé les résultats avec des clusterers rémunérés, la précision des données obtenues dans notre outil est plus élevée.

La commodité et la rapidité de travail y sont meilleures que même dans Excel, qui est lent lors de l'ajout d'une énorme liste de clés et un grand nombre formules.

Je posterais les résultats de nos comparaisons, mais je pense que ce serait incorrect par rapport à nos confrères.

De plus, de notre part, il est biaisé de donner des exemples qui peuvent être considérés comme réussis.

Par conséquent, je laisse tout au jugement des lecteurs.

Je serai heureux d'entendre votre opinion dans les commentaires.

Bien sûr, notre clusterer n'est pas une pilule magique qui résout tous les problèmes.

Même les outils Google n'affichent pas de données précises dans le clustering.

Notre clusterer est un énorme gain de temps.

Les listes prêtes à l'emploi sont plus faciles à vérifier et à trier par pages de site.

Promotion pour les requêtes peu fréquentes

La promotion sur les requêtes peu fréquentes est le début de tout jeune projet.

N'essayez pas d'éliminer les grands projets expérimentés avec un budget limité du TOP 10.

je vais te montrer moyens efficaces recherche de touches basse fréquence.

La majorité des propriétaires de jeunes sites sélectionne initialement les requêtes à fréquence élevée et moyenne.

Ce sont des touches comme " acheter un iphone”, “Appartement à louer" et ainsi de suite.

Selon eux, le TOP était occupé par des sites hautement fiables qui ne veulent clairement pas le quitter.

Les budgets de référencement pour de telles ressources sont plusieurs fois plus élevés, et une confiance supplémentaire aide à les promouvoir avec moins d'effort.

Vous ne déplacerez jamais les sites avec des millions de trafic que tout le monde connaît dans le TOP.

Une jeune ressource doit se concentrer sur les requêtes peu fréquentes, alors que, selon l'analyse MOZ, 80% de toutes les ventes sur Internet sont réalisées à partir de requêtes peu fréquentes.

Les requêtes à faible fréquence contiennent 4 mots ou plus avec une fréquence allant jusqu'à 1000 personnes par mois.

Créez du contenu pour eux et obtenez du trafic dans un avenir proche.

Vous pouvez rechercher des requêtes peu fréquentes à l'aide de divers outils.

Voyons les principaux.

4.1. Utilisez les suggestions de recherche : Google, Yandex, Bing, Facebook, Twitter, Pinterest, Wikipédia, Amazon, tout autre site disposant de cette fonctionnalité.

Ceci, bien sûr, est une grande quantité de travail manuel et un casse-tête complet, mais c'est cette approche qui vous permet de trouver vraies clés pour l'avancement.

4.2. Utilisez des forums qui présentent votre sujet, en particulier ceux comme Reddit.

Trouvez des discussions qui ont reçu beaucoup de commentaires sur votre sujet.

Copiez le nom de la branche et créez du contenu pour ces clés.

Regardons un exemple de la façon de rivaliser sur des requêtes bien connues avec des monstres tels qu'Amazon, Expedia, Yelp dans le segment américain.

Par exemple, vous faites la promotion de la demande « ticket fly » (billets d'avion).

Avec ces clés, des sites comme Expedia, Kayak sont classés, qui ont plus de 4 millions de trafic pour les seules requêtes de marque !

Vérifiez le problème, les 4 premiers sites sont de la publicité contextuelle.

Et puis il n'y a que des monstres dans l'organique, qui ont au moins plusieurs millions de trafic.

Croyez-moi, il n'est pas réaliste de rivaliser avec eux pour ces clés.

Vous devez rechercher les requêtes que ces ressources ne promeuvent pas.

De nombreuses sociétés de référencement occidentales pour les petits sites commerciaux n'utilisent pas du tout d'outils de sélection de mots clés.

Entrez la requête principale dans la recherche Reddit.

Vérifiez les discussions populaires qui obtiennent beaucoup de points et de commentaires.

Copiez le nom ou sa partie principale.

Par exemple, j'ai entré la clé "ticket de vol" dans la recherche Reddit et parcouru les branches populaires.

Ne vous laissez pas berner par le trafic prévu basé uniquement sur les mots-clés que vous voyez dans le sujet du fil.

Si votre objectif est d'atteindre le TOP et d'obtenir du trafic, vous devez analyser ce paramètre.

Certains experts vérifient le coût par clic et le niveau de concurrence dans la publicité contextuelle, mais ces données peuvent différer sensiblement des indicateurs SEO.

C'est plus intéressant à des fins pédagogiques, mais pas pour déterminer le budget du référencement.

Pour analyser le niveau de concurrence en SEO, il est préférable d'utiliser ahrefs.com, majestueux.com, moz.com, semrush.com.

Récemment, semrush a fusionné les bases de donateurs avec majestueux, de sorte que la qualité de la vérification des donateurs est également au top.

N'essayez pas de déplacer des demandes hautement compétitives avec un petit budget.

Mieux se concentrer sur les touches avec niveau faible compétitivité.

LSI (requêtes homogènes)

Les requêtes homogènes (LSI) augmentent la visibilité du contenu et, par conséquent, le trafic.

Plus de trafic signifie plus de ventes.

Je vais vous montrer toutes les méthodes de recherche LSI efficaces.

Les LSI (Latent Semantic Index) sont des requêtes homogènes qui sont affichées au bas du numéro.

Le moteur de recherche les utilise pour les lecteurs qui n'ont pas trouvé informations utiles dans le TOP 10 pour qu'ils puissent formuler la demande autrement.

À l'aide de ces clés, vous pouvez étendre le contenu ou en créer un nouveau.

Cela dépend déjà de votre clustering.

Lors de la promotion d'un site dans une autre région, des demandes similaires sont affichées sous votre adresse IP existante.

Dans une telle situation, des ajustements sont apportés par les demandes de votre région.

Si vous ne voulez pas jouer avec le changement d'IP, utilisez l'application pour Google Chrome— GéoClever.

Après l'avoir installé directement dans la recherche, vous pouvez sélectionner n'importe quelle ville du monde, jusqu'aux moins connues.

Une liste rapide de suggestions de recherche peut être obtenue en utilisant wordstat.yandex.ru.

Pour ce faire, après avoir saisi la clé principale, visualisez le bloc de droite.

Vérifions la requête "Optimisation SEO".

Comme vous pouvez le voir, il y a plus d'options reçues que dans Yandex et Google.

Eh bien, si vous souhaitez collecter toutes les requêtes homogènes pour Youtube, Bing, Yahoo, Ebay, Amazon, Google que le logiciel ne peut que collecter, alors utilisez Scrapebox (voir point 5).

L'inconvénient de ce programme est qu'il est payant, il coûte 67 $.

Pour le travail, il nécessite l'utilisation d'une base IP, qui peut être achetée sur Internet.

L'avantage est qu'un grand nombre de suggestions de recherche sont difficiles à obtenir ailleurs.

De plus, le logiciel est multifonctionnel, il permet d'automatiser de nombreux autres processus manuels.

En utilisant Scrapebox, j'ai collecté 7786 résultats pour le terme de recherche "Optimisation SEO".

Bien sûr, beaucoup de ces clés sont indésirables.

Utilisez le clusterer du point 3 pour filtrer les clés inutiles.

Toujours dans le programme, vous pouvez vérifier le trafic réel des demandes sélectionnées.

Principe de Pareto

Le choix des priorités est important pour obtenir des résultats.

Pour ce faire, utilisez le principe de Pareto.

Je vais vous montrer les méthodes les plus efficaces pour choisir les clés prioritaires pour la promotion.

L'économiste italien Vilfredo Pareto a découvert en 1886 le principe selon lequel 20% des efforts donnent 80% des résultats.

Il a constaté que 20% de la population italienne possède 80% de la superficie des terres, 20% des buissons de pois produisent 80% de la récolte.

Ce principe fonctionne encore aujourd'hui.

Chères femmes, il s'ensuit que les hommes se préparent à l'avance pour les félicitations.

Mais les référenceurs doivent être prêts à promouvoir ces mots-clés encore plus tôt.

N'essayez pas de promouvoir une demande hautement compétitive en peu de temps.

C'est comme faire le plein un mois avant la saison des plages.

Qui n'avait pas le temps, il était en retard.

Préparez-vous, comme je le fais toujours, pour l'année prochaine.

Optimisation des méta-informations

Le but des méta-informations est de dire à l'utilisateur de quoi parle votre page.

Les balises META aident également les moteurs de recherche à faire correspondre les mots clés avec le contenu du site.

Je vais vous montrer comment optimiser correctement les méta-informations sur le site.

Vous avez ramassé une liste de clés, divisée en pages ?

Et maintenant, passez à la création de méta-informations - Titre et description.

Beaucoup de gens partagent ce processus et laissent l'écriture des balises aux rédacteurs.

Ne le faites en aucun cas.

Même les grands rédacteurs tapent mal les balises META.

Par conséquent, il n'y aura pas de trafic, car Vos clés ne correspondent pas au contenu.

Et, comme nous le savons, plus il y a de clics, plus il y a de conversions.

Les moteurs de recherche n'afficheront pas dans les TOP sites qu'ils ne fréquentent pas.

Ils les considèrent comme non pertinents.

Commençons par comprendre ce que sont les balises META et où elles peuvent être trouvées.

Le titre est le code de la page du site, qui ressemble à ceci : C'est le titre de votre page.

Il est cousu dans le code de la page, il n'est pas affiché dans le contenu interne.

Vous pouvez le rencontrer dans l'onglet de votre navigateur.

Lors du partage d'une page sur les réseaux sociaux, par exemple sur Facebook.

L'affichage le plus important est lors de la vérification des résultats d'une recherche.

Balise méta de description, ou brève description page, s'affiche dans le code comme suit :

La taille de la balise méta Description affichée dans Google est d'environ 160 caractères.

Cette balise meta peut être omise, contrairement au titre.

Dans une telle situation, le moteur de recherche sélectionne le contenu de votre page qui sera le plus pertinent pour les clés de recherche.

Si vous n'êtes pas sûr de la sélection automatique d'un moteur de recherche, écrivez Description.

Comment augmenter la cliquabilité du Titre ?

Le principe est simple : dans le formulaire de recherche, insérez l'URL ou écrivez un titre potentiel.

Dans les résultats obtenus, le système vous attribue une note de 0 à 100 et donne des recommandations d'optimisation.

Examinons de plus près les techniques d'optimisation des titres.

9.1. Ajouter des émoticônes

Ce sont eux qui attirent plus l'attention que les standards : 10, 20, 50, etc.

Selon vous, pourquoi le titre de cet article est « Le noyau sémantique d'un site Web : 9 exemples de compilation (Cours 2018) » ?

Le nombre "9" est plus réel que 10, 20, 50, 100...

Les nombres étranges ne provoquent pas un sentiment d'euphémisme ou, au contraire, de compression des informations, car dans cette situation, nous avons répertorié nos meilleures méthodes pour compiler CL, et n'avons pas tiré sur un autre dixième.

L'utilisation de parenthèses augmente les taux de clics de 38 %, selon l'analyse de Hubspot.

C'est un énorme plus, car vous pouvez insérer des synonymes entre parenthèses ou mettre en évidence des données importantes.

Utilisez différentes parenthèses : rondes, carrées.

9.4. éveiller la curiosité

La meilleure façon de provoquer un déclic est d'éveiller la curiosité.

Pensez à ce qui pourrait faire ressentir cela à votre public.

Rappelez-vous cette nouvelle émergente qu'une star est décédée.

Lorsque vous allez sur le site, il s'avère qu'il s'agissait de fausses informations.

L'objectif principal est un clic!

Le meilleur exemple est Dale Carnegie et les titres de ses livres : Comment se faire des amis et influencer les gens, Comment arrêter de s'inquiéter et commencer à vivre.

Ces titres incitent les gens à lire son œuvre depuis plusieurs générations.

9.5. Inclure des mots encourageants

De nombreux mots de motivation sont inclus dans le contenu, mais peuvent-ils également être ajoutés au titre ?

Pour ce faire, utilisez différentes options : remises, bon marché, gratuit, téléchargement.

Pour rechercher des mots incitatifs, analysez les résultats de la recherche de publicité contextuelle.

Dans Google Adwords et Yandex.Direct, il est très important d'attirer beaucoup de clics.

Si votre annonce n'est pas cliquée, alors le clic vous reviendra plus cher, c'est pourquoi les contextologues y portent une attention particulière.

Comment trouver des mots motivants, regardons des exemples.

Entrons dans les clés de recherche "acheter iPhone 8 Kyiv".

Collectez à partir d'ici une base de mots incitatifs, choisissez ceux qui correspondent au contenu du site.

Une autre technique est utilisée lors de la mise en place du remarketing.

Les spécialistes du marketing attirent ceux qui ont quitté le panier sans effectuer d'achat avec des remises supplémentaires.

Cela augmente considérablement le pourcentage des ventes.

Essayez la même astuce lorsque vous remplissez votre titre.

Offrir des rabais, des promotions. Les gens l'aiment beaucoup !

9.6. Utilisez votre domaine dans le titre

Lorsque j'ai parlé de l'utilisation du domaine dans la technique Title in the Everest, certains internautes ont écrit dans les commentaires que c'est un non-sens complet.

Honnêtement, je le pensais aussi.

Je n'ai pas compris pourquoi de nombreux sites utilisent leur marque sous un nom court.

Au lieu de cela, vous pouvez y ajouter des clés supplémentaires.

Mon opinion a radicalement changé après avoir lu beaucoup de recherches sur le sujet.

L'essentiel est votre ouverture aux internautes.

C'est l'ajout d'une marque qui améliore considérablement le taux de clics.

Il est préférable d'utiliser votre image de marque à la fin du titre.

S'il est saisi au début, il détourne l'attention des touches principales.

9.7. Capitaliser chaque mot

C'est ce point qui suscite le plus de doutes chez de nombreux référenceurs.

Ils doutent que cela soit conforme aux règles de la langue russe.

En anglais, il est considéré comme alphabétisé lorsque chaque mot du titre est en majuscule.

Voyons comment tout se passe dans la publicité contextuelle.

Comme vous pouvez le voir sur la capture d'écran, cette technique est utilisée non seulement dans le titre, mais également dans la description.

Pourquoi est-ce?

Les majuscules attirent davantage l'attention et le pourcentage de clics augmente en conséquence.

Dans les matières organiques russophones, cette technique est rarement utilisée, je laisse donc tout aux lecteurs.

Personnellement, je n'ai pas trouvé les règles de la langue russe, qui indiquent que ce n'est pas correct.

Je vous invite à discuter dans les commentaires.

CONCLUSION

Au départ, je voulais écrire un article sur l'optimisation SEO du site et j'ai commencé par des mots-clés.

Mais au cours du processus de création du matériel, il est devenu clair qu'il existe de nombreuses informations sur cette question.

Et c'est ainsi qu'il s'est avéré un article sur la recherche et la compilation de mots-clés.

Pour rechercher des clés, vous n'avez pas besoin d'être limité à un seul outil.

Cela s'apparente un peu au brainstorming (voir point 1), où toutes les idées sont initialement collectées sur plusieurs jours par toute l'équipe.

Au stade final, les vraies idées sont distinguées des bonnes, pour lesquelles il y a du temps et des ressources.

C'est la même chose avec les clés : au départ, vous devez collecter une énorme liste de requêtes.

Pour ce faire, il est important d'utiliser des outils payants et gratuits.

L'étape suivante consiste à éliminer un grand nombre de clés non pertinentes et à ne conserver que celles qui correspondent à vos objectifs.

Pour ce faire, utilisez un cluster de mots clés qui collectera toutes les clés en groupes.

Ils doivent correspondre à vos priorités.

N'essayez pas de tout promouvoir.

Un tien vaut mieux que deux tu l'auras.

Utilisez le principe de Pareto - 20% des produits rapportent 80% de profit.

Concentrez-vous sur les mots clés à faible fréquence qui génèrent 80 % de toutes les ventes en ligne.

N'essayez pas de vous battre avec un budget serré avec de grands sites expérimentés qui investissent des millions dans la promotion.

Mieux vaut trouver votre créneau.

Utilisez les forums et les astuces de recherche pour cela.

Utilisez LSI (requêtes homogènes) pour étendre la liste des clés et du contenu existant.

Vérifier la saisonnalité des clés sélectionnées avec Google les tendances.

Préparez-vous à aller de l'avant.

Ne le remettez pas de peu de temps.

Optimisez les méta-informations pour les mots-clés sélectionnés, en particulier le titre.

C'est le deuxième algorithme de classement interne, son attractivité détermine si un visiteur ira ou non sur votre site.

Si vous lisez ces lignes, alors vous avez maîtrisé l'article, pour lequel je vous suis extrêmement reconnaissant.

Je propose de poursuivre la discussion dans les commentaires.

Le noyau sémantique (en abrégé SN) est une liste spécifique de mots-clés décrivant au mieux le thème du site.

Pourquoi faut-il constituer le noyau sémantique du site

  • le noyau sémantique caractérise, c'est grâce à lui que les robots indexant la page déterminent non seulement le naturel du texte, mais aussi le sujet afin d'amener la page dans la section de recherche appropriée. Il est évident que les robots fonctionnent en toute autonomie après avoir saisi l'adresse de la page du site dans la base de ressources de recherche ;
  • bien écrit est la base sémantique du site et reflète la structure appropriée pour la promotion du référencement ;
  • chaque page du site, respectivement, est liée à une certaine partie du CL de la ressource Web ;
  • grâce au noyau sémantique, une stratégie de promotion dans les moteurs de recherche est formée;
  • selon le noyau sémantique, vous pouvez estimer le coût de la promotion.

Règles de base pour compiler un noyau sémantique

    Afin d'assembler le SA, vous devrez assembler des ensembles de mots-clés. À cet égard, vous devez évaluer votre force par rapport à la promotion des requêtes à haute et moyenne fréquence. Si vous souhaitez obtenir le plus de visiteurs avec un budget limité, vous devez utiliser des requêtes à fréquence élevée et moyenne. Si c'est l'inverse, alors requêtes moyenne et basse fréquence.

    Même si vous avez un budget élevé, cela n'a aucun sens de promouvoir le site uniquement pour les requêtes à haute fréquence. Souvent, ces demandes sont trop caractère général et charge sémantique non spécifiée, par exemple, "écouter de la musique", "actualités", "sports".

Lors du choix des requêtes de recherche, ils analysent un ensemble d'indicateurs correspondant à la phrase de recherche :

  • nombre d'impressions (fréquence) ;
  • le nombre d'impressions sans changements morphologiques et combinaisons de mots ;
  • les pages émises par le moteur de recherche lors de la saisie d'une requête de recherche ;
  • pages dans le TOP de recherche pour les requêtes clés ;
  • estimer le coût de la promotion à la demande ;
  • concurrence par mots-clés ;
  • nombre prévu de transitions ;
  • taux de rebond (fermeture du site après avoir cliqué sur le lien) et saisonnalité du service ;
  • géo-dépendance des mots-clés (localisation géographique de l'entreprise et de ses clients).

Comment construire un noyau sémantique

En pratique, la sélection du noyau sémantique peut être effectuée par les méthodes suivantes :

    Les sites Web concurrents peuvent devenir la source de mots-clés pour le noyau sémantique. C'est là que vous pouvez rapidement sélectionner des mots-clés, ainsi que déterminer la fréquence de leur "environnement" à l'aide d'une analyse sémantique. Pour ce faire, il faudra faire un bilan sémantique de la page de texte, les mots les plus cités constituent le noyau morphologique ;

    Nous vous recommandons de former votre propre noyau sémantique basé sur des statistiques services spéciaux. Utilisez, par exemple, Wordstat Yandex- le système statistique du moteur de recherche Yandex. Ici, vous pouvez voir la fréquence de la requête de recherche, ainsi que découvrir ce que les utilisateurs recherchent avec ce mot-clé ;

    Les "astuces" des systèmes s'affichent lorsque vous essayez d'entrer une expression de recherche dans ligne interactive. Ces mots et phrases peuvent également entrer dans le SL en tant que mots connectés ;

    Les bases de données fermées de requêtes de recherche, par exemple la base de données de Pastukhov, peuvent devenir la source de mots-clés pour CL. Il s'agit de tableaux de données spéciaux contenant des informations sur les combinaisons efficaces de requêtes de recherche ;

    Les statistiques internes du site peuvent également devenir une source de données sur les requêtes de recherche qui intéressent l'utilisateur. Il contient des informations sur la source et sait d'où vient le lecteur, combien de pages il a consultées et de quel navigateur il vient.

Outils gratuits pour compiler un noyau sémantique :

Yandex.Wordstat- un outil gratuit populaire utilisé pour compiler un noyau sémantique. En utilisant le service, vous pouvez savoir combien de fois les visiteurs ont saisi une requête spécifique dans le moteur de recherche Yandex. Permet d'analyser la dynamique de la demande pour cette requête par mois.

Google AdWords est l'un des systèmes les plus utilisés pour sortir du noyau sémantique du site. Avec l'aide de Google Keyword Planner, vous pouvez calculer et prévoir les impressions de requêtes spécifiques à l'avenir.

Yandex.Direct de nombreux développeurs utilisent les mots-clés les plus rentables pour la sélection. Si, à l'avenir, il est prévu de placer des publicités sur le site, le propriétaire de la ressource avec cette approche recevra un bon profit.

Slovoeb- le frère cadet de Kay Collector, qui sert à compiler le noyau sémantique du site. Les données de Yandex sont prises comme base. Parmi les avantages, on peut noter une interface intuitive, ainsi qu'une accessibilité non seulement pour les professionnels, mais aussi pour les débutants qui commencent tout juste à s'engager dans l'analyse SEO.

Outils payants pour compiler un noyau sémantique :

Base Pastukhov selon de nombreux experts n'ont pas de concurrents. La base de données affiche de telles demandes que ni Google ni Yandex n'affichent. Il existe de nombreuses autres fonctionnalités inhérentes aux bases de données de Max Pastukhov, parmi lesquelles on peut noter un shell logiciel pratique.

Mots espions- Un outil intéressant qui permet d'analyser les mots clés des concurrents. Avec son aide, vous pouvez effectuer une analyse comparative des noyaux sémantiques des ressources d'intérêt, ainsi que d'obtenir toutes les données sur RRS et Sociétés de référencement concurrents. La ressource est russophone, il ne sera pas difficile de gérer ses fonctionnalités.

Un programme payant créé spécifiquement pour les professionnels. Aide à composer le noyau sémantique en identifiant les requêtes pertinentes. Il est utilisé pour estimer le coût de promotion d'une ressource pour les mots-clés d'intérêt. En plus d'un haut niveau d'efficacité, ce programme se distingue par sa facilité d'utilisation.

SEMrush vous permet de déterminer les mots-clés les plus efficaces en fonction des données provenant de ressources concurrentes. Avec son aide, vous pouvez sélectionner des requêtes à basse fréquence, caractérisées par haut niveau circulation. Comme le montre la pratique, pour de telles demandes, il est très facile de promouvoir la ressource aux premières positions du problème.

SeoLib- un service qui a gagné la confiance des optimiseurs. A beaucoup de fonctionnalités. Vous permet de composer avec compétence un noyau sémantique, ainsi que d'effectuer les mesures analytiques nécessaires. En mode gratuit, vous pouvez analyser 25 requêtes par jour.

promoteur permet d'assembler le noyau sémantique primaire en quelques minutes seulement. Il s'agit d'un service utilisé principalement pour l'analyse des sites concurrents, ainsi que pour la sélection des requêtes clés les plus efficaces. L'analyse de mots est sélectionnée pour Google en Russie ou pour Yandex dans la région de Moscou.

Le noyau sémantique est assemblé assez rapidement si les sources et les bases de données sont utilisées comme indice.

Les processus suivants doivent être distingués

Selon le contenu du site et les sujets pertinents sont sélectionnés mots clés, qui reflètent le plus fidèlement la signification de votre portail Web.
- De l'ensemble sélectionné, les superflus sont éliminés, éventuellement les requêtes qui peuvent aggraver l'indexation de la ressource. Le filtrage des mots clés est effectué sur la base des résultats de l'analyse décrite ci-dessus.
- Le noyau sémantique résultant doit être uniformément réparti entre les pages du site, si nécessaire, des textes avec un thème spécifique et un volume de mots-clés sont commandés.

Un exemple de collecte d'un noyau sémantique à l'aide du service Wordstat Yandex

Par exemple, vous faites la promotion d'un salon de manucure à Moscou.

Nous pensons et sélectionnons toutes sortes de mots qui correspondent au thème du site.

Activité de l'entreprise

  • salon de manucure;
  • salon de manucure;
  • atelier de manucure
  • studio de manucure;
  • studio de pédicure;
  • studio de création d'ongles

Nom du service général

Pédicure;
- manucure;
- extension d'ongle.

Maintenant, nous allons au service Yandex et saisissons chaque demande, après avoir sélectionné la région dans laquelle nous allons nous déplacer.

Nous copions tous les mots dans Excel à partir de la colonne de gauche, ainsi que les phrases auxiliaires à droite.

Nous supprimons les mots inutiles qui ne correspondent pas au sujet. Les mots qui correspondent sont surlignés en rouge ci-dessous.

Le chiffre de 2320 demandes montre combien de fois les gens ont tapé cette demande non seulement dans sa forme pure, mais aussi dans le cadre d'autres phrases. Par exemple : manucure et prix à Moscou, prix manucure et pédicure à Moscou, etc.

Si vous entrez notre requête entre guillemets, il y aura déjà un autre chiffre, qui prend en compte les formes de mots de la phrase clé. par exemple : prix manucure, prix manucure, etc.

Si vous saisissez la même requête requête entre guillemets avec points d'exclamation, nous verrons combien de fois les utilisateurs ont tapé la requête "prix manucure".

Ensuite, nous décomposons la liste de mots résultante en pages du site. Ainsi, par exemple, nous laisserons les demandes à haute fréquence sur la page principale et sur les sections principales du site, telles que : manucure, studio de service d'ongles, extension d'ongles. Nous distribuerons les fréquences moyennes et basses fréquences sur le reste des pages, par exemple : prix manucure et pédicure, conception d'extension d'ongles en gel. Les mots doivent également être divisés en groupes selon leur sens.

  • Page principale - studio, salon de manucure, etc.
  • 3 sections - pédicure, manucure, prix pour manucure et pédicure.
  • Pages - extension des ongles, pédicure matérielle, etc.

Quelles erreurs peuvent être commises lors de la compilation d'un

Lors de la compilation d'un noyau sémantique, personne n'est à l'abri d'erreurs. Les plus courants incluent les suivants :

  1. Il y a toujours le danger de choisir des requêtes inefficaces qui génèrent le nombre minimum de visiteurs.
  2. Lors de la re-promotion du site, vous ne devez pas modifier complètement le contenu publié sur le site. Sinon, tous les paramètres précédents seront remis à zéro, y compris le classement dans les résultats de recherche.
  3. Vous ne devez pas utiliser de requêtes incorrectes pour la langue russe, les robots de recherche définissent déjà bien ces requêtes et suppriment la page de la recherche lorsqu'ils « spamment » avec des mots-clés.

Nous vous souhaitons bonne chance dans la promotion de votre site !

Bonjour, chers lecteurs du site blog. Je veux faire un autre appel sur le thème de "récolter la semence". D'abord, comme prévu, puis beaucoup d'entraînement, peut-être un peu maladroit dans ma performance. Alors, les paroles. J'en ai eu assez de marcher les yeux bandés à la recherche de la bonne chance un an après avoir commencé ce blog. Oui, il y avait des "coups chanceux" (devinettes intuitives des requêtes fréquemment posées aux moteurs de recherche) et il y avait du trafic provenant des moteurs de recherche, mais je voulais atteindre la cible à chaque fois (au moins pour la voir).

Ensuite, j'ai voulu plus - automatiser le processus de collecte des demandes et de filtrage des «nuls». Pour cette raison, il y a eu une expérience avec Keycollector (et son jeune frère dissonant) et un autre article sur le sujet. Tout était génial et même tout simplement génial, jusqu'à ce que je réalise qu'il y a un point très important qui est resté essentiellement dans les coulisses - la dispersion des demandes d'articles.

La rédaction d'un article séparé pour une demande distincte est justifiée soit dans des sujets hautement compétitifs, soit dans des sujets très rentables. Pour les sites d'information, c'est complètement absurde et les requêtes doivent donc être combinées sur une seule page. Comment? Intuitivement, c'est-à-dire encore une fois à l'aveuglette. Mais toutes les demandes ne s'entendent pas sur une seule page et ont au moins une chance hypothétique d'atteindre le Top.

En fait, aujourd'hui, nous parlerons du regroupement automatique du noyau sémantique à l'aide de KeyAssort (divisant les requêtes en pages, et pour les nouveaux sites, construisant également une structure basée sur celles-ci, c'est-à-dire des sections, des catégories). Eh bien, nous allons encore une fois passer par le processus de collecte des demandes pour chaque pompier (y compris avec de nouveaux outils).

Laquelle des étapes de collecte du noyau sémantique est la plus importante ?

En soi, la collecte de requêtes (la base du noyau sémantique) pour un site futur ou déjà existant est un processus plutôt intéressant (comme n'importe qui, bien sûr) et peut être mis en œuvre de plusieurs manières, dont les résultats peuvent ensuite être combinés dans une grande liste (en nettoyant les doublons, en supprimant les sucettes par des mots vides).

Par exemple, vous pouvez commencer manuellement à tourmenter Wordstat, et en plus de cela, connecter le Keycollector (ou son dissonant version gratuite). Cependant, tout va bien lorsque vous êtes plus ou moins familiarisé avec le sujet et que vous connaissez les clés sur lesquelles vous pouvez compter (collecter leurs dérivés et requêtes similaires dans la colonne de droite de Wordstat).

Sinon (oui, et en tout cas ça ne fera pas de mal), vous pouvez commencer par les outils de « meulage grossier ». Par exemple, SerpstatComment(née Prodvigator), qui vous permet littéralement de "voler" vos concurrents pour les mots-clés qu'ils utilisent (voir). Il existe d'autres services similaires de "vol de concurrents" (mots espions, keys.so), mais je suis "bloqué" avec l'ancien Prodvigator.

Au final, il existe aussi un Bukvaris gratuit, qui permet de commencer à collecter les demandes très rapidement. Vous pouvez également commander un téléchargement privé depuis la monstrueuse base de données Ahrefs et récupérer à nouveau les clés de vos concurrents. En général, il vaut la peine de considérer tout ce qui peut apporter au moins une fraction de demandes utiles pour une promotion future, qui ne seront alors pas si difficiles à nettoyer et à combiner en une seule grande (souvent même une énorme liste).

Nous considérerons tout cela (en termes généraux, bien sûr) un peu plus bas, mais à la fin, la question principale se pose toujours - que faire ensuite. En fait, c'est effrayant même juste d'approcher ce que nous avons obtenu en conséquence (avoir volé une douzaine ou deux concurrents et gratté le fond du baril avec un Keycollector). La tête peut éclater d'essayer de casser toutes ces requêtes (mots clés) dans des pages distinctes d'un site futur ou existant.

Quelles requêtes coexisteront avec succès sur une page, et lesquelles ne devraient même pas être essayées de combiner ? Une question vraiment difficile, que j'ai précédemment résolue de manière purement intuitive, car l'analyse manuelle de l'émission de Yandex (ou Google) sur le sujet de "qu'en est-il des concurrents" est-elle manuellement médiocre, et les options d'automatisation ne sont pas apparues à portée de main. Eh bien, pour le moment. Néanmoins, un tel outil a "fait surface" et aujourd'hui il sera discuté dans la dernière partie de l'article.

Ceci n'est pas un service en ligne, mais solutions logicielles, dont la distribution peut être téléchargé sur la page principale du site officiel (version démo).

Par conséquent, il n'y a aucune restriction sur le nombre de demandes traitées - traitez autant que vous en avez besoin (il y a cependant des nuances dans la collecte des données). La version payante coûte moins de deux mille, ce qui, pour les tâches à résoudre, peut être dit pour rien (IMHO).

Mais on parlera du côté technique de KeyAssort un peu plus bas, mais là je voudrais parler de moi principe qui permet de décomposer une liste de mots-clés(pratiquement de n'importe quelle longueur) en grappes, c'est-à-dire un ensemble de mots-clés qui peuvent être utilisés avec succès sur une page du site (optimisez le texte, les titres et la masse de liens pour eux - appliquez la magie SEO).

D'où pouvez-vous obtenir des informations? Qui vous dira ce qui va "brûler" et ce qui ne fonctionnera pas de manière fiable ? Évidemment, le moteur de recherche lui-même sera le meilleur conseiller (dans notre cas, Yandex, en tant qu'entrepôt de requêtes commerciales). Il suffit de regarder grand volume sortie de données (disons, analysez le TOP 10) pour toutes ces requêtes (à partir de la liste collectée de la future graine) et comprenez ce que vos concurrents ont réussi à combiner avec succès sur une seule page. Si cette tendance se répète plusieurs fois, alors on peut parler d'un modèle, et sur la base de celui-ci, il est déjà possible de battre les clés en grappes.

KeyAssort vous permet de définir la "strictité" avec laquelle les clusters seront formés dans les paramètres (sélectionnez les clés pouvant être utilisées sur une page). Par exemple, pour le commerce, il est logique de resserrer les exigences de sélection, car il est important d'obtenir un résultat garanti, même si cela se fait au détriment de coûts légèrement plus élevés pour la rédaction de textes destinés à plus groupes. Pour les sites informatifs, au contraire, vous pouvez faire quelques concessions afin d'obtenir potentiellement plus de trafic avec moins d'effort (avec un risque légèrement plus élevé de « non-burnout »). Parlons de la façon de le faire à nouveau.

Mais que se passe-t-il si vous avez déjà un site avec un tas d'articles, mais que vous voulez développer une graine existante et optimiser les articles existants pour un plus grand nombre de mots-clés afin d'obtenir plus de trafic avec un minimum d'effort (décaler légèrement l'emphase des mots-clés) ? Ce programme donne également une réponse à cette question - vous pouvez effectuer les requêtes pour lesquelles les pages existantes sont déjà optimisées, faites des marqueurs, et autour d'elles, KeyAssort assemblera un cluster avec des requêtes supplémentaires qui sont promues avec succès (sur une page) par votre concurrents sur la question. C'est intéressant comment ça se passe...

Comment collecter un vivier de demandes sur le sujet dont vous avez besoin ?

Tout noyau sémantique commence, en fait, par la collecte d'un grand nombre de requêtes, dont la plupart seront rejetées. Mais l'essentiel est qu'au stade initial, ces «perles» y entrent, sous lesquelles des pages individuelles de votre site futur ou existant seront ensuite créées et promues. À ce stade, probablement, le plus important est de collecter autant de demandes plus ou moins appropriées que possible et de ne rien manquer, puis il est facile d'éliminer les vides.

Il y a une bonne question, quels outils utiliser? Il y a une réponse sans équivoque et très correcte - différente. Le plus gros le meilleur. Cependant, ces méthodes mêmes de collecte du noyau sémantique devraient probablement être répertoriées et faire l'objet d'évaluations générales et de recommandations pour leur utilisation.

  1. Yandex Wordstat et ses homologues dans d'autres moteurs de recherche - initialement, ces outils étaient destinés à ceux qui placent publicité contextuelle afin qu'ils puissent comprendre à quel point certaines expressions sont populaires auprès des utilisateurs des moteurs de recherche. Eh bien, il est clair que les référenceurs utilisent également ces outils et avec beaucoup de succès. Je peux recommander de jeter un œil à l'article, ainsi qu'à l'article mentionné au tout début de cette publication (il sera utile pour les débutants).

    Parmi les lacunes de Vodstat, on peut noter :

    1. Une quantité monstrueuse de travail manuel (nécessite certainement une automatisation et nous en parlerons un peu plus tard), à la fois dans la perforation des phrases basées sur la clé et dans la perforation des requêtes associatives à partir de la colonne de droite.
    2. Limiter l'émission de Wordstat (2000 requêtes et pas une ligne de plus) peut poser problème, car pour certaines phrases (par exemple, "travail") c'est extrêmement faible et on perd de vue les basses fréquences, et parfois même les moyennes fréquences requêtes qui peuvent apporter un bon trafic et des revenus (beaucoup de gens les manquent). Vous devez "vous étirer beaucoup la tête", ou utiliser des méthodes alternatives (par exemple, des bases de données de mots clés, dont nous examinerons l'une ci-dessous - et c'est gratuit !).
  2. KayCollector(et son petit frère libre Slovoeb) - il y a quelques années, l'apparition de ce programme était simplement un "salut" pour de nombreux travailleurs du réseau (et même maintenant, il est plutôt difficile d'imaginer travailler sur une graine sans QC). Paroles de chanson. J'ai acheté KK il y a deux ou trois ans, mais je l'ai utilisé quelques mois tout au plus, car le programme est lié au matériel (bourrage informatique), et je le change plusieurs fois par an. En général, ayant une licence pour KK, j'utilise SE - c'est donc à cela que la paresse apporte.

    Vous pouvez lire les détails dans l'article "". Les deux programmes vous aideront à collecter les requêtes des colonnes droite et gauche de Wordstat, ainsi que des suggestions de recherche pour les phrases clés dont vous avez besoin. Les indices sont ce qui tombe chaîne de recherche lorsque vous commencez à taper une requête. Souvent, les utilisateurs ne terminent pas l'ensemble en choisissant simplement l'option la plus appropriée dans cette liste. Les seoshniks ont compris cela et utilisent de telles requêtes dans l'optimisation et même.

    QC et SE vous permettent de taper immédiatement un très grand nombre de demandes (bien que cela puisse prendre beaucoup de temps, ou d'acheter des limites XML, mais plus à ce sujet ci-dessous) et d'éliminer facilement les mannequins, par exemple, en vérifiant la fréquence des phrases dans guillemets (apprenez le matériel si vous ne comprenez pas que la parole - liens au début de la publication) ou en définissant une liste de mots vides (particulièrement pertinent pour le commerce). Après cela, l'ensemble du pool de requêtes peut être facilement exporté vers Excel pour la poursuite des travaux ou pour le chargement dans KeyAssort (clusterer), qui sera discuté ci-dessous.

  3. SerpStat(et autres services similaires) - vous permet d'entrer l'URL de votre site pour obtenir une liste de vos concurrents pour l'émission de Yandex et Google. Et pour chacun de ces concurrents il sera possible d'obtenir liste complète des mots-clés pour lesquels ils ont réussi à percer et à atteindre certains sommets (obtenir du trafic des moteurs de recherche). Le tableau croisé dynamique contiendra la fréquence de la phrase, la place du site dessus dans le Top et un tas d'autres informations utiles et pas très différentes.

    Il n'y a pas si longtemps, j'ai utilisé presque le plan tarifaire Serpstat le plus cher (mais seulement pour un mois) et j'ai réussi à économiser près d'un gigaoctet de diverses choses utiles dans Excel pendant cette période. J'ai collecté non seulement les clés des concurrents, mais aussi des pools de requêtes pour les phrases clés qui m'intéressaient, et j'ai également collecté sept graines des pages les plus réussies de mes concurrents, ce qui, me semble-t-il, est également très important. Une chose est mauvaise - maintenant je ne trouve pas le temps de maîtriser le traitement de toutes ces informations inestimables. Mais il est possible que KeyAssort enlève tout de même l'engourdissement face au monstrueux colosse de données à traiter.

  4. boukvariks est une base de données gratuite de mots-clés dans son propre shell logiciel. La sélection des mots-clés prend une fraction de seconde (téléchargement vers Excel minutes). Je ne me souviens pas combien de millions de mots il y a, mais les critiques à ce sujet (y compris la mienne) sont tout simplement excellentes, et surtout, toute cette richesse est gratuite ! Certes, le package de distribution du programme pèse 28 gigaoctets et, une fois décompressé, la base de données occupe plus de 100 Go sur le disque dur, mais ce ne sont que des bagatelles par rapport à la simplicité et à la rapidité de collecte d'un pool de requêtes.

    Mais non seulement la vitesse de collecte des graines est le principal avantage par rapport à Wordstat et KeyCollector. L'essentiel est qu'il n'y ait pas de restriction sur 2000 lignes pour chaque requête, ce qui veut dire qu'aucune basse fréquence et au-delà des basses fréquences ne nous échappera. Bien sûr, la fréquence peut être clarifiée une fois de plus par le même QC et filtrée à l'aide de mots vides, mais Bukvariks remplit remarquablement sa tâche principale. Certes, le tri par colonnes ne lui convient pas, mais en enregistrant le pool de requêtes dans Excel, il sera possible de le trier à sa guise.

Probablement, au moins quelques outils de cathédrale de demande de pool de demandes plus «sérieux» seront fournis par vous dans les commentaires, et je les emprunterai avec succès ...

Comment effacer les requêtes de recherche collectées de "dummy" et "garbage" ?

La liste obtenue à la suite des manipulations décrites ci-dessus est susceptible d'être très longue (voire énorme). Donc, avant de le charger dans le clusterer (pour nous ce sera KeyAssort) il est logique de le nettoyer un peu. Pour ce faire, le pool de requêtes, par exemple, peut être déchargé sur le collecteur de clés et supprimé :

  1. Demandes avec une fréquence trop faible (personnellement, je brise la fréquence entre guillemets, mais sans point d'exclamation). C'est à vous de décider quel seuil choisir, et à bien des égards, cela dépend du sujet, de la concurrence et du type de ressource vers laquelle la graine est destinée.
  2. Pour les requêtes commerciales, il est judicieux d'utiliser une liste de mots vides (comme « gratuit », « télécharger », « résumé », ainsi que, par exemple, les noms de villes, d'années, etc.) afin de supprimer à partir de la graine à l'avance, ce qui est connu n'amènera pas les acheteurs cibles sur le site (éliminer les cadeaux, recherche d'information, et non un produit, bien, et les habitants d'autres régions, par exemple).
  3. Parfois, il est logique de se laisser guider par l'indicateur de concurrence en matière de dépistage. cette demande en cause. Par exemple, à la demande de «fenêtres en plastique» ou de «climatiseurs», vous n'avez même pas besoin de faire basculer le bateau - l'échec est garanti à l'avance et avec une garantie à 100%.

Dites que c'est trop simple dans les mots, mais difficile dans la pratique. Et ici ce n'est pas le cas. Pourquoi? Mais parce qu'une personne que je respecte (Mikhail Shakin) n'a pas ménagé son temps et a enregistré une vidéo avec un détail une description de la façon de nettoyer les requêtes de recherche dans le collecteur de clés:

Merci à lui pour cela, car ces questions sont beaucoup plus faciles et plus claires à montrer qu'à décrire dans l'article. En général, vous pouvez le faire, car je crois en vous ...

Configuration du cluster de semences KeyAssort pour votre site

En fait, le plus intéressant commence. Maintenant, toute cette énorme liste de clés devra être en quelque sorte brisée (éparpillée) sur des pages distinctes de votre site futur ou existant (que vous souhaitez améliorer de manière significative en termes de trafic provenant des moteurs de recherche). Je ne vais pas me répéter et parler des principes et de la complexité de ce processus, car alors pourquoi ai-je écrit la première partie de cet article.

Notre méthode est donc assez simple. Nous allons sur le site officiel de KeyAssort et télécharger la version démo essayer le programme pour une dent (la différence entre la démo et la version complète est l'impossibilité de décharger, c'est-à-dire d'exporter les graines collectées), et après cela, il sera possible de payer (1900 roubles ne suffisent pas, pas assez selon les réalités modernes). Si vous souhaitez commencer immédiatement à travailler sur le noyau, appelé «pour une copie propre», il est préférable de choisir version complète avec possibilité d'exportation.

Le programme KeyAssort lui-même ne peut pas collecter les clés (ce n'est en fait pas sa prérogative), et elles devront donc y être chargées. Cela peut être fait de quatre manières - manuellement (il est probablement logique de recourir à cette méthode pour ajouter des clés déjà trouvées après la collection principale de clés), ainsi que trois méthodes par lots pour importer des clés:

  1. au format txt - lorsque vous avez juste besoin d'importer une liste de clés (chacune sur une ligne distincte du fichier txt et ).
  2. ainsi que deux variantes du format Excel : avec les paramètres dont vous aurez besoin dans le futur, ou avec les sites collectés du TOP10 pour chaque clé. Ce dernier peut accélérer le processus de clustering, car le programme KeyAssort n'a pas à analyser la sortie elle-même pour collecter ces données. Cependant, les URL du TOP10 doivent être fraîches et précises (une telle version de la liste peut être obtenue, par exemple, dans le Keycollector).

Oui, ce que je vous dis - il vaut mieux voir une fois:

Dans tous les cas, pensez d'abord à créer un nouveau projet dans le même menu "Fichier", et ce n'est qu'ensuite que la fonction d'importation deviendra disponible :

Passons en revue les paramètres du programme (heureusement il y en a très peu), car pour différents types sites, un ensemble différent de paramètres peut être optimal. Ouvrez l'onglet "Service" - "Paramètres du programme" et vous pouvez immédiatement aller à l'onglet « Regroupement »:

La chose la plus importante ici est peut-être choisir le type de clustering dont vous avez besoin. Le programme peut utiliser deux principes par lesquels les demandes sont combinées en groupes (clusters) - dur et doux.

  1. Difficile - toutes les demandes qui tombent dans un groupe (adaptées à la promotion sur une page) doivent être combinées sur une page pour le nombre requis de concurrents du Top (ce nombre est spécifié dans la ligne "force du groupe").
  2. Soft - toutes les demandes qui tombent dans le même groupe se produiront partiellement sur la même page pour le nombre requis de concurrents et le Top (ce nombre est également défini dans la ligne "force du groupement").

Manger bonne image illustrant clairement ceci :

Si ce n'est pas clair, tant pis, car ce n'est qu'une explication du principe, et ce qui nous importe n'est pas la théorie, mais la pratique, qui dit que :

  1. Le clustering dur est mieux utilisé pour les sites commerciaux. Cette méthode donne une grande précision, grâce à laquelle la probabilité d'atteindre le Top des requêtes combinées sur une page du site sera plus élevée (avec la bonne approche pour optimiser le texte et sa promotion), bien qu'il y ait moins de requêtes elles-mêmes dans le cluster, ce qui signifie qu'il y a plus de clusters eux-mêmes (plus de pages devront être créées et promues).
  2. Le regroupement souple est logique à utiliser pour les sites d'information, car les articles seront obtenus avec un indicateur de complétude élevé (ils pourront répondre à un certain nombre de demandes d'utilisateurs de sens similaire), ce qui est également pris en compte dans le classement. Et les pages elles-mêmes seront plus petites.

Un autre paramètre important, à mon avis, est une coche dans la case « Utilisez des phrases repères ». Pourquoi cela pourrait-il être nécessaire ? Jetons un coup d'œil.

Disons que vous avez déjà un site Web, mais que les pages qu'il contient ont été optimisées non pas pour un pool de requêtes, mais pour un seul, ou que vous considérez ce pool comme insuffisamment volumineux. Dans le même temps, vous souhaitez de tout cœur étendre la graine non seulement en ajoutant de nouvelles pages, mais également en améliorant celles qui existent déjà (c'est encore plus facile en termes de mise en œuvre). Il est donc nécessaire que chacune de ces pages obtienne la graine "au maximum".

C'est à cela que sert ce paramètre. Après l'avoir activé, il sera possible de cocher chaque phrase de votre liste de requêtes. Il vous suffit de trouver les requêtes principales pour lesquelles vous avez déjà optimisé les pages existantes de votre site (une par page) et le programme KeyAssort va construire des clusters autour d'elles. En fait, tout. Plus dans cette vidéo :

Un autre élément important (pour bon fonctionnement programmes) mettant des vies sur l'onglet "Collecte de données à partir de Yandex XML". vous pouvez lire dans l'article ci-dessous. En bref, les référenceurs analysent constamment les résultats Yandex et Wordstat, créant une charge excessive sur sa capacité. Pour la protection, le captcha a été introduit et un accès spécial a été développé via XML, où le captcha ne sortira plus et les données ne seront pas déformées par les clés vérifiées. Certes, le nombre de ces contrôles par jour sera strictement limité.

Qu'est-ce qui détermine le nombre de limites allouées ? Comment Yandex évalue votre . Vous pouvez suivre ce lien (en étant dans le même navigateur où vous êtes autorisé dans Ya.Webmaster). Par exemple, ça ressemble à ça pour moi :

Il y a aussi un graphique de la distribution des limites par heure de la journée ci-dessous, ce qui est également important. Si vous devez gérer un grand nombre de demandes et qu'il y a peu de limites, ce n'est pas un problème. Ils peuvent être achetés. Pas Yandex, bien sûr, directement, mais ceux qui ont ces limites, mais ils n'en ont pas besoin.

Le mécanisme Yandex XML permet le transfert de limites, et les bourses devenues intermédiaires aident à automatiser tout cela. Par exemple, sur Proxy XML vous pouvez acheter des limites pour seulement 5 roubles pour 1000 requêtes, ce qui, voyez-vous, n'est pas cher du tout.

Mais cela n'a pas d'importance, car les limites que vous avez achetées seront toujours transférées sur votre "compte", mais pour les utiliser dans KeyAssort, vous devrez vous rendre sur le " Paramètre" et copiez le lien long dans le champ "URL des requêtes" (n'oubliez pas de cliquer sur "Votre IP actuelle" et cliquez sur le bouton "Enregistrer" pour lier la clé à votre ordinateur) :

Après cela, il ne reste plus qu'à insérer cette URL dans la fenêtre avec les paramètres KeyAssort dans le champ "Url pour les requêtes" :

En fait, tout est terminé avec les paramètres KeyAssort - vous pouvez commencer à regrouper le noyau sémantique.

Regroupement de mots-clés dans KeyAssort

Donc, j'espère que vous avez tout configuré (sélectionné le type de clustering souhaité, connecté vos propres limites ou acheté des limites de Yandex XML), compris comment importer une liste avec des requêtes et transféré avec succès le tout vers KeyAssort. Et après? Et puis, bien sûr, le plus intéressant est le lancement de la collecte de données (Urls des sites du Top 10 pour chaque requête) et le regroupement ultérieur de toute la liste en fonction de ces données et des paramètres que vous avez définis.

Alors, pour commencer, cliquez sur le bouton "Collecter des données" et attendez de plusieurs minutes à plusieurs heures pendant que le programme scanne les Tops pour toutes les requêtes de la liste (plus il y en a, plus l'attente est longue) :

Il m'a fallu environ une minute pour faire trois cents requêtes (c'est un petit noyau pour une série d'articles sur le travail sur Internet). Après quoi vous pouvez déjà procéder directement au regroupement, le bouton du même nom de la barre d'outils KeyAssort devient disponible. Ce processus est très rapide, et littéralement en quelques secondes, j'ai obtenu tout un ensemble de calsters (groupes), conçus comme des listes imbriquées :

En savoir plus sur l'utilisation de l'interface du programme, ainsi que sur création de clusters pour les pages de site existantes regardez mieux dans la vidéo, car c'est beaucoup plus clair:

Tout ce que nous voulions, nous l'avons eu, et attention, en mode entièrement automatique. Lepota.

Bien que, si vous créez un nouveau site, en plus du clustering, il est très important esquisser la future structure du site(définir les sections/catégories et répartir les clusters entre elles pour les futures pages). Curieusement, mais c'est assez pratique de le faire dans KeyAssort, mais la vérité n'est plus dans mode automatique, et en mode manuel. Comment?

Encore une fois, il sera plus facile de voir à nouveau - tout est mis en place littéralement sous nos yeux en faisant simplement glisser les clusters de la fenêtre de gauche du programme vers celle de droite :

Si vous avez acheté le programme, vous pouvez exporter le noyau sémantique résultant (et en fait la structure du futur site) vers Excel. De plus, sur le premier onglet, il sera possible de travailler avec des demandes sous la forme d'une seule liste, et sur le deuxième onglet, la structure que vous avez configurée dans KeyAssort sera déjà enregistrée. Très, très pratique.

Bien, peu importe. Je suis prêt à discuter et à entendre votre avis sur la collecte de semis pour le site.

Bonne chance à toi! A bientôt sur le site des pages du blog

Vous pourriez être intéressé

vpodskazke- nouveau service Dans une info-bulle pour faire avancer les conseils dans moteurs de recherche Classement SE- meilleur service suivi de position pour débutants et professionnels en SEO Collection d'un noyau sémantique complet dans Topvisor, une variété de façons de sélectionner des mots-clés et de les regrouper par page La pratique consistant à collecter un noyau sémantique pour le référencement auprès d'un professionnel - comment cela se passe dans les réalités actuelles de 2018 Optimisation facteurs comportementaux sans leur torsion SEO PowerSuite - programmes d'optimisation de sites Web internes (WebSite Auditor, Rank Tracker) et externes (SEO SpyGlass, LinkAssistant)
SERPClick : promotion par facteurs comportementaux