Le monitoring SEO, que faut-il surveiller et comment ?

5 novembre 2020 - 7  min de lecture - par Konrad Caban
Accueil > SEO Technique > Qu'est-ce que le monitoring SEO ?

Le SEO implique de travailler avec de grand volumes de données. Un seul site web peut comporter jusqu’à des milliers de sous-pages, de mots clés et de liens internes. S’il fonctionne dans un secteur concurrentiel, il a besoin de liens externes provenant de milliers de domaines. Et si vous optimisez plusieurs sites web ? Vous vous retrouvez vite submerger par les data.

Ajoutons à cela la variabilité de l’algorithme de Google, les actions imprévues des concurrents et des backlinks qui peuvent disparaître. Comment contrôler tout cela ?

Photo par Luke Chesser de Unsplash

Le monitoring

Le marché n’aime pas quand il ne se passe rien, et il en va de même dans le secteur du SEO. Toutes les caractéristiques et tous les indicateurs pertinents du point de vue du SEO peuvent être surveillés grâce à des outils spécialisés. Malheureusement, il n’existe pas d’outil unique pour tout surveiller. Mais, avec l’aide de quelques applications, vous pouvez suivre tout ce qui est important. Vous pouvez également combiner les données provenant de plusieurs sources mais nous en parlerons plus tard.

Les services de surveillance assurent ce qui est le plus important, c’est-à-dire :

  • des rapports qui permettent d’analyser la variabilité des valeurs individuelles dans le temps.
  • des alertes qui informent immédiatement de tout changement significatif apporté aux caractéristiques et indicateurs sélectionnés.

Ce qui peut (et doit) être contrôlé dans le cadre du SEO

Surveillance on-site

Le fait que vous gériez un site web (ou que votre client en soit propriétaire) et que vous ayez accès au CMS et à toutes les configurations ne signifie pas que vous savez tout ce qu’il y a à savoir à son sujet. Il est très facile pour vous de passer à côté de problèmes importants qui n’affectent pas seulement le SEO.

  • Le trafic organique sur le site web : à part l’échelle du trafic, en particulier le taux de rebond et le taux de conversion. Vous y prêtez certainement attention, mais le contrôlez-vous régulièrement ?
  • La disponibilité (uptime) : si le site web ne fonctionne pas, vous savez ce qui se passe ; il ne convertira pas de nouveaux clients, et il peut même décourager un utilisateur envers une marque donnée. Des problèmes persistants peuvent entraîner une désindexation.
  • Vitesse de chargement : une fois qu’un site web a été optimisé pour la vitesse, vous ne pouvez pas simplement passer à autre chose. Après tout, il suffit que quelqu’un publie un énorme bitmap sur la page principale, pour ruiner tout le travail. Vous devez détecter de telles situations et réagir.
  • Un fonctionnement correct : un petit changement dans une fonction importante d’un site web peut être désastreux pour les conversions. Le site web est opérationnel mais vous ne pouvez pas passer commande parce que le bouton à la dernière étape du processus d’achat ne fonctionne pas. Bien sûr, vous en verrez les effets au niveau de vos chiffres, mais il est bien préférable de détecter un problème et de le résoudre avant de commencer à perdre de l’argent.
  • Expiration du domaine et du certificat SSL : c’est bien connu, les services d’enregistrement de noms de domaine et de certificats SSL sont très heureux de vous rappeler que vous devez renouveler votre abonnement. Cependant, des choses peuvent arriver, surtout si vous utilisez plusieurs emails ou pseudos. Vous pouvez passer à côté d’une telle situation et un rappel supplémentaire issu d’un monitoring externe ne fera de mal à personne.
  • Être présent sur listes noires : un écran d’avertissement rouge affiché par le navigateur au lieu du site web lui-même est une situation à éviter. Le plus souvent, cela signifie qu’un site web a été infecté par un logiciel malveillant et est devenu une menace pour les utilisateurs. Dans une telle situation, vous devez réagir immédiatement afin que le moins d’utilisateurs possible rencontrent un tel message.
  • Bloqueurs de robots : si vous n’avez jamais vécu cette expérience, jetez-moi la première pierre. La version dev du site web envoyée en prod avec le fichier robots.txt comprenant le blocage des robots des moteurs de recherche. Ou le X-Robots-Tag dans l’en-tête HTTP, qui est invisible à première vue. Il est préférable de détecter une telle erreur avant que Google ne mette à jour l’index selon notre propre « requête ».

Surveillance off-site

Vous observez certainement les résultats externes de vos actions, mais observer n’est pas la même chose que surveiller. Il est bon de vérifier régulièrement vos rapports et de recevoir des alertes aux moments clés au lieu de regarder vos résultats en permanence.

  • La position dans les SERPs : la base pour déterminer les effets des activités SEO, et souvent, du montant de la rémunération des services SEO. Très difficile à suivre par vous-même, non pas tant en raison du fait que de nombreuses requêtes répétitives sont bloquées par Google, mais plutôt en raison de la personnalisation poussée des résultats de recherche et de l’apparition constante de nouvelles snippets qui modifient l’aspect des SERPs.
  • L’efficacité de Google : le nombre de vues, de CTR et de clics des SERPs, la vitesse de crawl et les erreurs. Les données de premier niveau, c’est-à-dire les données provenant directement de la search console de Google.
  • D’autres indicateurs : tels que le Trust Flow (TF) ou le Citation Flow (CF) sont utilisés principalement pour déterminer la valeur des sites web en tant que lieux de liens potentiels. Mais il est également utile de surveiller à cet égard le fonctionnement du site web optimisé.
  • Les backlinks – la « monnaie » du référencement, résultat direct du marketing de contenu et de nombreuses autres activités. Certains valent leur pesant d’or, d’autres ne valent pas autant. La nécessité de contrôler les backlinks se manifeste à deux niveaux :
  1. le niveau général – numérique / qualitatif
  2. le détaillé – c’est-à-dire le suivi des liens spécifiques acquis – s’ils n’ont pas été supprimés ou modifiés (par exemple en ajoutant l’attribut « nofollow »).

Google Search Console

Les outils

L’outil le plus important pour suivre les effets des activités de référencement est la Search Console de Google mentionnée ci-dessus. Malheureusement, elle n’offre pas d’alertes configurables pour signaler, par exemple, une baisse des positions dans les SERPs. Bien sûr, la GSC envoie différents types d’alertes, mais elle le fait de manière totalement indépendante.

Google Analytics est également très important ou, à défaut, tout autre logiciel utilisé pour suivre le trafic et le comportement des utilisateurs sur le site web. Vous pouvez définir vos propres alertes et recevoir des notifications ici, lorsque quelque chose d’inhabituel arrive au niveau du trafic sur votre site web.

Majestic est une source de données très précieuse pour un site optimisé pour le SEO, et plus particulièrement pour les liens externes. Il possède son propre index construit exactement de la même manière que l’index de Google.

Certaines des plateformes SEO avancées, comme OnCrawl par exemple, offrent un suivi continu de la santé globale d’un site web. Le service suit diverses mesures collectées par le crawling et l’analyse des logs.

Des services tels que Super Monitoring sont utilisés pour la surveillance sur site, notamment en ce qui concerne la disponibilité, la vitesse et le bon fonctionnement des sites web. Ils testent le site web même plusieurs milliers de fois par jour pour diverses irrégularités, qu’ils détectent, enregistrent et signalent.

Super Monitoring

La surveillance de la position dans les résultats de recherche peut être traitée, dans une certaine mesure, par la Search Console de Google.

Cependant, les possibilités sont limitées ici et il nous manque les alertes mentionnées ci-dessus. Majestic et OnCrawl viennent également à la rescousse ici avec leurs trackers de position.

[Étude de cas] Suivre et optimiser la refonte d’un site web suite à une pénalité

Pour reprendre pied après une chute massive à la suite d’une mise à jour d’algorithme, Opirata s’est lancé dans une refonte en profondeur. Opirata s’appuie sur les crawls et l’analyse des logs avec OnCrawl afin de comprendre les erreurs de l’ancien site, de confirmer les hypothèses SEO, et de suivre la prise en compte par Google des changements.

Agrégation des données

En conséquence, vous devez disposer d’au moins quatre outils pour pouvoir suivre le référencement de manière complète. Si vous configurez les alertes dans chacun d’eux, vous vous protégerez contre le risque de manquer des changements importants.

Mais qu’en est-il des rapports ? Se connecter à plusieurs applications différentes jour après jour et comparer les données dans des fenêtres séparées est une véritable torture.

Source: SEO Reporting Dashboard – par Windsor.ai

Heureusement, la plupart des applications de monitoring partagent leurs données via une API et vous pouvez combiner plusieurs sources de données dans des solutions de type « tableau de bord ». Google Data Studio est le plus connu. Il est intéressant de noter que vous pouvez y connecter des données provenant de sources n’offrant pas d’API – par exemple, directement à une base de données. De ce fait, votre tableau de bord d’indicateurs clés peut également inclure des informations provenant du site web lui-même.

Konrad Caban - fondateur et PDG de Super Monitoring - une application permettant de contrôler la disponibilité et le bon fonctionnement des sites web mais également de l'agence interactive SITEIMPULSE.
Sujets en lien :