Le 30 mars dernier, nous tenions un webinar consacré aux 10 métriques SEO à suivre avec OnCrawl. Dans ce récapitulatif, Erlé Alberton, ancien responsable SEO d’Orange & Sosh et désormais nouveau Customer Success Manager chez OnCrawl, se concentre sur 10 métriques importantes pour analyser la réussite d’un projet SEO. Ces dernières, toutes intégrées dans OnCrawl, offrent une analyse claire et concise et peuvent jouer un rôle déterminant dans le décisionnel.

#1 Métrique de Crawl : le Crawl de Google

Avec OnCrawl, vous pouvez comparer le nombre de pages crawlées, le nombre de hits par Google bot et surtout voir le volume de nouvelles pages découvertes par le bot. Ces nouvelles pages doivent être exposées au robot de Google et pour ce faire il faut les remonter dans les pages de Google pour qu’elles soient indexées correctement.

Capture d’écran 2017-04-19 à 14.25.08

Capture d’écran 2017-04-19 à 14.25.49

Il est également important de comprendre la répartition du budget de crawl par groupe de pages pour bien détecter les zones de faiblesse du site. Certaines sections d’un site sont forcément plus importantes que d’autres alors il est nécessaire de les mettre en avant.

Capture d’écran 2017-04-19 à 14.27.10

OnCrawl vous permet aussi de catégoriser vos pages de 10 manières différentes. En effet, on vous donne des perspectives d’attaques de vos données basées sur des data layers inscrits à l’intérieur de votre code source ou avec vos métriques de qualité (rapidité de téléchargement, http ou https, etc.).

#2 Impact SEO

Bien évidemment, connaître l’impact du crawl de Google sur ses visites SEO est un must. Aujourd’hui, plusieurs outils comme Omniture, Google Analytics ou AT Internet vous aident à connaître ce nombre de visites, mais ces solutions sont basées sur le javascript exécuté côté client. Ceci pose un petit souci, car on se rend compte qu’il n’y a pas de meilleure vue que celle qui est issue des traces que Google laisse sur le serveur et ces traces là sont laissées par des logs.

Capture d’écran 2017-04-19 à 14.28.17

Chez OnCrawl, on vous permet de connaître les visites SEO (on vous garantit de vraies visites SEO Google). On s’assure donc de:

  • Vérifier que les nouvelles pages découvertes deviennent actives (qu’elles reçoivent des visites pour référer Google – news, SERP, android-app) ;
  • Suivre l’évolution des pages actives. En effet, il faut s’assurer qu’elles remontent bien dans l’indexe Google ;

Capture d’écran 2017-04-19 à 14.30.17

  • Valider la stratégie de visibilité en se penchant sur les visites SEO par groupes de pages.

Chez OnCrawl on utilise la métrique FreshRank qui permet de calculer le temps qu’il faut à une page entre le moment où elle est crawlée pour la première fois par Google et le moment où elle génère une visite SEO.

Cet indicateur est essentiel puisqu’il est étroitement lié à la réputation et la visibilité de votre site. En effet, les sites web avec une visibilité et une autorité importante ont tendance à avoir un FreshRank faible tandis que les sites plus petits ont tendance à en avoir un élevé.

En résumé, ce FreshRank vous permet de maximiser vos investissements payants d’achats de trafic le temps que cette page reçoive un nombre de vite SEO moyen correspondant à la moyenne normale de vos pages.

Capture d’écran 2017-04-19 à 14.31.24

#3 Qualité technique du site

D’abord et avant tout, il faut vérifier les status codes renvoyés aux robots Google afin de s’assurer que la structure interne soit propre. Cela dit, il faut faire attention aux 404/500/migrations https et que toutes les pages http répondent bien en 300 (pour que la migration soit bien reçue par Google comme une vraie redirection).

Capture d’écran 2017-04-19 à 14.32.29

Suivre l’évolution des status codes dans le temps permet de s’assurer que les mises à jour du code soient bien SEO Friendly. Avec OnCrawl, on peut désactiver certaines lignes (ex : enlever les 200 pour se concentrer que sur les 300 ou 404). Cette option vous permet de comprendre rapidement l’information rapportée. En SEO, il faut comprendre les données certes, mais également être capable de les reporter clairement à nos différents clients.

Capture d’écran 2017-04-19 à 14.33.53

OnCrawl vous permet également de voir combien de budget Google dépense sur ces ressources (toutes les pages qui ne sont pas en html = css, img, js). Grâce à une redirection par exemple, vous dites à Google de ne pas passer trop de temps sur cette ressource depuis sa dernière visite parce que rien n’a changé. Google pourra donc réorienter son budget de crawl ailleurs.

Capture d’écran 2017-04-19 à 14.34.30

#4 Métrique de contenu : HTML

Qualité HTML
Quel est le nombre de pages crawlables, indexables par les robots ? Ce nombre doit assurément être en relation avec votre stratégie de nouveaux contenus.

Capture d’écran 2017-04-19 à 14.36.33

Quel est l’état de la duplication : Title, Meta Desc, H1 ? Mes descriptions de titres sont-elles ok ?

Avec les graphiques OnCrawl on se rend compte que ce qui est en rouge correspond au contenu dupliqué et ce qui est en orange correspond au titre qui n’a pas été écrit.

Capture d’écran 2017-04-19 à 14.37.51

On vous indique aussi le ratio texte/code qui permet de valider la qualité du code source produit. Cela dit, pour être pertinent sémantiquement il ne faut pas qu’il y ait trop de bruit html autour de vos mots-clés principaux. On espère donc que le ratio texte/code suite à une refonte soit réduit pour mettre en valeur votre sémantique.

Capture d’écran 2017-04-19 à 14.38.46

#5 Métrique de contenu : sémantique

Google fait très attention à l’unicité des contenus et vous devez en faire autant au niveau de votre sémantique, c’est-à-dire l’ensemble des mots présents sur votre site.

Chez OnCrawl, en nous appuyant sur l’algorithme Simhash, on rapproche les pages qui sont très proches sémantiquement (même contenu de texte) et on les insère dans un cluster. Ainsi, détecter les clusters de pages dupliquées vous permet de proposer une stratégie de mise en place de balise canonique.

Capture d’écran 2017-04-19 à 14.40.44

Par exemple,un Iphone avec une coque rose et une coque violette donneront 2 pages sensiblement identiques Sont-elles crawlables ? Comment gérer une canonique dans ce cas là ? Comment maîtriser cette duplication ?

Il est possible de voir en fonction de la couleur du graphique si la canonique correspond ou non. Si les 2 pages sont très proches et qu’elles ne pointent pas vers la même canonique vous allez consommer du budget crawl pour rien…

Aussi, il est crucial de connaître le nombre de pages avec du contenu pauvre. On sait que Google crawle plus les pages lorsqu’elles possèdent un plus grand nombre de mots. Il est donc possible de les détecter avec OnCrawl et voir si la fréquence de crawl de Google est bien répartie sur ses pages riches et prioritaires.
Capture d’écran 2017-04-19 à 14.41.16

#6 Analyse de l’architecture

Connaître l’impact du maillage interne sur le crawl de Google
Au fur et à mesure qu’un site évolue, le maillage le ressent, il faut donc connaître la répartition du InRank (popularité interne) en fonction des profondeurs et des groupes de pages de chaque partie de son site. Si une page importante ne reçoit que très peu de liens, c’est que Google la considère peu populaire/peu visitée par les internautes. Vous connaissez le PageRank ? L’InRank est sensiblement similaire mais concerne la popularité interne de votre site.

Capture d’écran 2017-04-19 à 14.42.41

Comparer ses pages : dans la structure (crawlées vs actives)
Il faut résoudre le problème des pages orphelines pour lesquelles Google dépense du budget inutilement. À savoir que les pages orphelines peuvent être actives d’un point de vue SEO, c’est-à-dire qu’elles reçoivent des visites, mais elles ne reçoivent aucun lien depuis votre site. C’est dommage, car cela veut dire que Google les connait, que les utilisateurs les apprécient, mais que vous n’avez pas réussi à les exposer correctement à l’extérieur de votre site.

Capture d’écran 2017-04-19 à 14.43.56

Il faut également corriger l’architecture du site pour renvoyer des liens vers des pages actives, mais hors structure.

En bout de ligne avec OnCrawl, vous validez à l’aide des données par le crawl ce que vous avez interprété ou ce que vous avez mis en place.

#7 Performance

L’outil OnCrawl vous permet de :

  • Connaître la répartition des temps de réponse et des poids des fichiers en fonction des groupes de page ;
  • S’assurer que le chargement des pages n’impacte pas le budget de crawl de Google (les temps de chargement jouent sur le ranking notamment sur les recherches Mobile) ;

*Attention : Le Mobile First Index est en préparation. Si vous voulez être affiché sur ces pages, vous devez avoir des pages légères, rapides, avec des contenus adaptés aux devices mobiles, etc.

Capture d’écran 2017-04-19 à 14.45.10

Vous le savez déjà, mais il est toujours bien de le répéter : si une page se charge lentement, le taux de rebond risque d’être plus élevé !

#8 Qualité

En tout temps, il faut relever les erreurs serveur et connaître leur répartition par type de pages afin de s’assurer qu’il n’y ait pas de freins à l’indexation du site. Aussi, il faut connaître la volumétrie et suivre cette volumétrie des pages en erreur.

Grâce à l’analyse croisée (crawl + Logs) proposée par OnCrawl, vous vérifiez que toutes les zones du site respectent les conditions optimales pour faciliter le crawl de Google. Cette fonctionnalité spécifique à OnCrawl s’assure que l’impact des différents status codes n’impactent pas votre taux de crawl.

#9 Comportement utilisateur

Les facteurs de ranking basés sur les comportements humains sont de plus en plus importants pour Google (les rich snippets, une meta description intéressante, etc.).

Avec son Algorithme Rank Brain qui apprend de manière continue en se basant sur les comportements des internautes depuis les SERPs, Google peut classer ou déclasser une page quasiment en temps réel.

Il faut donc suivre les taux de rebond, taux de clics, temps de visites de votre site et détecter les zones du sites en retard.

Capture d’écran 2017-04-19 à 14.46.53

#10 Analyse de log avec OnCrawl

Afin de compléter les rapports de crawl de l’outil, il est recommandé d’utiliser l’option d’analyse de logs. Vos logs sont hébergés sur les serveurs et doivent être envoyés via FTP à OnCrawl (vous pouvez visiter notre support pour savoir comment envoyer vos logs).

OnCrawl va extraire chaque ligne pour vérifier si :

  • la ligne représente une trace Google Bot
  • la ligne correspond à une visite depuis un moteur de recherche – visite SEO

Comment bien paramétrer ses fichiers de logs ?
OnCrawl se base sur les variables contenues dans les lignes de log pour créer ses rapports. De plus, nous garantissons que les données représentent bien des hits Google bot (en faisant une identification du DNS) vs des Scrap (“voleurs de données” qui prétendent être le robot de Google). Sur quelles données nous basons-nous pour garantir l’exhaustivité ?

  • DateTime with Timezone
  • Ip client
  • Referer
  • UserAgent
  • Vhost
  • Port (80/443)
  • Status code
  • Path
  • Bytes

Conclusion
Dans le contexte concurrentiel actuel, les analyses des métriques SEO deviennent l’arme ultime pour prendre le devant face à la concurrence. Les responsables SEO doivent pouvoir se baser sur des données fiables et des analyses croisées avec intelligence. OnCrawl permet d’ouvrir la boîte noire de Google et de cibler rapidement les QuickWins et les évolutions structurelles à entreprendre dès aujourd’hui !

Retrouvez l’intégralité du webinar


Si vous n’avez pas encore créé votre compte, vous pouvez toujours bénéficier d’une période d’essai gratuite de 30 jours.