List - OnCrawl blog

Comment Google évalue l’utilisabilité d’un site ? 4 facteurs clés

11 juillet 2018 - 6  min de lecture - par Patrick O'Doherty
Accueil > SEO Thoughts > Comment Google évalue l’utilisabilité d’un site ? 4 facteurs clés

Il y a bien longtemps que la raison d’être et l’aboutissement du SEO n’est plus le link building. Depuis au moins 2011, (avec la mise à jour Panda), Google a utilisé des métriques permettant de mesurer l’utilisabilité d’un site web, en plus des liens entrants en tant que facteur de classement.
Soit disant passant, prenez garde à ne pas confondre les termes “utilisabilité” et “expérience utilisateur”. Les marketers utilisent souvent ces deux termes indistinctement mais ils ne devraient pas. Wordtracker explique très bien la différence entre les deux concepts, mais concrètement, l’utilisabilité renvoie à la facilité d’utilisation d’un site web et l’expérience utilisateur à la manière dont l’utilisateur se sent lorsqu’il interagit sur votre site, en prenant en compte des facteurs comme le branding, la perception de l’utilisateur et ses émotions.
Cet article se concentre sur 4 métriques d’utilisabilité couramment discutées : le taux de rebond, le dwell time, la vitesse d’une page et le nombre de mots.

Le taux de rebond

Brian O’Connell, fondateur & CEO de Asterion SEO a affirmé que le taux de rebond était la métrique d’utilisabilité la plus importante pour le classement d’un site aux yeux de Google. Et cela a du sens jusqu’à un certain point. Si un utilisateur réalise une recherche Google et passe très peu de temps sur le résultat sur lequel il a cliqué, cela pourrait indiquer que le résultat n’était pas suffisamment utile pour la recherche de l’utilisateur.
Mais le taux de rebond ne constitue pas l’intégralité des facteurs de classement. Si un utilisateur est simplement à la recherche du numéro de téléphone de la pizzeria locale ou d’un docteur, et réalise sa recherche dans Google, puis clique sur la page web des résultats de recherche et trouve le numéro directement sur la page d’accueil avant de la fermer. Il s’agit d’une excellente utilisabilité mais est-ce que le site devrait être pénalisé à cause d’un taux de rebond très élevé ? Il est clair que non.
Donc, comment Google résout cela ?
Car Google peut tracker les personnes qui utilisent le navigateur Chrome (et qui ont opté pour), et résoudre le scénario ci-dessus en utilisant une autre métrique appelée “dwell time”.

Dwell Time

Le Dwell time est similaire au taux de rebond mais avec une étape supplémentaire : il mesure combien de temps la personne reste sur un site web après avoir cliqué sur un résultat de recherche puis prend en considération si cet utilisateur retourne aux résultats de recherche pour trouver une autre option. Comme son nom le décrit, cette métrique mesure combien de temps un utilisateur demeure (« Dwell » en anglais) sur un résultat spécifique et s’il décide ensuite de consulter un autre résultat depuis la même recherche. Nous pouvons déduire qu’un dwell time plus long pourrait suggérer un résultat plus pertinent pour Google et qu’un dwell plus court, pourrait laisser penser au contraire. Rappelez-vous, un dwell time n’est valable que si l’utilisateur retourne à la recherche originale pour cliquer sur un autre résultat.
Nous pouvons voir à quel point le dwell time diffère du taux de rebond et comment il résout le scénario “Je n’ai besoin que d’un numéro de téléphone” vu ci-dessus. Si un utilisateur clique sur un résultat de recherche et ne retourne pas sur la page Google pour vérifier les autres résultats, alors un “no dwelling” va apparaître et Google pourrait toujours classer cette page dans les premiers résultats, même si son taux de rebond est élevé et que le temps passé sur la page est faible.

Vitesse d’une page

Depuis au moins 2010, il est connu que Google récompense les sites les plus rapides avec des classements plus hauts. Google dispose même de son propre système très accessible pour mesurer et améliorer la vitesse d’un site web (Google Page Speed insights). Il est toujours pertinent de parier sur le fait que la vitesse est quelque chose d’important pour Google. Mais cela a été confirmé seulement récemment, en avril 2018, lorsque Google a annoncé qu’il utilisait des données réelles des utilisateurs de Chrome pour voir à quelle vitesse une page se chargeait (à l’opposé de conduire des tests logiciels), un nouvel indicateur de l’importance de la vitesse d’une page pour Google.
Cependant, une étude très complète de milliers de termes de recherche et de sites web dirigée par MOZ montre que la vitesse de l’infrastructure backend d’un site est la seule partie importante de l’équation vitesse/classement et que le temps de chargement du front end (la vitesse à laquelle le site se charge pour les utilisateurs) n’avait absolument aucun effet sur les classements. Donc, l’élément clé de cette enquête est d’améliorer aussi bien le temps de chargement du front end que l’hébergement de votre site.
Malgré tous les débats à propos des parties les plus importantes de l’équation vitesse/classements, étant donné qu’un site qui se charge rapidement est visiblement bénéfique pour l’utilisabilité, il n’est pas stupide de tout faire pour améliorer la vitesse d’un site, autant pour le front que pour le back end.

Nombre de mots

Peut-être que le sujet le plus controversé au sujet de l’utilisabilité et de Google est le nombre de mots qu’une page devrait contenir pour mieux se classer. La liste ci-dessous illustre certaines des différences sur ce sujet.

  • Forbes suggère que le nombre de mots doit être de 600/700.
  • HubSpost a trouvé que les articles les plus performants comptent 2 250 à 2 500 mots.
  • Whiteboard Marketing recommande un minimum de 300 mots.
  • Backlinko a analysé 1 million de résultats de recherche Google et a trouvé que la moyenne de la première page Google contient 1 890 mots.

MOZ a aussi analysé 1 million d’articles et a trouvé que près de 85 % d’entre eux n’attiraient pas de partages sur les réseaux sociaux et de liens entrants. Les contenus partagés ou liés contenaient eux en moyenne 1000 mots.
Cependant, ces études doivent être considérées avec précaution. Rand Fishkin de Moz compare ces études à “de gros bobards” et pense qu’elles sont trop simples pour rendre des jugements actionnables et ne prennent pas en compte le type de mots-clés, le trafic ou les secteurs analysés. De plus, n’importe qui avec ne serait ce que des connaissances élémentaires sur les statistiques connait les marges d’erreur moyennes. Par exemple, un article qui compte en moyenne 2 000 mots peut en faite être calculé depuis une série de 20 articles contenant chacun 200 mots et d’un article avec 38 000 mots, ce qui donne une moyenne qui ne représente pas réellement la nature de la série.

Le jury se demande toujours si Google s’intéresse réellement au nombre de mots, une meilleure suggestion serait de prendre en considération d’autres facteurs, par exemple si votre contenu génère des liens entrants, dispose d’un faible taux de rebond, dwell time…

Patrick O'Doherty est le fondateur et le Managing Director de Yarra Web, une agence digitale qui a fièrement supporté le digital et les entreprises "brick and mortar" depuis 2008. Vous pouvez le trouver sur Facebook, Twitter ou Linkedin.
Sujets en lien :