Le 15 décembre dernier, nous tenions un webinar consacré aux 10 erreurs SEO à éviter en 2017. Dans ce récapitulatif, nous allons porter une attention particulière aux erreurs standard à bannir, aux migrations de site, au mobile, au crawl en JS et enfin nous aborderons de nouvelles méthodes de travail à appliquer. Voici donc les 10 erreurs à éviter pour votre référencement naturel.
Le contenu trop pauvre est une erreur largement connue et qui peut sembler vue et revue mais qui mérite cependant toute son attention. OnCrawl vous permet ainsi d’identifier rapidement via l’onglet Content les pages avec le moins de mots (moins de 300 mots). Ce seuil est néanmoins à nuancer en fonction:
Il est donc nécessaire d’éviter le contenu qui s’auto-génère et de publier des contenus trop courts.
En effet, Google privilégie le contenu unique et intéressant mais surtout le contenu dense. A mesure que le moteur de recherche valorise l’expérience utilisateur, il prend en compte des métriques d’usage comme :
Dans sa logique de classement, Google classe les sites notamment en fonction de la densité de contenu nécessaire pour se positionner et se faire indexer.
Le graphique ci-dessous est le résultat d’une analyse croisée comparant le comportement du robot de Google sur les pages via les données de logs et les données de crawl relevées par OnCrawl.
Dans cet exemple, le nombre de mots est un élément central jouant sur la fréquence de crawl. Moins vous aurez de contenu, moins Google aura donc envie de vous indexer et de vous positionner. Dans le même temps, moins vous avez de contenu et plus vous êtes sujet au near duplicate.
La requête suivante permet d’identifier des pages avec du contenu inférieur à 300 mots et avec un contenu dupliqué supérieur à 90%.
Si ces pages ont peu de contenu et sont identifiées en near duplicate, il est facile de les corriger à l’aide d’une canonical ou d’un no-index. Les no-index restent la meilleure solution pour des sites e-commerce ou de presse type AFP avec des descriptions standards.
Sur mobile, les titres trop longs sont tronqués mais également sur version desktop. Ils peuvent ainsi pénaliser votre taux de clic dans les résultats de recherche. Un titre trop long contenant trop de mot-clés peut également diminuer l’impact de votre mot-clé principal. Dans l’exemple ci-dessous, le site tente de se positionner sur la requête chaussure.
Pour faire simple, Google calcule l’importance du mot-clé à l’intérieur d’une chaîne de caractère en fonction du nombre de mots et d’occurrences afin de définir un poids pour chaque mot.
Pour se positionner sur un produit, le titre doit contenir la marque et le nom du produit car Google identifie les entités nommées. De même, il est préférable que vos H1 contiennent la référence du produit car cela permet de l’identifier plus facilement.
Pour éviter d’indexer toutes les déclinaisons d’un produit, un système de page chapeau est la meilleure solution. Cette page chapeau sera cependant la page qui se positionne sur le nom du produit. Il peut être parasitant de laisser Google indexer toutes les déclinaisons d’un produit. C’est pourquoi le no-index follow et l’utilisation d’urls canoniques vers la page chapeau est une bonne solution. Depuis ces pages, évitez également de linker des pages hors champ sémantique de la page chapeau. Il est important de laisser ces pages en follow car elles peuvent néanmoins rapporter du jus vers des pages sémantiquement proches.
Se poser la question de l’architecture de lien interne est important car elle vous permet de savoir si cette architecture répond à vos objectif business.
Une erreur serait d’avoir une ventilation de vos différentes catégories de pages avec des objectifs hétérogènes avec la même proportion de pages à chaque niveau de profondeur. Vos pages prioritaires doivent être proches de la homepage.
Les métriques d’usage prennent de plus en plus d’importance dans l’algorithme de Google. Il est nécessaire de bannir :
Il est donc nécessaire de contrôler vos métriques d’usage comme le taux de rebond par type d’appareil et groupe de pages afin d’identifier des pages problématiques. Le temps passé sur les pages et le nombres de pages vues générées par les visites SEO sont des données importantes à surveiller grâce notamment à l’analyse croisée des données analytics et données de crawl.
La partie netlinking est aussi importante car celle-ci doit être naturelle. Grâce à Majestic, vous pouvez surveiller votre netlinking et vérifier si celui-ci est qualitatif. Recevoir entre 100 et 600 domaines référents sur une requête très concurrentielle a peu de chance d’être perçu comme naturel.
De même pour les ancres, il est impossible qu’une page reçoivent des ancres exactes pour un produit spécifiques.
La qualité des liens et la thématique des liens est aussi importante car elle a un impact énorme.
Les positions sont devenues trop aléatoires pour ne vous fier qu’à cette seule information. Google tente de proposer une expérience personnalisée à chaque utilisateur en analysant le contexte de la recherche. Êtes-vous en situation de mobilité ? Êtes-vous sur desktop ? Quelle est votre géolocalisation ? Pour une seule et même requête, les résultats de recherche sont complètement différents en fonction du contexte dans lesquels elles ont été réalisées. Il est donc important de relever des grandes masses par rapport au relevé de position car il est difficile d’avoir un monitoring exhaustif vous permettant de savoir exactement la place occupée.
Préférez d’autres indicateurs de performance comme le volume de visites SEO mais également le nombre de pages actives. Une page active est une page recevant du trafic SEO. Le but étant donc de maximiser le taux de ces pages.
Suivre ces indicateurs permet d’avoir une bonne connaissance de la santé SEO de votre site. Se concentrer uniquement sur des positions ultra concurrentielles peut vous faire perdre de vue par exemple des pages middle-train qui génèrent davantage de trafic SEO.
Ces indicateurs sont donc ceux avec lesquels travailler en 2017 pour mesurer votre niveau de performance et communiquer en interne. Ces données sont récupérables soit depuis vos logs soit depuis l’intégration des données Google Analytics dans OnCrawl.
Il faut s’attendre à une dégradation des scores assez fortes pour les sites ne passant pas en https. Un certificat SSL permet ainsi de prouver sa qualité à Google qui vise à préserver l’expérience utilisateur. Préparer sa migration est donc l’occasion de nettoyer son site car vous allez mettre en place de nombreuses 301. Il est bon de faire en sorte que l’ensemble du site soit le plus propre possible. A mesure que cette phase de nettoyage avance, n’hésitez pas à :
Regardez si ces pages orphelines sont génératrices de trafic. Si c’est le cas, il sera peut-être intelligent de les rediriger et non toutes les passer en no-index.
Cette réactivité vous permet d’éviter de recevoir des messages en différé dans la Search Console concernant ces erreurs et ainsi préserver votre fréquence de crawl et le nombre de vos pages actives.
Même si vous pensez avoir bien fait, seule l’analyse de logs vous permettra de comprendre comment Google interprète votre maillage interne. Par exemple, il pourra attribuer une grande partie de ses ressources à une petite portion de pages uniques sans intérêt. Les pages génératrices de revenus sont par conséquent moins souvent visitées. Vérifiez grâce aux logs l’impact d’optimisations comme une modification du fil d’Ariane ou des barres de navigation. Ces corrections peuvent parfois augmenter de 30 à 50% le trafic en quelques semaines tout simplement parce que les budget de crawl a été mieux redistribué.
Il est peut être difficile d’identifier les chantiers prioritaires en SEO. Il est souvent intéressant de démarrer par les groupes de pages actives et inactives.
En effet, vos pages marques, produits, éditoriales n’ont pas toutes les mêmes objectifs et n’ont pas toutes la même valeur. Certaines ont des objectifs de conversions, d’autres de fidélisation, certaines ont des paniers moyens supérieurs à d’autres, etc. En connaissant vos objectifs business et en regardant vos pages actives et inactives, concentrez vous sur les groupes de pages inactives potentiellement génératrices de valeur. Ainsi vous pourrez identifier le chantier à attaquer en priorité.