Le 15 décembre dernier, nous tenions un webinar consacré aux 10 erreurs SEO à éviter en 2017. Dans ce récapitulatif, nous allons porter une attention particulière aux erreurs standard à bannir, aux migrations de site, au mobile, au crawl en JS et enfin nous aborderons de nouvelles méthodes de travail à appliquer. Voici donc les 10 erreurs à éviter pour votre référencement naturel.
1# Le contenu trop pauvre
Le contenu trop pauvre est une erreur largement connue et qui peut sembler vue et revue mais qui mérite cependant toute son attention. Oncrawl vous permet ainsi d’identifier rapidement via l’onglet Content les pages avec le moins de mots (moins de 300 mots). Ce seuil est néanmoins à nuancer en fonction:
- de la taille de votre site
- de la typologie de votre site
Il est donc nécessaire d’éviter le contenu qui s’auto-génère et de publier des contenus trop courts.
En effet, Google privilégie le contenu unique et intéressant mais surtout le contenu dense. A mesure que le moteur de recherche valorise l’expérience utilisateur, il prend en compte des métriques d’usage comme :
- le temps passé sur le site
- le taux de rebond
Dans sa logique de classement, Google classe les sites notamment en fonction de la densité de contenu nécessaire pour se positionner et se faire indexer.
Le graphique ci-dessous est le résultat d’une analyse croisée comparant le comportement du robot de Google sur les pages via les données de logs et les données de crawl relevées par Oncrawl.
Dans cet exemple, le nombre de mots est un élément central jouant sur la fréquence de crawl. Moins vous aurez de contenu, moins Google aura donc envie de vous indexer et de vous positionner. Dans le même temps, moins vous avez de contenu et plus vous êtes sujet au near duplicate.
La requête suivante permet d’identifier des pages avec du contenu inférieur à 300 mots et avec un contenu dupliqué supérieur à 90%.
Si ces pages ont peu de contenu et sont identifiées en near duplicate, il est facile de les corriger à l’aide d’une canonical ou d’un no-index. Les no-index restent la meilleure solution pour des sites e-commerce ou de presse type AFP avec des descriptions standards.
2# Les titres et balises h1 trop longs
Sur mobile, les titres trop longs sont tronqués mais également sur version desktop. Ils peuvent ainsi pénaliser votre taux de clic dans les résultats de recherche. Un titre trop long contenant trop de mot-clés peut également diminuer l’impact de votre mot-clé principal. Dans l’exemple ci-dessous, le site tente de se positionner sur la requête chaussure.
Pour faire simple, Google calcule l’importance du mot-clé à l’intérieur d’une chaîne de caractère en fonction du nombre de mots et d’occurrences afin de définir un poids pour chaque mot.
Pour se positionner sur un produit, le titre doit contenir la marque et le nom du produit car Google identifie les entités nommées. De même, il est préférable que vos H1 contiennent la référence du produit car cela permet de l’identifier plus facilement.
3# Une page indexable pour chaque déclinaison de produit
Pour éviter d’indexer toutes les déclinaisons d’un produit, un système de page chapeau est la meilleure solution. Cette page chapeau sera cependant la page qui se positionne sur le nom du produit. Il peut être parasitant de laisser Google indexer toutes les déclinaisons d’un produit. C’est pourquoi le no-index follow et l’utilisation d’urls canoniques vers la page chapeau est une bonne solution. Depuis ces pages, évitez également de linker des pages hors champ sémantique de la page chapeau. Il est important de laisser ces pages en follow car elles peuvent néanmoins rapporter du jus vers des pages sémantiquement proches.
4# Ne pas faire attention à la répartition du contenu
Se poser la question de l’architecture de lien interne est important car elle vous permet de savoir si cette architecture répond à vos objectif business.
Une erreur serait d’avoir une ventilation de vos différentes catégories de pages avec des objectifs hétérogènes avec la même proportion de pages à chaque niveau de profondeur. Vos pages prioritaires doivent être proches de la homepage.
5# Ne pas faire attention aux métriques d’usage
Les métriques d’usage prennent de plus en plus d’importance dans l’algorithme de Google. Il est nécessaire de bannir :
- Les publicités trop agressives : pensez à l’algorithme « Page Layout » qui pénalise les sites avec des pubs trop nombreuses au dessus de la ligne de flottaison
- Les interstitiels et popups sur version mobiles et desktop : cette pénalité est liée à la nouvelle interprétation du JS par Google
Il est donc nécessaire de contrôler vos métriques d’usage comme le taux de rebond par type d’appareil et groupe de pages afin d’identifier des pages problématiques. Le temps passé sur les pages et le nombres de pages vues générées par les visites SEO sont des données importantes à surveiller grâce notamment à l’analyse croisée des données analytics et données de crawl.
6# Un linking surnaturel
La partie netlinking est aussi importante car celle-ci doit être naturelle. Grâce à Majestic, vous pouvez surveiller votre netlinking et vérifier si celui-ci est qualitatif. Recevoir entre 100 et 600 domaines référents sur une requête très concurrentielle a peu de chance d’être perçu comme naturel.
De même pour les ancres, il est impossible qu’une page reçoivent des ancres exactes pour un produit spécifiques.
La qualité des liens et la thématique des liens est aussi importante car elle a un impact énorme.
7# Être trop obnubilé par ses positions
Les positions sont devenues trop aléatoires pour ne vous fier qu’à cette seule information. Google tente de proposer une expérience personnalisée à chaque utilisateur en analysant le contexte de la recherche. Êtes-vous en situation de mobilité ? Êtes-vous sur desktop ? Quelle est votre géolocalisation ? Pour une seule et même requête, les résultats de recherche sont complètement différents en fonction du contexte dans lesquels elles ont été réalisées. Il est donc important de relever des grandes masses par rapport au relevé de position car il est difficile d’avoir un monitoring exhaustif vous permettant de savoir exactement la place occupée.
Préférez d’autres indicateurs de performance comme le volume de visites SEO mais également le nombre de pages actives. Une page active est une page recevant du trafic SEO. Le but étant donc de maximiser le taux de ces pages.
Suivre ces indicateurs permet d’avoir une bonne connaissance de la santé SEO de votre site. Se concentrer uniquement sur des positions ultra concurrentielles peut vous faire perdre de vue par exemple des pages middle-train qui génèrent davantage de trafic SEO.
Ces indicateurs sont donc ceux avec lesquels travailler en 2017 pour mesurer votre niveau de performance et communiquer en interne. Ces données sont récupérables soit depuis vos logs soit depuis l’intégration des données Google Analytics dans Oncrawl.
8# Ne pas passer en https
Il faut s’attendre à une dégradation des scores assez fortes pour les sites ne passant pas en https. Un certificat SSL permet ainsi de prouver sa qualité à Google qui vise à préserver l’expérience utilisateur. Préparer sa migration est donc l’occasion de nettoyer son site car vous allez mettre en place de nombreuses 301. Il est bon de faire en sorte que l’ensemble du site soit le plus propre possible. A mesure que cette phase de nettoyage avance, n’hésitez pas à :
- Désindexer des pages. Si vous avez de vieilles redirections datant de la précédente mise à jour de votre site, vérifiez dans vos logs si Google continue à aller fetcher ces URLs en 301. Cela sera utile de supprimer ces redirections ou de les bloquer avec un robots.txt. Il faut donc éviter que Google continue de suivre ces redirections car si elles sont en place depuis plusieurs mois, Google les interprète et le jus est déjà repassé vers les nouvelles URLs. A moins qu’elles aient des backlinks intéressants, ne laissez pas ces redirections en l’état en empilant des 301 à chaque mise à jour du site.
- Regardez vos logs : avec un site de 100 pages, une migration https sera certainement possible à la main. Avec un site à forte volumétrie générant beaucoup de trafic, il est difficile de faire cette migration https sans outils pour surveiller ses logs.
Les bonnes pratiques pour une migration https efficace :
- Avoir une bonne connaissance de l’ensemble de ses urls. Il faut donc crawler son site pour avoir l’exhaustivité de ses pages et ne pas passer à côté de pages oubliées. En catégorisant vos urls, vous pourrez savoir vers quelles pages redistribuer du jus en provenance de vieilles urls que vous voulez supprimer et ainsi reventiler la popularité de vos pages.
- Préparer son plan de redirection en gérant les problématiques sur les pages orphelines. Une page orpheline est une page non présente dans votre structure de liens internes mais que Google connait. Cette information est accessible en croisant les données de logs et de crawl. Si Google connait ces pages, il continue à aller les visiter et gaspille donc de la ressource sur des pages qui ne sont a priori plus prioritaires. Elle ne génèrent en effet plus beaucoup de trafic et plus aucun liens ne pointent vers elles. Dans l’exemple ci-dessous, le site est mal indexé et ne peut se positionner sur les requêtes souhaitées car seules 42% des pages connues dans la structure sont crawlées alors que plus de 82000 sont orphelines et crawlées par Google.
Regardez si ces pages orphelines sont génératrices de trafic. Si c’est le cas, il sera peut-être intelligent de les rediriger et non toutes les passer en no-index.
- Crawler une pré-prod vs une prod et inversement afin d’identifier des évolutions. La popularité interne des pages a t-elle été améliorée ? Quelle est la différence de volume de pages dans un groupe entre pré-prod et prod ? Oncrawl dispose d’une fonctionnalité de comparaison de crawl qui permet d’identifier ce qui a bougé et les effets de bords en matière de redistribution de popularité interne.
- Suivre la mise en prod en regardant ce qu’il se passe au niveau des logs. Penchez vous sur les status codes en temps réel. Vous pourrez identifier des régressions, augmentation de 302 ou 404.
Cette réactivité vous permet d’éviter de recevoir des messages en différé dans la Search Console concernant ces erreurs et ainsi préserver votre fréquence de crawl et le nombre de vos pages actives.
9# Un mauvais maillage interne
Même si vous pensez avoir bien fait, seule l’analyse de logs vous permettra de comprendre comment Google interprète votre maillage interne. Par exemple, il pourra attribuer une grande partie de ses ressources à une petite portion de pages uniques sans intérêt. Les pages génératrices de revenus sont par conséquent moins souvent visitées. Vérifiez grâce aux logs l’impact d’optimisations comme une modification du fil d’Ariane ou des barres de navigation. Ces corrections peuvent parfois augmenter de 30 à 50% le trafic en quelques semaines tout simplement parce que les budget de crawl a été mieux redistribué.
10# Ne pas identifier les améliorations prioritaires
Il est peut être difficile d’identifier les chantiers prioritaires en SEO. Il est souvent intéressant de démarrer par les groupes de pages actives et inactives.
En effet, vos pages marques, produits, éditoriales n’ont pas toutes les mêmes objectifs et n’ont pas toutes la même valeur. Certaines ont des objectifs de conversions, d’autres de fidélisation, certaines ont des paniers moyens supérieurs à d’autres, etc. En connaissant vos objectifs business et en regardant vos pages actives et inactives, concentrez vous sur les groupes de pages inactives potentiellement génératrices de valeur. Ainsi vous pourrez identifier le chantier à attaquer en priorité.
Bonus
- Pensez multi-device et à l’expérience utilisateur en situation de mobilité.
- Concentrez vous sur la payload : en situation de mobilité, la payload aura un fort impact sur les métriques d’usage.
- Crawlez vos sites en exécutant le javascript afin d’avoir une idée du temps de chargement de l’ensemble de votre payload. Fonctionnalité disponible dans les settings d’Oncrawl.
- Contrôlez votre plan de tags: les Custom Fields d’Oncrawl permettent de scraper des éléments présents dans les pages et par exemple de contrôler les plans de tags Google Analytics.