L’analyse de logs prend du temps, moins de temps avec Oncrawl, mais du temps quand même. Les SEOs ont une longue liste d’audits et les fichiers de log étant l’un des éléments les plus longs de la liste, ils ont la mauvaise habitude de les analyser en dernier.
C’est dans la nature humaine de procrastiner mais il est plus facile de se lancer quand on sait ce qui nous attend.
Une récente analyse de logs de 97th Floor a permis à leur client d’augmenter de 25% ses revenus organiques en seulement 30 jours après la fin de l’analyse.
Ce que vous devez savoir avant d’effectuer une analyse de logs
Si vous êtes novice en matière de log, cet article n’est pas là pour couvrir l’essentiel du sujet. Lisez plutôt celui-ci.
Pour faire court, sachez que l’analyse de logs est essentiellement un examen des serveurs web qui ont été classés sur votre site. Les logs enregistrent les bots (comme Google) qui interagissent avec votre site.
Nombreux sont ceux qui se demandent « Quand dois-je effectuer une analyse des logs ? Et la bonne réponse est simplement « Oui ».
Voici pourquoi : La crawlabilité est le fondement de tout déploiement SEO technique. Sans la crawlabilité, les sites ne seront pas indexés. Sans indexation, ils ne seront pas classés. Et sans classement… Vous avez compris.
Il existe quelques moyens d’améliorer la crawlabilité des sites mais peut-être qu’aucun n’est plus efficace et plus complet qu’une analyse de logs. Que ce soit au début d’un déploiement technique ou que vous soyez au terme d’une campagne (mais que vous n’ayez pas regardé vos fichiers de log récemment), il est temps de procéder à une analyse de ces fichiers.
Pour tous ceux qui sont en phase d’effectuer une analyse de logs, j’ai un conseil pour vous. A tout SEOs qui pense avoir fait tout ce qui était possible mais qui a encore du mal à trouver le chemin de la page 1 : effectuer cette analyse des logs.
L’analyse de logs en action : l’observation des résultats
L’examen de vos fichiers de log peut donner lieu à une myriade de conclusions, notamment :
- Volume de crawl par des bots
- Gaspillage du budget de crawl
- Redirections 302
- Codes erreurs
- Priorité de crawl
- Duplication d’URLs
- Dernier crawl en date
Mais ces conclusions ne sont pas utiles en soi. Il faut un référencement qui peut voir au-delà des problèmes pour créer des solutions qui tireront le meilleur parti de l’analyse de logs.
Chez 97th Floor, nous avons un client e-commerce qui vend des produits uniques avec des prix élevés. Pratiquement tous les produits sont uniques et lorsque le produit est vendu, notre client supprime la page du site. Cela rendait difficile toute croissance au niveau de la page. Cela a également entraîné une grande confusion avec le Googlebot en matière de crawlabilité.
Il va sans dire qu’ils menaient une bataille difficile avec Google avant que nous n’intervenions. Lorsque nous avons commencé avec ce client, nous avons immédiatement effectué une analyse de logs.
Notre analyse de logs a donné lieu à de nombreuses conclusions (comme d’habitude), ci-dessous les 3 plus importantes :
- Un grand nombre de sous-dossiers redondants ont été fréquemment crawlés par Google
- De nombreuses pages comportant une erreur 404 se voyaient crawlée par Google. Comme elles avaient été supprimées du site, elles ne pouvaient pas être trouvées dans notre premier crawl.
- Des sous-dossiers sans importance ont été crawlés plus que les landing page importantes.
Comme mentionné précédemment, l’analyse de logs ne s’arrête pas lorsque l’analyse est terminée. Elle se poursuit à travers les points d’action, dans la mise en œuvre et l’exécution. Dans la situation de notre client, il gaspillait son budget de crawl avec des pages sans importance.
Nos nouvelles pages étaient bien optimisées mais n’avaient pas la traction nécessaire pour nous permettre d’obtenir un classement significatif.
Lorsque nous avons découvert ces trois problèmes grâce à l’analyse de logs, il était logique que notre classement ne soit pas plus élevé. Google utilisait notre budget de crawl pour regarder des pages qui n’étaient pas bien optimisées ou qui ne l’étaient pas du tout.
Afin d’obtenir le classement qui nous apportera le trafic dont nous avions besoin pour réussir, nous devions d’abord résoudre les éléments résultants de l’analyse de logs.
Les solutions
Traitement des pertes de crawl dans les sous-dossiers
Comme notre client était un site de e-commerce, nous avons vu un grand nombre de sous-dossiers qui étaient dupliqués sur le site. Ces sous-dossiers étaient pour la plupart des pages de catégories si anciennes que les informations qu’elles contenaient étaient largement dépassées et presque impossibles à découvrir de manière organique.
Googlebot ne les avait pas seulement découverts mais il revenait souvent les re-crawler, ce qui nous faisait perdre du budget.
Nous avons supprimé et re-dirigé ces sous-dossiers redondants vers des sous-dossiers plus appropriés et plus pertinents. Nous venions de lancer une structure de catégories complètement modifiée qui était censée nous aider à nous classer pour certains mots-clés plus importants. Pouvez-vous deviner où nous avons redirigé ces sous-pages redondantes ?
Le fait de rediriger ces anciennes pages oubliées vers leurs homologues plus récents et plus optimisés nous a donné un coup de pouce dans les SERPs.
Oncrawl Analyseur de logs
Correction des pertes de crawl dans les sous-dossiers non importants
Ce point semble similaire au dernier concernant les sous-dossiers redondants. La distinction entre les sous-dossiers redondants et les sous-dossiers sans importance est que nous parlons maintenant de sous-dossiers qui étaient encore pertinents, mais pas de pages importantes pour la recherche.
La solution était tout sauf simple. Comme nous ne connaissons pas la cause principale de la situation, nous avons dû mettre en place une solution large qui impliquait un peu de tout, y compris :
- L’insertion de liens internes stratégiques depuis nos pages à faible priorité (mais très crawlées) vers nos pages importantes, optimisées pour le SEO
- Réorganisation du sitemap pour inclure des pages plus importantes plus haut dans le fichier .xml
- Révision des informations rel= »canonical » et méta-robots sur nos pages les plus prioritaires
- Réexamen du fichier robots.txt pour s’assurer que rien n’a été bloqué sans raison (les grands sites e-commerce, doivent en particulier vérifier cela).
- Suppression et retrait des pages inutiles
Effacer les pages mortes
Nous avions déjà effectué un audit du site et nous avions trouvé toutes les erreurs 404 qu’un crawl interne du site pouvait identifier.
Mais c’est la beauté de l’analyse de logs, vous ne tirez pas de données limitées de votre propre crawl interne. Vous voyez exactement ce que Google voit. Il s’agit essentiellement d’un audit du point de vue le plus important : celui de Google.
La solution était simple, ce qui a permis de rattraper tout le temps passé sur le point précédent. Nous avons redirigé ces anciennes pages orphelines vers leurs équivalents optimisés sur le site.
Les résultats d’une analyse de logs
La meilleure partie de notre analyse de logs pour ce client a été les résultats rapides qu’il a obtenus.
Comme nous l’avons déjà mentionné, il a augmenté ses revenus organiques de 25 % en seulement 30 jours après la mise en œuvre des mesures ci-dessus.
Pendant cette période, nous avons également constaté une légère augmentation des taux de conversion pour le trafic organique. Comme cette augmentation s’est produite pendant une saison lente, la saisonnalité n’a pas sa place ici et le fait que les taux de conversion aient augmenté signifie que le trafic n’est pas seulement venu en plus grand nombre, c’était aussi un trafic qualifié.
Le trafic était probablement plus qualifié parce qu’après avoir redistribué efficacement le budget de crawl de notre client, nous avons attiré l’attention sur un plus grand nombre de pages basées sur l’intention, obtenant ainsi un meilleur classement sur les mots-clés à plus forte intention. Cela signifie que nous attirions les utilisateurs plus bas dans le tunnel de conversion vers les bonnes pages pour les aider dans leur recherche.
Cela peut sembler stupide, mais chez 97th Floor, notre credo est de faire d’Internet un endroit meilleur. L’analyse de logs permet cela parce qu’elle compense les lacunes de crawls inexacts de Google. Les pages de meilleure qualité se retrouvent ainsi en tête des SERPs, ce qui améliore considérablement l’expérience de recherche sur internet pour tout le monde.
La prochaine fois que vous serez confronté à un problème de crawlabilité, j’espère que vous ne réfléchirez pas à deux fois avant d’exécuter une analyse des logs, de présenter des solutions et de les mettre en œuvre. Vous verrez votre site gagner en trafic et en conversions !