technical SEO

Comment bien gérer une migration SEO ?

5 octobre 2017 - 16  min de lecture - par Erlé Alberton
Accueil > SEO Technique > Comment bien gérer une migration SEO ?

Dans le cycle de vie d’un site internet, les phases de migrations SEO sont des moments importants durant lesquels il faut être attentif à de nombreux détails pour ne pas impacter négativement le SEO.

Chaque migration de site est différente. Une migration n’implique pas des résultats instantanés mais c’est le moment idéal pour améliorer votre SEO. Il faut comprendre que lorsqu’un site évolue, les moteurs de recherche ne sont pas toujours dans le même timing et qu’il aura un temps d’adaptation plus ou moins important. C’est toutefois le moment le plus opportun pour un site web d’améliorer la qualité technique, l’enrichissement du code avec HTML5 et json-ld, le “siloing” grâce à l’architecture du maillage interne, la richesse éditoriale et renvoyer aux moteurs des signaux SEO forts.

Il existe plusieurs types de migration de sites en fonction des changements qui se produisent, ce qui relève habituellement d’un ou de plusieurs des éléments suivants :

  • Hébergement / Adresse IP
  • Nom de domaine
  • Structure URL
  • Architecture du site
  • Contenu
  • Conception

Les migrations de sites les plus difficiles impliquent des changements dans la plupart (ou la totalité) des éléments ci-dessus.

[Étude de cas] Optimiser le SEO après une refonte de site web

Un an après la refonte de leur site web, EasyCash ont réalisé que la performance qu’ils avaient visée n’était pas au rendez-vous. Ils ont ainsi identifié et résolu différents points SEO bloquants.

Si la refonte SEO est correctement gérée, il y aura un avant et un après migration. Prenez le temps de comprendre les “Pain Points” du site et travaillez-les pour les corriger. Améliorez les performances, facilitez la crawlabilité. Vous serez forcément gagnant à terme.

Dans cet article, nous allons vous donner les bonnes pratiques pour réussir une transition en toute sécurité.

Les étapes, actions et documents clés d’une migration SEO

Une migration maîtrisée est une migration bien préparée. Vous serez donc efficace à la condition de respecter une suite d’étapes structurantes. Ces étapes vous permettront aussi d’accumuler un ensemble de documents et de données sur lesquelles vous pourrez vous appuyer tout au long du cycle de la migration et qui par la suite vous permettront de qualifier le bon (ou mauvais) impact de celles-ci.

Voici un tableau listant les actions et documents de migration en fonction des objectifs :

OBJECTIFACTIONSDOCUMENTS
Photographie du site• Crawl préliminaire

• Agréger des données de logs serveur

Rapports de crawl Relevé des fichiers techniques (robots.txt, sitemaps, ancien fichier de redirection)

Table des urls crawlées/non crawlées, pages orphelines et fréquence de crawl/jour de chacune

Compiler, agréger et stocker des données des outils externes• Relever les donnéesGoogle Analytics, Omniture, AT Internet, Search Consoles (Bing/Google), SemRush, Myposeo, Majestic, SEObserver,…Export des positions, taux de clics et impression par expressions/niches

Export des données analytics

Export des backlinks, TF/CF, niche

Export des mots-clés des niches

Recherche d’expressions clés

Croisement des données

Identification des axes d’amélioration• Audit et analyse des donnéesListe des tâches
Priorisation des sujets• Evaluation des gains/effortsMatrice des ROIs
Spécifications• Evaluation des gains/effortsExpression de besoin avec annexes pour les codes SEO-friendly
Mise en oeuvre• Développement

• Mise en oeuvre du savoir

Discussion en équipe autour des points critiques

Code de qualité

Vérification des modifications• Recette technique

• Validation du code

• Garantie du code

Rapport de crawl de comparaison

Rapport de correctifs journaliers

Validation des tests à jouer le jour J

Passage en production• Déploiement du nouveau code et des nouveaux fichiers (sitemaps, robots.txt, redirections)

• Test d’intégrité du nouveau site

• Déclaration des nouveaux sitemaps

• Forcer le crawl des moteurs grâce à la Search Console

Passer le nouveau code  en production

Garantir des fichiers sitemap(s) XML à jour

Valider Robots.txt optimisé

Fichier de redirections s’il y a lieu

Avoir le code attendu et stable en production

Suivi post MEP• Crawl Over Crawl

• Crawl des urls redirigées

Retour sur les comparaisons des données

Rapport sur l’évolution des KPIs

Compilation et analyse des données avant migration

Crawl préliminaire

Comprendre les problèmes d’un site est essentiel pour la préparation des cahiers des charges et des KPIs de suivi de migration. Afin de connaître au mieux le site et détecter les axes d’amélioration, nous vous invitons à faire une photographie complète du site avant migration.

Pour cela, lancez un crawl en respectant les mêmes principes que ceux que respectent Google : prise en compte du robots.txt, suivi des liens avec querystring. Si votre migration prend en compte plusieurs sous-domaines, Oncrawl vous permet la découverte et le crawl des sous-domaines.

santé du site
Exemple d’informations sur l’architecture et l’état de santé d’un site

Si vous avez la possibilité de relever les données de logs, n’hésitez pas à le faire pour chaque URL. Les données croisées Crawl/Logs permettent d’identifier les facteurs de succès d’un ensemble de pages.

word count range

Visualisation du nombre de bot hits/jour en fonction du nombre de mots

Nous savons par expérience que le crawl de Google est impacté par plusieurs facteurs on-page. Google ne parcourt pas toutes les pages à la même fréquence. Son index n’étant pas rafraîchi pour ces pages, il aura donc tendance à les déclasser. Une page obsolète dans l’index n’est plus forcément “la meilleure réponse” à une requête utilisateur. Il y a un rapport fort entre fréquence de crawl, mise à jour de l’index et ranking.
Une page sera moins crawlée si :

  • Elle est trop profonde dans l’architecture ;
  • Elle ne contient pas assez de texte unique ;
  • Elle n’est pas assez maillée par des liens internes (externes aussi) ;
  • Elle n’est pas assez rapide à charger ou trop lourde ;
  • …etc.

Pour en apprendre plus sur l’influence des facteurs on-page sur le crawl de Google, vous pouvez consulter l’article “Page Importance de Google” qui vous permettra d’en apprendre plus sur les brevets de Google liés au “Scheduling de Crawl”.
Le crawl préliminaire vous permet de connaître votre site. Il vous permettra aussi de classer les pages qui seront les pages de validation des optimisations. Votre analyse préalable devra prendre en considération ces données pour corriger les facteurs pénalisant le crawl.

Relevé des données des outils externes

Google Search Console / Bing Search Console

Sur les Search Console de Google et Bing, vous trouverez à la fois des données qualitatives et quantitatives. Relever ces données pour assurer un suivi de l’amélioration est une très bonne pratique.
Nous vous invitons à croiser une nouvelle fois ces données pour comprendre quelles sont les caractéristiques communes des pages qui se positionnent, les mots clés manquants ou les problèmes liés aux nouveautés mobile/AMP ou erreurs SEO.

Voici les données importantes à stocker : nombre et types d’erreurs, budget de crawl (nombres de hits par jour) et temps de chargement, amélioration HTML, nombre de pages indexées, position/CTR/Impression par expressions et par urls.

statistique exploration GSC

Courbe du budget de crawl à relever pour comparer avant/après la migration

Ces vues issues des moteurs permettent de comprendre comment ces derniers interprètent votre site. Ce sont aussi les bases de KPI de suivi post migration. Il est important de prendre en compte les erreurs SEO remontées par les moteurs pour les corriger en priorité.

Ranking et visibilité

Des outils de suivi de positionnement comme Myposeo permettent de simplifier l’étude de la visibilité du site et des mots clés.

ranking and visibility - myposeo

En complément des données de la Google Search Console, vous devez connaître votre taux de visibilité sur votre niche. Ces données seront essentielles lors de votre analyse post migration.

myposeo tracking

Analytics

Les solutions de tracking et d’analytics permettent de relever les données d’usage de vos utilisateurs. Il sont aussi une source d’information sur les performances de vos pages en termes de visites organiques, taux de rebond, tunnels de conversion, parcours et attractivité du site. Vous devez exporter les données qui permettront de détecter les points à améliorer et les stocker pour vos analyses post mise en production.

L’exportation de toutes les URLs qui ont reçu au moins une visite au cours des 12 derniers mois via Google Analytics est une façon de récupérer un grand nombre de pages indexées précieuses.
Classez les pages d’atterrissage pour la priorisation de vos actions, ne passez pas à côté des pages non consultées et tentez encore une fois de détecter les facteurs de performance pour vous en inspirer lors de vos recommandations.

Segmentation

A la suite du crawl préliminaire et du relevé des données externes, vous aurez une vue complète du périmètre de migration. De vos analyses découlent des ensembles de pages qu’il est bon de regrouper en fonction de différentes métriques pour pouvoir qualifier votre migration.

Avec Oncrawl, il est possible de créer 10 “sets” ou ensemble de 15 groupes de pages. Pourquoi ne pas utiliser cette fonctionnalité pour créer des ensembles dédiés à la migration ?
Créez une catégorisation sur chacun des aspects à améliorer. Oncrawl vous permet de créer des groupes basés sur plus de 350 métriques – pages pauvres, lourdes, dupliquées, non visitées par les robots, peu visitées par les utilisateurs, avec trop peu de liens entrants ou trop profondes par exemple. Elles vous permettront de valider la refonte a postériori.

Pro tip : Vous pouvez réunir dans un groupe toutes les pages qui répondent en plus d’1 seconde, les pages qui ont un mauvais taux de crawl et avec le croisement des données de ranking et les comportements humains – CTR sur GSC ou Bounce Rate sur l’analytics. Vous serez en mesure de prendre les bonnes décisions.

Croiser les données de crawl, de logs et les données d’analytics est le meilleur moyen d’opérer une analyse complète et réaliste pour votre migration.

Pages à modifier, créer, supprimer

Grâce aux données collectées, vous pourrez identifier les pages avec le plus de visites, les pages avec les taux de contenu dupliqué les plus important, les pages manquantes dans votre architecture, etc.
Vous devez garder à l’esprit que la refonte, en plus de corriger les problèmes SEO les plus pénalisants et de la mise en conformité aux règles SEO, doit aussi permettre à votre site d’être enrichi et réaligné autour des expressions clés des utilisateurs des moteurs. Ils recherchent en effet avec leur propres mots des données présentent dans vos pages. Le travail d’exploration et d’ajustement sémantique est une tâche souvent négligée qui permet pourtant les meilleures performances en terme de ranking.

De nouvelles pages “hub” et landing doivent être ajoutées pour coller au mieux aux besoins des utilisateurs. Elle doivent être alignées avec les requêtes sur lesquelles le site est le moins bien positionné.

Gestion du maillage interne

Le maillage interne est aujourd’hui plus que jamais l’un des facteurs clés de la réussite d’une refonte SEO. La variation des ancres, l’optimisation de la diffusion de la popularité interne et l’alignement sémantique des ancres sont des alliés puissants.

Inrank flow - site migration

Représentation d’un maillage interne optimisé avec Oncrawl

Prenez le temps de comprendre comment la popularité de vos pages est diffusée au travers des divers blocs de liens. Tentez au maximum de réduire les liens non pertinents de vos pages. Le meilleur exemple étant le mega-menu.

Évitez de faire des liens vers toutes les pages depuis toutes les pages ; cela est contre performant. Supprimez du code HTML les liens qui ne sont pas du même silo – tout en conservant les liens vers les têtes de catégorie.
Les navigations sont elles aussi des pièges à robots. Tentez de créer des raccourcis entre les pages en utilisant un algorithme permettant de sauter vers les unités, les dizaines, les centaines plus proches.

Essayez au maximum de varier les ancres qui pointent vers les pages. Cela permet de montrer au moteurs que vous utilisez un champ sémantique large et favorise le score de page importance et donc le crawl des pages.

Pensez également à réduire ou segmenter les liens de footer pour éviter de créer des pages peu intéressantes très populaires. Les CGU ou les liens d’abonnement à la newsletter ainsi que les liens sortants de votre domaine sont autant de fuites de Page Rank interne. Attention aussi aux liens vers les réseaux sociaux, ces sites sont souvent plus gros que les vôtres et ils aspirent le Page Rank de votre site.

Redirection

Cette activité demande beaucoup d’attention car les choses peuvent mal tourner. Il est important de récupérer les règles actuelles de redirection afin de pouvoir les faire ensuite correspondre à la nouvelle arborescence, s’il y a lieux. Les anciennes règles de redirection doivent être mises à jour afin d’éviter des chaînes de redirection.
Il faut également vérifier que toutes les anciennes urls redirigent bien en 301 vers les nouvelles.

Des crawls de test peuvent être réalisés en exportant la liste de toutes les anciennes urls et en les ajoutant en start urls avec une profondeur maximum à 1.

Pour le cas particulier de la migration HTTPS (avec ou sans changement de structure d’url), il faut s’assurer que tous les liens internes ont bien été mis à jour (pas de liens internes depuis une page en HTTPS vers une page en HTTP). Il existe des Customs Fields Oncrawl pour réaliser cette opération.

Pro Tip : Créez des pages de raccourcis vers vos pages à faire ranker (pages produits grâce aux pages hub), améliorez les temps de chargement, augmentez le volume de contenu des pages, créez des plan de sites et corrigez vos pages orphelines, les canoniques, réduisez les contenus dupliqués…

Il est important de souligner que les pages à fort trafic ont besoin d’une attention particulière, mais en SEO chaque URL compte.

La phase de recette

Cette phase essentielle de la migration est la période durant laquelle vous devez être à l’affût de toutes “coquilles” dans les codes sources ou dans la compréhension des expressions de besoin.

Protéger la plateforme de développement des moteurs de recherche

Le htpasswd est la solution recommandée pour éviter de voir vos urls de pré-prod crawlées par les moteurs de recherche. Cette méthode garantit aussi que vous ne passiez pas en production un fichier robots.txt bloquant ou des meta robots ”disallow”. Cela arrive plus souvent qu’il n’y paraît.

Pro tip : Votre site en développement DOIT être iso-production pour garantir le code du futur site.

Vérifier la qualité à chaque livraison de code

Lors de cette phase, vous devez vérifier que le site évolue dans le bon sens, en lançant des crawls régulièrement sur la plateforme de recette. Nous vous recommandons de créer des Crawl Over Crawl pour comparer deux versions ensemble.

N’hésitez pas à vérifier :

  • Le maillage interne et le transfert de Link Juice ;
  • L’évolution de la profondeur des pages ;
  • Les erreurs 40x et les liens pointant vers ces pages ;
  • Les erreurs 50x et les liens pointant vers ces pages ;
  • La qualité des title, meta description et des balises robots ;
  • La qualité du code source et les éléments de contenu dupliqué.

Il faut s’assurer que le code est au maximum “W3C compliant”. On l’oublie souvent mais c’est une des première recommandation de Google, que les données sémantiques ne contiennent pas d’erreurs, que les codes sources soient au niveau des ambitions et que les règles d’optimisation soient appliquées sur tout le périmètre.

Pro tip : les anciennes règles de redirection doivent être mises à jour pour éviter que des redirection pointent vers de nouvelles redirections.
Il faut vérifier que toutes les anciennes urls redirigent bien en 301 vers les nouvelles. Les crawls de test peuvent être réalisés en exportant la liste de toutes les anciennes urls et en les ajoutant en start url avec une profondeur max à 1.

Les fichiers sitemap.xml

Lorsque le code est stable et que toutes les urls sont découvertes par le crawler de test, vous pouvez exporter l’ensemble des urls du site. Cela vous permet de fabriquer votre fichier sitemap.xml (ou les sitemap_index.xml).

Ajoutez les adresses dans votre robots.txt et placez les à la racine du site (comme le recommande la spécification sitemap consultable ici)

Pro tip : Créer un sitemap par grande section du site vous permettra de suivre indépendamment l’indexation de chaque partie du site dans la Google Search Console.
Créez un fichier sitemap avec toutes vos anciennes urls redirigées pour forcer les moteurs à passer sur chacune d’entre elles.

La dernière version d’Oncrawl intègrera un rapport lié à l’étude des sitemap.xml. Il vous permettra de valider que vous n’êtes pas passé à côté d’urls, que vos sitemaps ne pointent pas vers des pages dont la canonique est différente de l’url ou encore qu’ils pointent vers des 404.

pages in sitemaps

sitemaps distribution

Exemple du rapport d’analyse des sitemaps

Pour en apprendre plus sur les sitemaps.xml : lien FR / lien EN

Le jour du passage en production

La recette est terminée et le code est validé par tous les acteurs. Vous avez donc tous les signaux au vert pour passer le nouveau code en production. Le SEO ne sera pas impacté car les pages importantes méritent une attention particulière. Cependant, vous êtes aussi le garant de l’ensemble des actions à mener côté Google.

Voici la liste de vos tâches en tant que SEO :

  • Vérifier le fichier robots.txt
  • Vérifier le code en ligne
  • Vérifier les sitemaps en ligne
  • Vérifier les redirections

Si tout est ok :

  • Forcer le crawl des moteurs
  • Vérifier les logs et status codes en live

Vous pouvez lancer des crawls dédiés pour chaque étapes, l’objectif est de qualifier les pages donc utiliser des crawls sur des périmètres resserrés pour gagner en réactivité.

Pro tip : définir des crawls avec profondeur maximum 1 pour tester les pages de référence de vos modifications, sans tester tout le site.

Le suivi post mise en production

A la suite de la mise en ligne vous devez pouvoir comparer les SEO avant/après et garantir que la migration a eu des impacts positifs ou a minima pas d’impacts négatifs.

Une fois que le nouveau site sera mis en service, il faudra surveiller l’impact de toutes les modifications. Surveillez les classements et l’indexation de façon hebdomadaire dans un premier temps. On estime que vous devrez attendre un petit mois pour tirer des conclusions, vous devez donc être patient.

Vérifiez la performance du site dans les Outils Webmaster pour déceler des anomalies inhabituelles après la migration.

Suivez les taux d’indexation et la mise en cache de vos pages par les moteurs avant de vérifier les rankings.

Comme nous le disions en introduction, les moteurs vont mettre un certain temps à s’adapter à votre nouvelle version et les positions risquent d’être assez volatiles durant cette période.

Lancer des Crawl Over Crawl (comparaison de crawls) avant et après la migration pour comparer vos données est le meilleur moyen de gagner en efficacité. Lire l’article dédié à 10 cas pratiques sur la comparaison de crawl.

Conclusions

Les migrations sont des moments importants et souvent bénéfiques pour le SEO. Oncrawl vous accompagne ainsi dans ces phases. Du crawl initial au suivi des métriques de validation en passant par l’analyse de la réaction des moteurs de recherche grâce aux logs, votre travail opérationnel en sera simplifié.

Erlé Alberton Voir tous ses articles
Erlé, ancien responsable SEO chez Orange, est maintenant Customer Success Manager pour OnCrawl. Il a développé ses compétences Front/Back pendant 10 ans et a fait du schema.org sa spécialité.
Sujets en lien :