Considérations SEO lors de la migration vers un framework JavaScript

19 avril 2022 - 6  min de lecture - par Dan Taylor
Accueil > SEO Technique > Considérations SEO pour JavaScript

Toute mise à jour ou modification importante de votre site Web doit toujours être effectuée en tenant compte des considérations SEO. Qu’il s’agisse d’erreurs dans le fichier robots.txt ou de redirections de pages mal mises en œuvre, il est facile de voir votre positionnement dans les moteurs de recherche disparaître – littéralement – du jour au lendemain.

Cela vaut également pour la migration de votre site Web vers un framework JavaScript. Avec une planification minutieuse, vous pouvez vous assurer que votre site reste visible pour les robots des moteurs de recherche, éviter les risques et les pièges courants qui entraînent une perte de trafic, et préparer votre site à une croissance future continue.

Il s’agit d’une question vaste et complexe, avec de nombreux détails techniques à garder à l’esprit tout au long de la migration de votre site Web. Mais il existe des erreurs courantes à éviter, ainsi que des principes généraux qui peuvent vous guider dans la bonne direction.

Voici quelques-uns des principaux problèmes de référencement lors de la migration vers un framework JavaScript…

Préservez les URL importantes

Googlebot et les autres robots d’exploration des moteurs de recherche associent le contenu des sites Web aux URLs – c’est ainsi qu’ils établissent des liens avec vous dans leurs résultats de recherche – mais les frameworks JavaScript peuvent rompre le lien entre les URLs statiques et le contenu en actualisant les pages de manière dynamique.

C’est particulièrement vrai pour les applications à page unique (SPA), qui nécessitent un traitement spécial pour garantir que toutes les URLs importantes de l’ancien site Web sont préservées et restent visibles pour Googlebot, afin de protéger votre présence actuelle dans les SERPs.

Ne vous laissez pas tromper si votre page d’accueil apparaît toujours dans le classement qui lui revient – cela peut être un signe que Google parvient à explorer la page d’accueil de votre SPA mais ne parvient pas à trouver le contenu servi dynamiquement côté client.

Activez l’accès aux robots d’exploration

Il ne s’agit pas seulement de débloquer les robots des moteurs de recherche dans votre fichier robots.txt. Il faut qu’ils puissent parcourir votre site et voir votre contenu, et pour cela, vous aurez probablement besoin d’une forme de rendu côté serveur.

En mettant en œuvre le rendu côté serveur ou le pré-rendu, vous donnez aux robots de recherche une version de votre contenu telle qu’elle apparaît après l’exécution des scripts Java, en supprimant la charge de ressources qui consiste à demander aux robots de rendre eux-mêmes le contenu de la page

Cela permet non seulement de rendre chaque page visible pour les robots d’exploration, mais aussi d’augmenter le nombre de pages et les niveaux de la hiérarchie de votre site Web qui sont indexés, en réduisant le budget de crawl des robots par page.

Améliorer la crawlabilité

Vous pouvez donner un coup de pouce supplémentaire aux robots en présentant les informations de manière simple. Pensez-y lorsque vous implémentez des fonctionnalités JavaScript telles que les événements onclick et la pagination à défilement infini.

En gardant à l’esprit ce que les robots peuvent réellement faire, vous pouvez vous assurer que votre contenu leur est visible dans les limites de ces capacités. En contrepartie, une plus grande partie de votre contenu a des chances d’être crawlée, indexée et classée.

De plus, en créant une version de votre site Web adaptée aux robots, vous pouvez également améliorer l’accessibilité pour certains visiteurs humains, dont l’appareil ne dispose peut-être pas de JavaScript lorsqu’ils visitent votre site.

[Étude de cas] Améliorer la visibilité via une crawabilité optimisée pour Googlebot

Paris Match a fait face à une problématique claire : auditer son site en profondeur, identifier ses forces et faiblesses, déterminer ses priorités et corriger les facteurs bloquants au crawl de Google. Les problématiques SEO du site Paris Match sont celles d’un site média en ligne.

Rediriger les anciennes URLs

Si vous ne prévoyez pas de conserver les anciennes URLs exactement telles quelles, mais que vous êtes très présent dans les moteurs de recherche, envisagez de mettre en place des redirections permanentes pour diriger les robots vers l’équivalent le plus proche dans votre nouveau plan de site.

Cela préserve l’autorité du domaine et peut protéger vos positions, au moins jusqu’à ce que le contenu nouvellement publié soit entièrement exploré et indexé, moment auquel vous pouvez décider ou non de supprimer les anciennes redirections, si ces anciennes pages n’apportent plus de trafic significatif.

Utiliser des liens internes cohérents

Là encore, il s’agit du chargement dynamique du contenu. Les frameworks JavaScript peuvent libérer des capacités intéressantes, comme la possibilité d’extraire des données d’une ressource externe et de les utiliser pour mettre à jour la page actuelle, plutôt que de naviguer vers une autre UR

Pour le SEO, il est préférable de conserver un contenu relativement statique et de charger une URL différente lorsque la page subit des modifications importantes. Les robots d’exploration comprennent mieux cette approche, peuvent mieux cartographier votre site Web dans son ensemble et sont plus susceptibles de visiter et d’interpréter correctement la nouvelle page.

Une mauvaise discipline en matière de liens internes est l’un des principaux écueils de nombreuses migrations. Elle peut rendre certaines pages beaucoup plus difficiles à crawler par les robots et envoyer des signaux confus sur l’importance relative de certaines pages par rapport à d’autres.

L’importance de la cohérence

Au-delà des liens internes, essayez d’être cohérent dans tous les signaux que vous envoyez aux moteurs de recherche. Cela est particulièrement vrai si votre site Web ne charge qu’une partie de son contenu via le framework JavaScript, car vous devez vous assurer que les pages JavaScript se chargent et fonctionnent de la même manière que les pages HTML ou PHP de votre site.

Il peut s’agir, par exemple, de la résolution d’URL avec ou sans barre oblique de fin de ligne (la résolution ou la redirection doit être cohérente dans toutes les zones de votre site Web), ainsi que des meilleures pratiques de SEO, comme la mise en œuvre de balises canoniques (qui, là encore, doivent être cohérentes en termes de contenu considéré comme canonique).

Mieux vaut prévenir que guérir, surtout lorsqu’il s’agit de positionnement dans les moteurs de recherche. Essayez donc de comprendre non seulement comment le contenu s’affiche sur votre site Web, mais aussi comment il s’affiche, que ce soit par un rendu côté client ou côté serveur, et si votre migration vers JavaScript affectera la visibilité du contenu de votre site Web lors de la prochaine exploration.

[Étude de cas] Optimiser le SEO après une refonte de site web

Un an après la refonte de leur site web, EasyCash ont réalisé que la performance qu’ils avaient visée n’était pas au rendez-vous. Ils ont ainsi identifié et résolu différents points SEO bloquants.

Cela changera-t-il un jour ?

Le rendu dynamique n’est pas un ami du SEO, en raison de la nature relativement simple des robots de recherche. À l’avenir, nous verrons peut-être un Googlebot plus complexe et plus performant qui pourra contourner certains de ces problèmes, mais pour l’instant, il incombe aux webmasters de présenter le contenu de la manière la plus comestible possible.

Cela est vrai tout au long de la planification, de la mise en œuvre et de la gestion de tout site Web qui repose sur une présence dans les moteurs de recherche. Mais c’est d’une importance capitale lors des mises à jour, mises à niveau et migrations majeures, y compris la migration vers un framework JavaScript.

En gardant à l’esprit certains des pièges et des meilleures pratiques décrits ci-dessus, vous pouvez garder vos ambitions SEO au premier plan de la migration de votre site Web et éviter le scénario cauchemardesque de voir un site Web important et rentable disparaître des SERPs du jour au lendemain.

Dan Taylor est le responsable du SEO technique chez SALT.agency, une agence internationale de SEO sur mesure. C'est un professionnel expérimenté et pluridisciplinaire du marketing digital, principalement spécialisé dans le SEO (technique et international). Dan a travaillé avec une grande gamme d'entreprises, depuis les grandes marques britanniques cotées au LSE jusqu'aux start-ups technologiques pionnières à San Francisco. Dan intervient également lors de conférences internationales sur le SEO et la technologie, et écrit pour un certain nombre de blogs de l'industrie.
Sujets en lien :