Google Updates

Top 35 des déclarations SEO technique par John Mueller en 2018

23 octobre 2018 - 14  min de lecture - par Dido Grigorov
Accueil > SEO Technique > 35 déclarations SEO de John Mueller

Les optimisations techniques reposent sur les fondations globales de votre stratégie SEO. Des optimisations appropriées vous aideront à améliorer votre budget de crawl et à vous assurer que Google est en mesure de détecter et d’indexer le contenu important. Cela va également vous permettre de proposer une expérience utilisateur correcte, ce qui est très important pour les moteurs de recherche.
Dans les paragraphes suivants, vous trouverez 35 des réponses les plus utiles et importantes de John Mueller, Senior Webmaster Trends Analyst chez Google, aux questions techniques régulièrement posées lors des Webmaster Central Hangout Livestreams. L’objectif de cet article est de vous aider à éviter les erreurs techniques et à confirmer vos doutes sur les meilleures pratiques concernant les optimisations techniques.

1. Les erreurs 404 n’affectent pas les classements de vos autres pages

À une époque, il était courant d’entendre que les erreurs 404 avaient un énorme impact sur le classement de toutes les pages du site et étaient un signe d’une réputation négative en général. John a confirmé que ce n’était absolument pas le cas.
Au cours de l’une de mes conversations avec John, il a même affirmé que la présence de ces pages était complètement normale et que leur nombre n’affectait pas négativement les classements du site web.

2. Google estime que deux domaines sont les mêmes s’ils utilisent des paramètres d’URL identiques et partagent le même hébergement

Essayez d’utiliser différents paramètres sur vos URLs si vous avez des domaines avec des hébergements de sites mutualisés. C’est le seul moyen pour que Google puisse les différencier.

https://www.youtube.com/channel/UCWf2ZlNsCGDS89VBF_awNvA

3. Il est peu probable que l’URL finale soit indexée dans une redirection 301

Pour garantir l’indexation des pages qui sont l’objet de redirections 301, assurez-vous que vous utilisez une balise canonicale, des liens internes et une balise hreflang (si nécessaire) vers la page ciblée plutôt que vers la page qui a été redirigée. Sinon, vous communiquez les mauvais signaux à Google, et cela peut significativement le déconcerter et l’empêcher d’indexer les bonnes pages.

4. Google utilise le temps de chargement et le temps de rendu pour évaluer la vitesse d’une page

Selon les mots de John Mueller, l’optimisation du TTFB (time-to-first-byte) n’est pas un facteur de bonne expérience utilisateur. Pour cette raison, Google évalue l’image globale du chargement d’un site plutôt que des métriques séparées. Le temps de chargement et de rendu d’une page sont des facteurs particulièrement pertinents pour les moteurs de recherche. Cela ne prend pas en compte le temps que les bots mettent à crawler une page.

5. Google n’utilise pas d’images CSS

Lorsque vous utilisez des images CSS, comme des arrières-plans, sachez que Google ne les prend pas en compte. Afin que votre image soit montrée dans les résultats d’images, elle doit contenir une balise avec un attribut src=”https://www.example.com/my_image_URL” .

6. La position de vos liens internes sur votre site n’a pas d’importance

John a encore une fois confirmé que la disponibilité des liens internes et leur pertinence pour l’utilisateur sont bien plus importants que leur position sur la page. Il est très important que vous créiez une navigation efficace : le GoogleBot a besoin de pouvoir crawler facilement votre site.

7. Faites attention lorsque vous changez d’hébergeur, Google peut temporairement réduire le taux de crawl

Parfois, nous avons besoin de changer d’hébergeur pour diverses raisons (mauvais accompagnement, serveurs lents, manque de service ou service discontinue). Lorsque vous changez d’hébergeur, gardez en tête que Google va réduire temporairement le taux de crawl de votre site car il ne sait pas encore quel chargement le nouveau serveur peut supporter.

8. Si vous utilisez des cadres JavaScript, testez-les avec la fonctionnalité Rich Snippets de la Google Search Console

Les cadres JavaScript sont une manière très tendance pour construire un site web interactif et élégant. Cependant, ils sont aussi souvent la cause de nombreux problèmes SEO, surtout lorsqu’il s’agit de crawler et d’indexer. John conseille d’utiliser la fonctionnalité Rich Snippets de la GSC pour s’assurer que votre site est correctement crawlé et rendu.

9. Le HTTPS n’affecte pas directement vos classements, mais peut être utilisé comme départage en cas d’égalité

Si vous êtes classés dans des pages de résultats où tous les sites ont des résultats similaires pour tous les facteurs de classement couverts, Google pourrait utiliser le HTTPS pour remonter votre site tout en haut de la page si les autres sites n’ont pas de certificat SSL installé.

10. Les données structurées sont utiles et importantes pour votre site, mais requièrent également de nettoyer votre HTML sans erreurs

Soyez vigilants sur la validation du code HTML de votre site. Éliminez vos erreurs autant que possible car votre implémentation schema.org peut être “cassée” et donc être invalide aux yeux du Google’s Structured Data Testing Tool.

11. La qualité d’un site est jugée par Google selon les basiques des pages indexées seulement

Bien souvent, des questions sont posées à Google à propos de la manière dont les pages qui ne peuvent pas être indexées ou crawlées peuvent affecter la qualité et l’évaluation globale de votre site. John a confirmé que Google évalue seulement les pages indexées par les moteurs de recherche pour déterminer la qualité du contenu des pages de votre site.

12. Un status 410 supprime une page de l’index plus vite qu’un status 404

Dans les périodes de moyen à long terme, les 404 sont presque les mêmes que les 410, car dans les deux cas, les pages seront supprimées de l’index. Rappelez-vous qu’une page avec un status 410 peut être supprimée plus rapidement de l’index, habituellement dans les jours qui suivent.

13. Ajouter un noindex via Javascript n’est pas recommandé

Si vous entrez un noindex dans Javascript, sa considération et son application seront retardés car Google le capturera seulement lors de sa seconde indexation. Le crawl Javascript de Google peut avoir lieu à une date ultérieure et la page peut donc être indexée provisoirement. Afin d’être sûrs d’interdire l’indexation d’une page, utilisez du HTML statique.

14. Le Javascript et le HTML ne devraient pas envoyer des signaux mixtes à Google

Soyez vigilants quant aux signaux que vous envoyez à Google en Javascript et en HTML. Si vous choisissez de configurer un lien pour qu’il ne soit pas suivi en Javascript mais suivi en HTML, alors ce lien sera suivi lors de la première indexation de Google. En effet, Google capture les signaux Javascript uniquement lors de la seconde vague de rendu et d’indexation. Le cas est identique si vous choisissez d’empêcher une page d’être indexée ou les liens de porter du poids.
Idem avec les signaux dupliqués : ne donnez pas les mêmes signaux en HTML et en Javascript. Par exemple, si vous utilisez Javascript pour modifier les balises canoniques ou les balises des méta robots, ne dupliquez pas ces balises en HTML.

15 . Si vous changez le contenu d’une page plus souvent, Google va aussi le crawler plus fréquemment

Google cherche à comprendre à quelle fréquence les contenus d’une page changent. Il modifie la fréquence de crawl du GoogleBot en fonction de cela. Si cette page change son contenu très souvent et régulièrement, Google va aussi augmenter son taux de crawl.

16. Google n’indexe pas le contenu des URLs qui contiennent des #

Faites attention avec la location exacte de l’URL de votre contenu. Si elle apparaît lorsqu’il y a un # dans une URL, par exemple : http://www.example.com/office.html#mycontent, alors elle ne sera pas indexée par Google.

17. Les erreurs de type 4xx n’engendrent pas une perte de budget de crawl

Lorsque vous voyez que le GoogleBot crawle les pages de ce type, cela ne signifie pas forcément que votre budget pour crawler tout le site a été dépensé. Google re-crawle ces pages afin de s’assurer qu’il n’y a rien à indexer et donne des signaux positifs pour crawler plus de pages.

18. Si vous souhaitez indexer votre site rapidement, alors un sitemap et un taux de crawl sont la clé

Chaque serveur dispose d’une capacité différente. Si vous êtes familiers avec les fonctionnalités techniques ou si vous savez que votre serveur a plus de capacité, vous pouvez contacter le centre d’aide de Google Webmaster et demander un plus grand taux de crawl. N’oubliez pas d’envoyer un sitemap avec les nouvelles URLs et dernières dates de modification à la Google Search Console. Cela va aider Google à crawler et indexer vos pages aussi vite que possible.

19. La fréquence de crawl n’a rien à voir avec les classements

Bien souvent, des spéculations sont faites avec les mots “taux de crawl” et de nombreuses personnes commencent à l’associer à de meilleurs classements. Selon les mots de John, un fort taux de crawl ne signifie pas un meilleur classement et vice versa. Le crawl et les classements sont des procédures différentes.

20. Les URLs plus courtes ne sont pas priorisées par Google

Alors qu’il a été affirmé que les URLs plus courtes étaient priorisées, Google déclare ne pas les traiter différemment. Dans une large mesure, cela joue plus un rôle dans l’expérience utilisateur que dans la manière dont Google traite les adresses.

21. Googlebot reconnaît et traite positivement les navigations différentes pour desktop et mobile (responsive)

Dans le cas où vous décidez de créer une navigation pour votre site desktop et une pour votre version mobile responsive codée en HTML, cela ne causera aucun problème pour Google.

22. Google peut différencier des domaines similaires, même avec des profils de liens similaires

Si nous avons deux domaines similaires, Google sera capable de les différencier même s’ils ont des profils de liens très similaires. Cela soulage grandement les webmasters et entrepreneurs dont les concurrents copient agressivement leurs noms de domaine et stratégies de liens. Malgré cette pratique, les sites concurrents ne seront pas préférés par Google.

23. Confirmé : les ancres de textes aident Google à comprendre le sujet d’une page

Les ancres de textes aident Google à définir le thème d’une page au sens large. Bien sûr, cela ne signifie pas que vous devez utiliser certaines ancres de textes à outrance pour obtenir de meilleurs classements.

24. Google n’utilise pas les adresses IP pour le geo-targeting et le SEO local

Dans le passé, Google a utilisé les adresses IP des hébergeurs. Désormais, le geo-targeting et le SEO local sont plus influencés par les ccTLD, generic TLD, hreflang, Google My Business settings et la Google Search Console.

25. HSTS n’est pas utilisé comme signal de classement

Google n’utilise pas HSTS comme facteur de classement, mais John conseille de l’implémenter une fois que les fluctuations de classement dues à la migration en HTTPS sont stabilisées et que la migration est pleinement réussie.

26. La profondeur de clic détermine l’importance d’une page bien plus que la structure de son URL

En d’autres termes, pour Google, il est important de savoir à quelle distance une page est située de la page d’accueil afin de déterminer son importance. Cela est plus important que le niveau ou la structure d’une URL.

27. Assurez-vous que les scripts placés dans le < head > ne le ferment pas prématurément

Selon les mots de John, il y a des sites qui placent les scripts dans le < head > ce qui le ferme, ou des scripts qui ne devraient pas faire partie du < head > du code HTML d’une page. Dans ces cas, Google ne prêtera pas attention à la balise hreflang, par exemple, car cela implique que le < head > aura déjà été fermé. John recommande d’utiliser la fonction “View Code” de l’outil Google Rich Results afin de vérifier ce problème.

[Étude de cas] Optimiser le SEO après une refonte de site web

Un an après la refonte de leur site web, EasyCash ont réalisé que la performance qu’ils avaient visée n’était pas au rendez-vous. Ils ont ainsi identifié et résolu différents points SEO bloquants.

28. Googlebot peut reconnaître la navigation multi-facettes et retarder le crawl

GoogleBot parvient à reconnaître les structures d’URL, dont la navigation multi-facettes. Lorsqu’il détecte où est le contenu principal et d’où il dérive, il va ralentir le crawl. Cela peut aussi être grandement influencé par la définition des paramètres de GSC. John souligne également que définir les paramètres de la console est un signal bien plus fort que la canonicalisation.

29. Après avoir migré votre site vers le mobile-first indexing, il est possible que vos pages en cache renvoient en 404 sur Google

D’après John, cela est parfaitement normal et ne devrait pas être un problème pour le crawl et l’indexation. La principale raison est que lorsque vous passez en mobile-first indexing, les pages n’ont pas de version cache dans les moteurs de recherche.

30. Les temps de réponse moyens plus élevés que 1,000ms peuvent limiter le crawl du site

John recommande que le temps de réponse moyen se situe autour de 100ms. Autrement, Google ne crawlera pas autant de pages que ce qu’il pourrait.

https://youtu.be/AjlTNJiSeQ6

31. Les URLs redirigées peuvent apparaître comme des 404 si beaucoup d’URLs sont redirigées vers une autre

Les URLs qui redirigent vers d’autres pages ne devraient pas apparaître comme des erreurs 404 à moins que beaucoup d’autres pages aient été supprimées et redirigées vers une seule et même page.

32. Des migrations HTTPS incorrectes ou incomplètes causent de plus grandes fluctuations de classement

Vous devriez vous attendre à d’importantes fluctuations dans les classements de votre site si :

  • Vous avez migré de HTTP à HTTPS et que vous n’avez pas redirigé toutes les adresses HTTP en HTTPS avec des redirections 301 claires ;
  • Vous avez supprimé beaucoup de pages ;
  • Vous avez bloqué les bots utilisant les robots.txt ;

Pensez à utiliser des redirections 301 car n’importe quel autre type de redirection comme 302 ou 303 obligera Google à retraiter vos URLs.

33. Les images avec un temps de chargement faible peuvent être placées dans le code d’une page en utilisant des balises noscript et les données structurées

Concernant ce type de chargement d’images, il est important pour Google de voir la balise source de l’image. Elle peut également être implémentée via une balise noscript ou des données structurées. Donc même si l’image peut être rendue proprement, que ce soit partiellement ou entièrement, Google va l’associer avec la page.

34. N’utilisez pas de status 503 pendant plusieurs jours pour garder un site dans l’index de recherche

La principale explication est que si votre site renvoie un status 503 pendant plusieurs jours, Google pourrait estimer que votre site ne reviendra pas, au lieu de le considérer comme temporairement indisponible.
Notez également que les erreurs 503 réduisent aussi le taux de crawl et que le crawl s’arrête si une requête pour le fichier robots.txt renvoie également en 503.

35. Google utilise de multiples signaux pour reconnaître les adresses canoniques dans un groupe d’URLs

Google utilise les balises canoniques, redirections, paramètres d’URL, maillage interne et sitemaps pour déterminer quelle page est canonique par rapport à une autre dans un groupe de pages.

Dido Grigorov Voir tous ses articles
Dido est un spécialiste de 30 ans qui dispose de plus de 14 ans d’expérience dans le secteur. Il est actuellement Head of SEO chez Serpact. Il travaille sur presque tous les aspects du SEO : technique, optimisations on-page / on-site, mais surtout sur l’optimisation sémantique, le content marketing, l’analyse et l’amélioration de profils de liens à travers une variété de pratiques créatives. Il a récemment donné une présentation lors d’un événement Google appelé Google Dance Zurich.
Sujets en lien :