Chez Oncrawl, vous pouvez nous demander tout et n’importe quoi sur vos rapports. Parfois, il arrive que nos Oncrawlers (nos utilisateurs) nous posent des questions difficiles qui nous permettent d’améliorer constamment nos connaissances. Cela étant dit, la distribution de profondeur est toujours une source de questionnement pour plusieurs.
Quelle est la meilleure distribution de profondeur pour mon site web ?
Il n’y a certainement pas une seule bonne réponse ici… Cela dépend beaucoup de la taille de votre site et de votre type de contenu. Si vous avez un petit site d’entreprise avec quelques centaines de pages, vous pourriez probablement obtenir un site parfaitement optimisé avec une profondeur de 5. Mais si votre site est grand (plus de 100k URLs) ou même très grand (1M +), avoir plus de 15 niveaux de profondeur ne semble pas être une très bonne idée.
Pour vous montrer un cas concret, regardons les données de 1 000 sites pour voir combien de niveaux de profondeur ils ont. Ce graphique affiche les niveaux de profondeur maximale moyen par taille de site :
Mais je ne pense pas que la question principale ici soit en lien avec la « meilleure » distribution de profondeur des URLs. Il faut plutôt prêter attention à la distribution de votre contenu. À savoir est-ce que vos pages prioritaires sont bien situées dans votre site web ? Y-a-t-il une raison particulière pour qu’une catégorie de pages soit plus profonde qu’une autre ? Voici un bon exemple d’un site où les SEOs ont bien pensé la distribution de contenu :
Checklist pour bien analyser votre SEO et vos niveaux de profondeur de page
Lorsque vous analysez votre profondeur de page, vous devriez le faire avec cette checklist :
- Il faut d’abord penser aux lignes directrices de Google qui nous suggèrent de ne pas avoir plus de 100 liens sur une page web. Ensuite, comme vous savez comment présenter le contenu de votre site, vous devriez être en mesure de deviner à quoi ressemblera votre distribution de profondeur. Si quelque chose vous semble incohérent, vous devriez investiguer le tout.
- Regardez la distribution de vos groupes de pages aux côtés de votre distribution de profondeur. Est-ce que cela correspond aux contraintes de votre business ? Si vous vendez des chaussures et des accessoires, normalement, votre activité principale est de vendre des chaussures, donc toutes les pages présentant des produits ou des marques chaussures devraient être les plus proches de votre page d’accueil et vos pages d’accessoires devraient être situées à un niveau plus profond.
- Faites attention à la vitesse de vos pages. Si vous configurez un système de cache avec une configuration standard, il est probable que vos pages les plus profondes ne soient pas dans votre cache. Ainsi, votre temps de chargement est en baisse lorsque vous fouillez de plus en plus en profondeur dans votre site. Cela pourrait nuire à votre SEO.
- Regardez comment l’InRank agit avec vos niveaux de profondeur. À mon avis et grâce à toutes les données que nous recueillons de tous les sites que nous crawlons, quand vous avez une baisse de plus de deux points d’un niveau de profondeur au suivant, c’est généralement parce que vous n’avez pas optimisé vos liens internes. Encore une fois, vous devez analyser précisément l’InRank en vérifiant chaque groupe de pages. En fin de compte, je pense que vous devriez toujours garder un oeil sur l’Inrank de vos pages prioritaires. Pourquoi ? Parce que vous pouvez avoir une profondeur de 5 pour une page particulière et quand même ramener beaucoup de trafic sur celle-ci. On voit bien que la profondeur pourrait ne pas être un problème pour certaines pages.
Pour rester à jour sur le sujet, vous devriez également vérifier, grâce à une analyse combinée de vos logs, comment la profondeur affecte le ratio de Crawl de vos pages. Pour vous donner quelques idées supplémentaires, j’ai vérifié plus de 300 sites pour voir comment Google se comporte selon le niveau de la page de profondeur. Voici les résultats:
Si vous avez de bonnes tactiques sur la façon dont vous gérez l’optimisation de profondeur de page, j’aimerais beaucoup les entendre dans notre section commentaire.
Bonjour,
Une remarque et une question.
Remarque : il n’y a pas de limite de 100 liens par page et d’ailleurs, sur une home bourée de PR, mettre 200, 300 liens passe très bien et permet justement dans bien des cas de gagner en précieux niveaux à l’échelle du site.
Imaginons une home avec 250 liens, suivie de pages avec chacunes 100 liens, suivies de pages avec chacunes 50 liens (plus on est profond, moins il y a de PR à redistribuer et donc moins il faut charger pour que ça ait de l’efficacité), ça veut dire que sur 3 niveaux on arrive à 250 + (250*100) + 25 000 * 50 = 1 275 250 de pages.
En limitant la HP à 100 liens, 100 + (100*100) + 10 000 * 50 = 60 100 pages
Bien sur, sur un très gros site gavé de liens externes, on peut tenter du 300 + (300 * 200) + 60 000 * 100 = 6 060 300 de pages
Avouez que ça change un peu la donne :)
Bien entendu il faut tout de même jauger entre mettre beaucoup de liens internes et descendre d’un niveau pour avoir moins de liens par page. Tout est question de dosage et … de calcul de PRi.
Question : pour le « not crawled by Google », sur quelle plage de temps vous basez vous ? Et comment avez vous défini cette plage de temps ? Avez vous par exemple défini arbitrairement 15 jours ? Ou 2 ? La durée choisie change tout.
Ahah je me suis planté dans les résultats des calculs mais à vous de rectifier, il y a les formules ;)
Hello François-Olivier,
Il n’y a effectivement pas de limite, mais juste une vieille recommandation sur le nombre de liens par page qui visait dans les années 2000 à « soulager » les bots. Au delà de cette limite qui peut être à géométrie variable en fonction de la popularité du site, il est important de bien penser son maillage interne. Je pense que vous faites une erreur en pensant en nombre de « pages », il faut plutôt penser en nombre de « liens », ie de relations d’une page à une autre. On peut très bien avoir un site de 10.000 pages ayant sur ses pages de niveau 1 (home),2 et 3 une centaine de liens. Cela fait déjà 100*100*100= 1M de liens sur ces 3 niveaux à distribuer. C’est bien cette notion de distribution qui importe.
Pour ce qui est du « Not Crawled by Google », nous nous sommes basés sur une période de 90 jours pour produire le barchart présenté dans l’article. Dans la pratique, au delà de 45j, les données ne varient guère. Sachez que dans Oncrawl, vous pouvez paramétrez à loisir cette « période » afin d’ajuster votre analyse.
Je ne vois pas bien où nous serions en désaccord sur le caclul et la notion de « liens » ou « pages ». Il me semble que notre raisonnement est parfaitement identique :
Niveau 1 : Home : 100 liens
Niveau 2 : 100 pages (puisque la home fait 100 liens, disons 1 lien une page pour simplifier) qui font 100 liens
Niveau 3 : 100 * 100 pages qui font 100 liens
Ca donne : 100 + (100 * 100) + (100 * 100) * 100 = 1 010 100
On arrive exactement au même résultat avec exactement le même raisonnement
Moi j’ai mis moins de liens sur mes pages niveau 3 dans mon exemple tout simplement par ce qu’à moins qu’elles ne reçoivent du lien externe, ces pages auront peu de PR à redistribuer.
Mon commentaire visait à dire que se limiter arbitrairement à 100 liens n’a pas de sens et peut potentiellement avoir un impact sur le nombre de niveau du site.
Au niveau de la période de crawl, 90 jours c’est vraiment énorme. Je m’attendais plutôt à 5, 10 ou 15 jours.
Je me demande bien quelle est la taille du site car 20% de pages non crawlées sur 90 jours seulement en niveau 5, à moins d’avoir soit énormément de pages (énormément!) soit peu de PR, du noindex dessus ou un autre souci je ne vois pas comment c’est possible. Personnellement je n’ai jamais vu ça, mais je ne me suis jamais occupé de site de plusieurs millions de pages.
comment Google crawle-il les pages de profondeur niveau 2 ? commence-t’il par les menus un par un ou alors accorde-t’il plus d’importance aux liens présent dans la page d’accueil ?