Cas Pratiques avec l’API OnCrawl

26 février 2020 - 4  min de lecture - par Nicolas Duverneuil
Accueil > SEO Technique > Cas Pratiques avec l’API OnCrawl

Que ce soit pour de la récupération de données, de l’animation WordPress, du pilotage d’objets connectés, du monitoring ou toute autre utilisation, les API font de plus en plus partie de notre quotidien.

Évidemment, OnCrawl n’échappe pas à la règle !

En effet, OnCrawl vous permet d’utiliser tous ses services et fonctionnalités grâce à son API. Celle-ci vous permet de lancer/programmer des crawls, récupérer des données brutes ou déjà analysées, etc…
Bien sûr, tout cela est possible directement dans l’application mais passer par l’API peut vous permettre d’aller encore plus loin.

Création de dashboards sur-mesure

Une utilisation courante d’une API permettant la récupération de données et l’intégration de ces dernières dans des tableaux de bord.

OnCrawl en fournit déjà beaucoup nativement. La fonctionnalité Custom Dashboards vous permet également de créer des tableaux de bord personnalisés. Cependant, vous pourriez vouloir voir ces données et/ou rapports mêlés à d’autres KPI venant de sources extérieures.

Vous pourriez, par exemple, vouloir croiser des données de crawls (structure, nombre de mots, éléments récupérés via du scraping, taux de duplication, …), de logs (pages crawlées ou non par les Googlebots), etc avec des données métiers et/ou business afin de créer des analyses fines pour lesquelles vous souhaitez voir l’évolution à travers le temps. Comme évoqué, l’API sera donc ici le point d’accès le plus efficace pour la récupération de ces données qui seront ensuite ingérées et traitées par vos outils internes.

Oncrawl Analyseur de logs

L’analyse des fichiers de logs SEO pour le suivi des bots et l’optimisation du crawl. Identifiez les problèmes sur votre site et améliorez votre fréquence de crawl.

Automatisation des tâches

Les besoins en matière de crawl diffèrent d’un site à l’autre, d’une équipe à une autre. Passer par l’API peut permettre d’adapter les usages d’OnCrawl à chaque utilisateur et/ou équipe.

Par exemple, des crawls de contrôle pourrait être lancés automatiquement quelques heures après une mise en production afin de s’assurer qu’il n’y a pas eu de régression, que les pages répondent avec les bons status codes, etc.
Il s’agirait donc ici d’ajouter au script de déploiement de la nouvelle version du site les appels à l’API d’OnCrawl qui permettraient le lancement des crawls adaptés.

Maillage intelligent

En tant que SEOs, vous avez peut-être pour objectif que la quasi-totalité de vos pages aient autant de chance d’être crawlées que les autres.

Une des approches envisageables serait donc de veiller à ce que toutes les pages bénéficient, par exemple, d’un Inrank (indicateur de popularité interne des pages) relativement homogène.
En vous basant sur des données de crawl récentes (Inrank actuel des pages cibles, des pages potentiellement émettrices, etc.), vous pouvez (re)calculer relativement dynamiquement le maillage interne du site afin à réduire la profondeur, homogénéiser l’Inrank, etc.

Évidemment, le champ des possibles s’étend bien au-delà du maillage. La logique à retenir est que l’API peut donc ici vous permettre d’intégrer des données de crawl, voire d’analyse, à la logique de création ainsi que de gestion de votre site.

Alertes personnalisées

En tant que SEO, vous suivez très certainement un certain nombre de KPI assez courants dans l’industrie, mais également des métriques propres à votre site.
Pour les premiers, l’e-mail que vous recevez après chaque crawl vous permettra de comparer leur évolution entre deux crawls.
Ensuite, qu’il s’agisse de connaître le taux de pages actives dans une catégorie, les articles récents qui ne génèrent pas de trafic, les pages mal positionnées qui pourtant sont bien crawlées, etc. vous pouvez évidemment trouver ces données croisées via OnCrawl.

Maintenant, si vous souhaitez être informé à chaque crawl de l’évolution de ces données, sans avoir à vous connecter à l’application, l’API vous permettra d’aller récupérer l’information directement dans OnCrawl et de l’intégrer à vos outils d’alerting, et pourquoi pas même des services tels que IFTTT ou Zapier.

Audits SEO automatisés

Que vous soyez gestionnaire de site ou consultant, vous pourriez vouloir automatiser tout ou une partie de vos audits SEO (au minimum techniques). Là encore, l’API peut grandement vous faciliter la vie !

La plupart des éléments on-site d’un audit SEO se retrouvent facilement dans OnCrawl. Alors pourquoi ne pas mettre de côté votre checklist faite sous excel pour la remplacer par un outil “maison” qui vérifiera point par point les différents éléments de votre site en s’appuyant sur l’API ?

En prenant le temps de bien détailler chaque point d’analyse et en préparant les requêtes adéquates dans OnCrawl, vous pourriez être en mesure de générer sans le moindre effort votre audit juste en cliquant sur un bouton.
L’utilisation de l’API vous ferait donc gagner un temps précieux que vous pourrez consacrer à l’interprétation des données ou bien d’autres tâches (ou rendre plus souvent visite à la machine à café).

Les exemples d’utilisation de l’API d’OnCrawl ne manquent pas.
Pour résumer, gardez en tête que notre API vous donne accès à l’intégralité des données disponibles et requêtables via le Data Explorer, vous permettant d’aller encore plus loin que ce que l’application permet, avec pour seule limite votre imagination.

Nicolas est un expert SEO et travaille en tant que Technical SEO Analyst pour Cdiscount, l'un des sites leaders du ecommerce en France. Ancien Customer Success Manager chez OnCrawl, il est spécialiste des grands sites e-commerce et adore le côté geek du SEO. Vous pouvez le contacter sur Twitter.