Résumé

Paris Match est un magazine hebdomadaire français d’actualités et d’images, né en 1949 et célèbre par sa devise : « Le poids des mots, le choc des photos ».
La marque a fait face à une problématique claire : auditer son site en profondeur, identifier ses forces et faiblesses, déterminer ses priorités et corriger les facteurs bloquants au crawl de Google.
Les problématiques SEO du site Paris Match sont celles d’un site média en ligne :

  • Gérer une volumétrie importante d’URLs ;
  • Identifier des problèmes de structure (redirections, refontes, arborescence, etc) ;
  • Déterminer une stratégie de contenu cohérente et en respect avec la ligne éditoriale ;
  • Lutter contre le contenu dupliqué.

En mettant en place une analyse de logs avec OnCrawl, Julien Ferras et son équipe SEO ont réussi à augmenter leur trafic en provenance de Google de plus de 80% grâce à :

  • L’identification des pages avec des balises Titles et/ou Meta Description vides ou dupliqués, et mettre en place rapidement des actions correctives.
  • La détection de nombreuses redirections 301 et erreurs 404
  • L’identification des pages qui ne généraient pas de trafic mais qui étaient crawlées.
  • La refonte de l’arborescence du site et la définition d’une stratégie de maillage interne efficace
  • La vérification de l’impact des optimisations en croisant les données de logs avec celles de la Search Console.
  • La compréhension de l’impact du nombre de mots et du nombre de liens sur le trafic généré

Aujourd’hui, Paris Match enregistre plus de 17 millions de visites par mois et 100 000 000 pages vues. Cette étude de cas vise à présenter la méthodologie utilisée pour améliorer la visibilité de Paris Match et les bonnes pratiques pour atteindre ces résultats.

L’étude de cas

  • A propos de Paris Match
  • A propos de Julien Ferras
  • Identifier les facteurs bloquants au passage du Googlebot
    • Vue d’ensemble
    • La notion de budget de crawl
  • Mise en place d’une méthode
    • Segmenter le contenu
    • Creuser la donnée et comprendre le comportement du bot
    • Croiser les données pour trouver les bonnes valeurs
    • Déterminer un plan d’action précis
      • Identifier les pages stratégiques
      • Identifier les pages « pauvres »
      • Améliorer la qualité du crawl de Google
      • Améliorer la vitesse de chargement
      • Optimiser la popularité interne grâce à l’InRank
      • Remonter les pages dans l’arborescence
      • Augmenter la densité du contenu et l’UX
  • Résultats
  • À propos d’OnCrawl

Télécharger la success story