Event - OnCrawl blog

Retour sur We Love SEO 2018

18 octobre 2018 - 18  min de lecture - par Julie Quintard
Accueil > Événements > Retour sur We Love SEO 2018

Pour la 4ème année consécutive, OnCrawl, Myposeo, AT Internet et RocketLinks organisaient We Love SEO. Cet événement créé pour les SEOs par les SEOs, a rassemblé près de 180 participants, 18 speakers et proposait 4 études de cas, 2 tables rondes et 1 conférence de clôture exceptionnelle en présence de Gary Illyes. Pour ceux qui n’ont pas eu la chance d’être présents, voici un petit résumé de cette journée riche en SEO.

Les conférences en quelques points clés

Comment tirer profit des données de crawl sur un site de petites annonces comme Keljob ?

Erlé Alberton, Customer Success Manager @OnCrawl et Philippe Sasso, Consultant SEO @Resoneo étaient les premiers à monter sur scène. Leur conférence avait pour objectif de présenter les meilleures techniques pour exploiter au mieux les données de crawl afin d’optimiser un site de petites annonces comme Keljob. Voici les principaux points de la conférence à retenir :

  • Le budget de crawl représente le temps, l’énergie et l’argent que Google vous alloue pour parcourir votre site. Plus votre site est facile à parcourir, plus les moteurs de recherche seront satisfaits.
  • Il existe une forte relation entre la fréquence de crawl et les impressions. Pensez toujours à bien organiser votre site pour les visites des bots.
  • Keljob est un site d’offres d’emploi composé de pages volatiles. L’objectif est d’offrir une visibilité rapide aux offres d’emploi avant qu’elles disparaissent. Le challenge de Keljob était de penser son architecture pour qu’elle valorise les croisements intéressants, les offres pertinentes et le trafic naturel.
  • La stratégie était de travailler sur le maillage interne des listes de résultats pour en améliorer la profondeur sans tenir compte des éléments artificiels :
    • Ajout de liens vers les entités géographiques connexes
    • Ajout de liens croisés sur des typologies et des géographies
    • Ajout de liens vers les métiers similaires
  • Résultats : le trafic SEO a été multiplié par 2,5. Avant la stratégie mise en place par Philippe, 72 % des pages disposaient d’une profondeur de niveau 6 et +. Après les différentes actions établies, 50 % des pages n’avaient plus qu’une profondeur de niveau 4 et -.

▶︎ Consulter la présentation
▶︎ Revoir la conférence :

Peut-on encore détrôner les gros sites leaders en SEO ?

Alexandre Sigoigne, CEO @Myposeo et Nicolas Plantelin, SEO Manager @Oui.sncf ont présenté la deuxième conférence de We Love SEO qui portait sur la position indétrônable des gros sites leaders en SEO. Voici les principaux points à retenir de leur intervention :

  • Il existe 4 étapes pour tenter de détrôner les gros sites leaders : la recherche de mots-clés, l’audit de SERP/CC, la détection d’opportunités puis l’élaboration de la stratégie de contenus.
  • Vous pouvez utiliser une formule afin de détecter vos meilleures opportunités : volume moyen/faible de recherche sur un mot-clés x position SEO pixel x position existence x concurrence.
  • Pour analyser le site d’un concurrent, vous pouvez relever le nombre de pages, de backlinks, la taille des contenus et le netlinking des pages.
  • OUI.sncf réalise une veille concurrentielle quotidienne pour surveiller les positions de ses principaux concurrents. Nicolas Plantelin a déjà observé l’arrivée brusque d’un concurrent inconnu auparavant qui a récupéré des positions rapidement. Exemple : Tic Tac Trip a explosé le nombre de requêtes en 6 mois.
  • Les conseils de Nicolas Plantelin et Alexandre Sigoigne pour détrôner les gros sites leaders :
    • Être agile (et rusé)
    • Être en veille (SERP, technos)
    • Diversifier les types de pages
    • Produire (plus) de contenus par thématique
    • Travailler sa notoriété verticale

▶︎ Consulter la présentation
▶︎ Revoir la conférence :

Rattraper son retard en SEO lorsque l’on est un acteur BTP national

Julien Nishimata, Facilitateur et Business Developer @RocketLinks et Sylvain Vidal, Data Analyst et formation @SEO.fr nous ont présenté le cas d’un acteur du BTP national qui a dû déployer d’importants efforts pour rattraper son retard en SEO. Voici les principaux points clés de leur conférence :

  • Le site accompagné par Sylvain et Julien disposait d’un retard SEO, d’une digitalisation tardive et d’une certaine méconnaissance internet. Le site était propre mais manquait de netlinking, de contenu et de méta.
  • Le plan d’action mis en place a permis de mettre en place 170 balises TITLE, 245 balises META description, de réparer 860 erreurs 404 et d’optimiser 155 codes 301.
  • Les équipes de RocketLinks et de SEO.fr ont réalisé un gros effort sur le contenu du site web avec notamment la création d’un silo, de 5 nouveaux textes par semaine et d’un maillage interne pertinent.
  • Ces actions ont permis au site web de passer du 7ème acteur national au 3ème acteur national sur 1 200 mots-clés.
  • Les conclusions de cette conférence sont d’optimiser la vitesse du site, de produire du contenu et un silo pertinent, d’optimiser les meta-descriptions et le taux de clic et de mettre au point une stratégie de netlinking cohérente.

▶︎ Consulter la présentation
▶︎ Revoir la conférence :

Analytics & SEO : les clés d’une stratégie réussie

Deborah Botton, Chef de Produit chez @RadioFrance prend la parole, accompagnée de Christelle Tissot, Head of Customer Success @AT Internet, pour présenter la dernière conférence de la matinée de We Love SEO. L’objet de sa conférence est de montrer comment le référencement est traité dans une maison telle que Radio France qui dispose d’une multiplicité de sites et d’offres. Découvrez les principaux points à retenir de cette étude de cas sur l’analytics et le SEO :

  • Radio France fait du SEO pour valoriser la production des antennes sur le numérique et pour faire connaître les offres au plus grand nombre dans un contexte où la radio subit une pression liée aux nouveaux usages.
  • Les challenges SEO de la marque sont de contourner le “not provided” et de composer avec la fragmentation de la source Google Actualités avec le portail Google News, Google News Producer et Google Search.
  • Radio France a saisi l’opportunité de l’AMP dont Google et beaucoup d’autres plateformes sont adeptes. Depuis, les visites mobiles ne cessent d’augmenter et ¼ du trafic de France Bleu provient d’AMP.
  • Pour optimiser le nombre de pages actives de France Culture, Déborah Botton a monitoré le nombre de pages d’entrées (analytics) et la proportion de pages générant des clics depuis les résultats de recherche (logs). Seulement 22 % des pages de France Culture génèrent du trafic. Ce site a subit de nombreux changements suite à la suppression du contenu dupliqué.
  • Radio France a lancé un site neuf “France Musique” en anglais. Les contenus sont rares et gratuits. Un plan de relations presse a été mis en place afin de créer des liens entrants et de conférer de la popularité au nouveau site.
  • Déborah Botton a donné différents conseils pour faciliter la récupération et l’affichage des données dans les interfaces comme unifier les périmètres desktop et mobiles, créer des métriques personnalisées ou encore segmenter les données.

▶︎ Consulter la présentation
▶︎ Revoir la conférence :

Avènement de l’IA : les leviers du SEO que nous connaissons vont-ils perdre de leur importance au profit de nouveaux indicateurs de référencement ?

Après un déjeuner networking, We Love SEO se poursuivait avec un nouveau format de conférence : les tables rondes. La première table ronde était composée de Virginie Clève, Digital Strategist @Largow, David Dragesco (NinjaLinker), Consultant SEO @ReputationVIP, Emmanuel de Vauxmoret, Directeur d’agence @Eskimoz et Paul Sanches, Président de @SEOHackers. La table ronde était animée par Alexandre Sigoigne et avait pour objectif d’éclaircir le sujet controversé de l’IA et du SEO. Si vous avez loupé la conférence, voici les principaux points à retenir :

  • Quelles sont les pratiques que vous avez aujourd’hui à l’égard du HTTPS ?
    • D’après Emmanuel, passer au HTTPS relève du bon sens mais ne permet pas forcément d’obtenir une augmentation des visites SEO. Attention cependant à bien réaliser la migration HTTPS.
    • Pour Virginie, Google impose le HTTPS parce qu’il ne veut plus répondre aux requêtes de la justice américaine sur les données de navigation. En termes de SEO, elle a vu plus de pertes que de gains dus au HTTPS.
    • David estime que le HTTPS n’a aucun impact sur les classements mais peut avoir des répercussions sur le comportement des utilisateurs qui peuvent fuir votre site suite aux alertes.
    • Paul estime que le passage au HTTPS n’est pas réellement utile et que les propriétaires de sites web ne sont pas obligés de l’accepter.
  • Aujourd’hui on entend beaucoup parler du temps de chargement. Dans quelle mesure ce critère a évolué d’après vous ?
    • Pour Paul, il s’agit encore une fois de bon sens. C’est plus pour les utilisateurs que pour Google qu’il faut optimiser le temps de chargement. Ce critère dépasse le SEO.
    • Pour Virginie, la performance web a un impact très fort sur les classements, notamment mobiles.
    • Emmanuel pense que c’est un sujet complètement indispensable. Les développeurs doivent en prendre conscience et optimiser au mieux les pages.
  • Google est en train de déployer un mobile first index. Est-ce que vous avez constaté des changements ?
    • D’après David, il faut attendre pour avoir des retours. La mise à jour est trop récente et va probablement générer des changements sur le long terme.
    • Pour Emmanuel, ce n’est pas à l’avantage de Google d’amener trop de changements trop vite lors de l’index mobile-first.
    • Virginie pense qu’ils ont commencé par les sites qui étaient prêts, c’est pourquoi nous ne voyons pas beaucoup de changements actuellement.
  • La longueur moyenne des contenus s’est un peu allongée. Que pensez-vous de ces variations de longueur ?
    • Paul reconnaît que rajouter du contenu sur une page est une pratique courante mais il ne faut pas oublier les intentions de l’utilisateur et met en garde sur le keyword stuffing. Par ailleurs, plus le texte est court, moins Google détectera de contenu dupliqué.
    • David explique que Google cherche de plus en plus à implémenter de l’IA et à rendre les bots capables d’interpréter le contenu. Il existe 3 catégories de requêtes : navigationnelles, informationnelles et transactionnelles. Google va ajuster ses résultats en fonction du type de requête. Il faut prendre en compte la notion d’entités nommées : le fait que Google détectent les synonymes. Par exemple, pour les requêtes “assurance auto” et “assurance voiture”, Google proposera les mêmes résultats.
    • Pour Emmanuel, la longueur des contenus est un facteur qui marche encore très bien et il faut travailler avec le principe d’entités nommées.
    • Virginie admet que les contenus trop courts sont pénalisants et que les contenus plus longs sont souvent rédigés pour les requêtes informationnelles. La recherche vocale utilise beaucoup les contenus longs et pertinents.

▶︎ Revoir la conférence : Vidéo à venir.

Demystify SEO: How we can do more with less. Advice from the European frontline.

Place aux speakers internationaux ! We Love SEO se poursuit avec une table ronde 100 % européenne composée de Omi Sido, Senior Technical SEO @CanonEurope, Gerry White, Senior Technical Marketing Consultant @JustEat, Maria Cieslak, Senior Technical SEO Consultant @Elephate et Chris Green, Head of Search @StrategiQ. François Goube, CEO @OnCrawl, anime cette table ronde qui a pour objectif de démystifier le SEO et de confirmer ou d’infirmer les idées reçues. Voici le résumé de la discussion en quelques questions :

  • Quelles techniques utilisez-vous pour diriger votre stratégie de contenu ?
    • Pour Maria, la procédure peut être divisée en 2 parties. La première est d’analyser le contenu d’un point de vue utilisateur puis de vérifier que le contenu est unique avec un crawler.
    • Omi estime que chaque site web est différent et doit disposer de sa propre stratégie de contenu en menant ses propres expérimentations. Si le contenu ne rapporte pas de revenues ou de trafic alors il est inutile.
    • Lors d’une mise à jour touchant le contenu, Gerry conseille de retourner dans les SERPs et de regarder ce qu’on fait les sites classés dans les premières positions pour rester en haut des pages de résultats.
  • Est-ce vous avez des anecdotes SEO pour nous illustrer le concept “Less is more” ?
    • Chris donne l’exemple du site web de l’un de ses clients où il supprimé 80 % des pages du site qui ne disposaient pas de contenu vraiment utile. Le taux de crawl a alors augmenté et permis de faire remonter les classements. Parfois, moins de pages signifie plus de classements !
    • Gerry évoque les soldes mises en place par les sites e-commerce chaque saison. Souvent, ces pages n’ont pas de résultats hors période de soldes. Il conseille de recycler les URLs, le contenu et les pages. Ce sera plus simple de les promouvoir si vous les avez déjà exploité l’année précédente.
    • Maria a participé à une “chirurgie” récemment. Elle a retiré quelques millions de pages d’un site car la structure avait été touchée par une pénalité. Ils ont perdu 90 % de leur trafic organique. Après avoir retiré toutes les pages impliquées, le site s’est reclassé au bout de 2 semaines.
    • Omi rappelle que les vidéos sont aussi du contenu. Avec Canon Europe, ils ont réalisé des interviews qui n’ont pas fonctionné car leur audience était trop jeune. Ils ont alors demandé à 50 cent de participer, ce qui a généré un grand pic dans l’audience.
  • Quelles sont vos astuces pour traiter les pages orphelines ?
    • En arrivant chez Canon Europe, Omi a supprimé des centaines de milliers de pages orphelines, ce qui représentait 60 % du site. Cela a provoqué une augmentation du trafic de 22 %.
    • Pour Gerry, la question est : est-ce que ces pages ont de la valeur ? Si ce n’est pas le cas, le mieux est d’empêcher les bots d’y accéder en les no-indexant.
    • Maria confirme que supprimer des pages est toujours efficace et permet d’éviter la cannibalisation. Il est mieux de construire une landing page avec le contenu correspondant au mot-clé plutôt que de construire 100 pages.
  • Que conseillons-vous de faire avec les pages inactives ?
    • Pour Gerry, cela dépend de la fonction. Certaines pages, qui sont essentielles, ne rapportent pas énormément de trafic mais sont indispensables. Il faut penser à des solutions pour les promouvoir.
    • Chris donne l’exemple d’un site e-commerce qui disposait de nombreuses pages en no-index par manque de contenu. Avec son équipe, Chris a remis du contenu sur ces pages et a commencé à les réexposer aux bots de Google. Il constaté une augmentation de 19 % du trafic organique.
    • Maria pense que l’un des facteurs les plus importants est le trafic. Cela permet de vérifier quel type de page ne génère pas de trafic et de comprendre les problèmes sur ces pages.
    • Pour Omi, 20 % des mots-clés pour lesquels les pages se classent sont utiles et 80 % sont inutiles. Il faut donc redoubler d’efforts pour associer les bons mots-clés aux bonnes pages.
  • Quelle est votre stratégie pour le off-site ?
    • Gerry pense qu’il faut faire du off-site même si votre site web n’est pas parfait. Les liens externes restent très importants et on ne peut pas réellement s’en passer.
    • Pour Chris, il faut d’abord développer un très bon site web avant de se consacrer au off-site. Pour le SEO local, le off-site reste cependant très important.
    • Selon Maria, il faut avoir une bonne approche des résultats et des attentes. Certains sites web attendent un vrai bond dans les classements après avoir obtenu 15 liens mais ça ne fonctionne pas comme ça. Il faut que votre site soit prêt.
    • Omi pense qu’il faut être bon en RP et demander des liens aussi souvent que possible. Il faut aller plus loin que le SEO.
  • Sur quoi allez-vous vous concentrer au cours des 12 prochains mois ?
    • Chris ne pense pas qu’il faut se concentrer sur les changements du search mais plutôt sur la manière dont nous le pratiquons. Nous ne connaissons pas vraiment l’impact que les changements en cours vont avoir mais il faut rester vigilant et faire des tests aussi souvent que possible.
    • Pour Gerry, il ne faut pas juste se fier aux données. Il faut aussi faire les recherches par soi-même et voir ce que cela donne. Il rappelle qu’il faut penser à bien surveiller ses concurrents.
    • Maria pense qu’il faut rester concentrer sur le SEO technique. Le développement web évolue trop rapidement pour Google. Il faut donc faire ses propres tests.
    • Pour Omi, la meilleure réponse serait le machine learning et la recherche vocale mais au final de nombreux sites web ne disposent pas des basiques. Son conseil est de s’assurer que votre site web dispose de solides bases.

▶︎ Revoir la table ronde :

What’s New in Search ?

Gary Illyes, Webmaster Trends Analyst @Google, entre en scène pour donner la dernière conférence de We Love SEO. Il partage les principaux basiques et les nouveautés que Google tient à communiquer aux webmasters. Voici les principaux points à retenir :

  • Les URLs doivent être accessible aux crawlers : pas de #, pensez à incorporer du HTTPS, des sitemaps, des “” avec “href” et à favoriser le maillage interne.
  • Les méta descriptions n’ont pas de limite et Google ne réécrit pas les titres des pages.
  • Les images sont un véritable atout, il faut prendre soin de les référencer correctement (alt-text, légendes, lazyload avec un < noscript > ).
  • Le contenu doit être écrit clairement et contenir peu de publicités.
  • La vitesse de chargement est devenue indispensable. Les sites web doivent être testés dans un outil approprié et les webmasters doivent surveiller plusieurs métriques ainsi que les réactions des utilisateurs à leurs optimisations.
  • Structurez vos données ! Gary conseille d’utiliser les données structurées raisonnablement, de vérifier les nouveaux types et la validité de votre implémentation.
  • L’interprétation des sites a été instaurée il y a quelques années. Google comprend désormais le JavaScript. Ils utilisent Chrome 41 pour cela, ne disposent pas d’accompagnement ES6 ni de stockage d’API.
  • L’interprétation différée rend le suivi des liens plus lent et nécessite plusieurs jours avant d’aboutir.
  • Il n’est pas toujours nécessaire d’instaurer l’interprétation dynamique, à moins que votre page soit exceptionnelle. Cela permet une pré-interprétation pour les crawlers et les réseaux sociaux. Vous pouvez retrouver un guide complet sur l’interprétation de Google ici.
  • Le mobile-first est en plein développement, de nombreux sites ont été touchés et d’autres vont être impactés. Pour vous préparer au mobile-first indexing, vous devez optimiser vos contenus, vidéos, images, métadonnées, données structurées et liens internes pour le mobile.

▶︎ Revoir la conférence :

Vos témoignages

Vous avez été nombreux à réagir à We Love SEO sur les réseaux sociaux. Le #WLS18 s’est même retrouvé en Top Tweets France durant l’événement ! Retrouvez quelques-uns de vos meilleurs témoignages :

Retrouvez toutes les photos et vidéos de #WLS18

Vous pouvez vivre ou revivre We Love SEO sur la page dédiée à l’édition 2018. Vous y retrouvez l’ensemble des présentations ainsi que les photos prises au photomaton.

Vous pouvez également revoir en replay toutes les conférences sur notre chaîne Youtube.

Nous espérons que vous avez apprécié cette édition 2018 de We Love SEO autant que nous et on vous dit à l’année prochaine pour #WLS19 ?

Julie est Marketing Manager pour OnCrawl. Passionnée de digital et de marketing, elle écrit régulièrement des articles sur les actualités du SEO et d'OnCrawl. Vous pouvez la joindre sur Twitter.
Sujets en lien :