Event - Oncrawl blog

SEOCAMP’Us 2016: retour sur 2 jours de conférences SEO

12 avril 2016 - 6  min de lecture - par Emma Labrador
Accueil > Événements SEO > SEOCAMP’Us 2016: retour sur 2 jours de conférences SEO

Le salon SEOCAMP’Us a une fois de plus tenu ses promesses en matière de conférences et de rencontres enrichissantes. Nous avons eu le plaisir de venir à la rencontre des SEOs et de parler analyse de logs et SEO onsite.
Voici un compte-rendu de conférences marquantes auxquelles nous avons assisté (les autres n’étant pas moins intéressantes, nous n’avons juste pas eu le plaisir d’assister à toutes celles proposées). Vous trouverez également en fin d’article la présentation de François Goube sur comment faire de l’analyse de logs gratuitement.

Aleyda Solis – SEO Horror Stories

On ne présente plus Aleyda Solis et son expertise SEO. Cette habituée des conférences search marketing nous a partagé des retours d’expériences sur les pires erreurs à ne pas commettre en référencement naturel. Issues d’un hashtag lancé pour Halloween en 2015 ( #SEOhorrorStories), Aleyda a partagé quelques uns de ces exemples.

Bloquer le crawling du site par les moteurs de recherche (par erreur)

Le robotx.txt peut bloquer le crawl du site par les robots. Veillez donc à surveiller les changements sur le robots.txt par des outils externes en mode SaaS.

Erreurs dans la désindexation / canonicalisation

Des balises meta robots mal positionnées peuvent pénaliser l’indexation du site. Aleyda conseille donc de monitorer son contenu et HTML régulièrement.

Environnement de pré-production ouverts sur internet

Une autre erreur partagée par la consultante est l’indexation par erreur de site en pré-production ou en test. Afin d’éviter ce désagrément, il est recommendé d’utiliser une balise meta robot NoIndex ou de ne pas toucher au robots.txt. Il faut donc bloquer le site avec authentification pour que les tests SEO soient faits dans des conditions réelles sans pour autant que les robots de Google puissent y accèder. Aleyda conseille de régler des alertes sur Google Alerte afin d’être averti à la moindre indexation de contenu sur ces environnements.

Contenu dupliqué en interne sur le site

Le contenu dupliqué en interne est chose courante si le site évolue. Il est donc nécessaire de régulièrement auditer son site à l’aide d’un crawler pour détecter son contenu dupliqué.

Redirections inutiles

Les redirections sont en général bien gérées par les outils de CMS. Cependant, ces redirections automatiques ajotuées à des redirections manuelles peuvent créer des boucles infinies, des redirections ne pointant pas vers le bonne page ou des redirections en chaîne. Même chose que plus haut, la solution est de régulièrement crawler son site pour identifier ces erreurs.

Ne pas vérifier ses logs

Pour réellement savoir comment est perçu votre site web par les robots, la meilleure solution reste l’analyse de logs. Elle permet d’accèder à des informations non disponibles à partir d’un simple crawl et d’identifier rapidement des problèmes ou des différences de comportements.

Penser que la perte de trafic vient du SEO

Votre trafic n’est pas uniquement issu des visites SEO ; d’autres facteurs peuvent l’impacter. Les Alertes Google peuvent vous avertir d’une perte de trafic organique et si vous vous rendez compte que cette perte est effectivement due au SEO, alors vous pouvez suivre la checklist d’Aleyda.

Bloquer les contenus sur CDN

Si vous ne souhaitez pas référencer tous les fichiers du CDN mais permettre quand même aux robots de parcourir vos images et feuilles de style vous pouvez ajouter une balise canonique dans l’en-tête HTTP sur ces fichiers pointant vers votre domaine. Cela permettra de configurer via le robots.txt le parcours de ces fichiers. Ces fichiers ne seront déployés qu’aux robots, pour les visiteurs habituels de votre site, c’est le CDN qui délivrera les fichiers.

Écarter le volet mobile en prédisant le trafic à l’avance

Prédire un trafic mobile en se basant sur un comportement courant n’est pas objectif. Si vous ne recevez pas de trafic mobile c’est peut être tout simplement parce que vous n’êtes pas optimisé pour. Vérifiez d’abord du côté de vos concurrents ou de vos partenaires leurs sources de trafic et agissez en conséquence ! Vous manquez certainement une belle opportunité.

Mounira Hamdi – Tendances 2016 sur les médias sociaux

Cette experte des réseaux sociaux a partagé lors du SEOCAMP’Us 7 tendances à prendre en compte sur les réseaux sociaux.

1 – La vidéo

La vidéo développe ses formats et ses opportunités marketing en répondant à différents objectifs et cibles.
Un tweet comportant une vidéo est 6 fois plus performant qu’un tweet simple car il permet de rallonger sa durée de vie.
Sur Facebook, les vidéos natives ont pris le pas sur les vidéos hébergées depuis Youtube de par leur reach et leur engagement, leur lecture automatique et grâce à la suggestion de contenu similaire notamment. Un conseil, diffusez un extract en natif sur Facebook pour ensuite renvoyer vers le contenu en entier sur Youtube et bénéficier d’un meilleur référencement.
Sur Instagram, le lancement de Boomerang permet d’enregistrer des vidéos de 3 secondes et suit la logique de développement de contenu du réseau social. Instagram a connu une hausse de temps passé de 40% en misant sur l’instantanéité.

2- Mobile first

Les campagnes sont maintenant directement pensées mobile, responsive design et avec une navigation optimisée.
Facebook Canva propose par exemple un format de contenu interactif uniquement disponible sur mobile.

3- Social Selling

Acheter un produit depuis un contenu social est maintenant possible. De nombreuses plateformes sociales intègrent désormais le bouton « acheter » permettant ainsi de procéder à l’achat d’un produit sponsorisé sans même quitter l’appli.

4- Rapprocher le on et off

Une autre tendance est de rapprocher le réel du virtuel. Periscope, l’outil de live-streaming, permet ainsi de proposer du direct à une communauté très large. Facebook s’est aussi lancé sur ce créneau avec Facebook Live. Ces services proposent de nouvelles opportunités en termes de proximité et de préférence de marque.

5 – CTA

Le déploiement des CTA permet de réduire le nombre d’étapes pour effectuer une action et éviter de devoir sortir d’une application pour remplir un formulaire par exemple. Twitter Leads ou Facebook Ads Leads permettent notamment de remplir des formulaires directement depuis la plate-forme.

6- Contenu éphémère

Ce type de contenu est assez spécifique mais peut être mis en place pour une audience particulière. Il pose également la question du traitement des données personnelles. Facebook a déployé la fonction “message éphémère” permettant ainsi aux messages de disparaître au bout d’une heure.

7 – Social CRM

La relation client est au coeur des nouvelles stratégies sur les réseaux sociaux. Il est maintenant possible d’envoyer un DM directement depuis un commentaire Facebook pour les marques. Depuis les pages fans, une mise à jour à été faite sur le données affichées des fans et il est maintenant possible d’ajouter un tag à une conversation pour catégoriser un utilisateur. La gestion des feedbacks et de la relation client est donc facilitée.

Vincent Terrasi – Utilisation de la data-science pour le SEO

Vincent Terrasi a partagé de façon ludique de nombreux outils gratuits et très intéressants pour l’analyse sémantique et temporelle.

Frédérik Bobet – Cocon Sémantique : Coup Marketing ou Révolution ?

Thomas Leonetti – ASO, le nouvel eldorado ?

Syphaïwong Bay – Bien former, recruter un rédacteur web

Aurélien Berrut – Analyse de la concurrence d’une requête dans les SERPs

Alexis Rylko – Intégrer Yandex dans sa stratégie Search Marketing

François Goube- L’analyse de logs pour tous et gratuitement ?

Nous tenions tout particulièrement à vous remercier pour votre intérêt lors de ces deux jours de SEOCAMP’Us.

Emma Labrador Voir tous ses articles
Emma était Responsable Communication & Marketing chez Oncrawl pendant plus de 7 ans. Elle a contribué plusieurs articles sur le SEO et les mises à jour des moteurs de recherche.
Sujets en lien :