Senior-SEO-What-skills-do-you-really-need-250px

SEO senior : Quelles sont les principales compétences requises ?

15 novembre 2022 - 22  min de lecture - par Riccardo Mares
Accueil > SEO Thoughts > SEO senior : Les principales compétences requises

Le spécialiste du SEO est une figure quelque peu mythologique, qui gravite dans le monde digital et dont les caractéristiques sont très variées. Si nous demandions à certains ce que fait ce spécialiste, nous aurions un large spectre de réponses. Certains pensent que les spécialistes du SEO ont des pouvoirs magiques, d’autres s’imaginent qu’ils ont un contact direct avec le dieu Google et peuvent même penser que le fait de payer M. G. permet aux SEO de faire ce qu’ils veulent – bien sûr, ce n’est pas le cas !

Il y a quelques semaines, j’ai donc rédigé une liste sur LinkedIn des compétences indispensables qu’un SEO senior est censé posséder. En partie par précipitation et en partie par volonté, la liste s’est avérée incomplète, ce qui a suscité beaucoup de réactions et des dizaines de commentaires intéressants.

Dans la liste, il y a plus de quarante caractéristiques qu’un super-héros du SEO devrait avoir – un super-héros qui, d’un simple geste… pouf, parvient à se positionner premier pour chaque mot-clé !

Mais avant de se pencher plus en détail sur ces compétences, il convient de se rappeler que le SEO est un sujet vraiment vaste. Il est sûrement plus facile de trouver des SEO experts dans une ou plusieurs spécialisations que de rencontrer des personnes ayant toutes les exigences de la liste ; néanmoins, certaines connaissances de base doivent être prises en compte : condition sine qua non.

Connaissances de base du SEO

Tout spécialiste du SEO doit connaître et comprendre l’écosystème dans lequel il opère – comment Google fonctionne, ce que fait Googlebot, quel est le statut d’une page du point de vue du SEO et comment les SERPs se forment et évoluent – y compris tous les éléments complémentaires qui apparaissent quotidiennement au milieu des résultats.

En outre, ils doivent être capables d’effectuer des analyses de mots-clés, d’évaluer les positionnements, d’évaluer les changements enregistrés par les outils – principalement Google Search Console/Google Analytics – et d’évaluer l’exactitude de la structure et du contenu d’un site.

Crawlers, algorithmes et directives

Il est surtout important de comprendre le fonctionnement des crawlers (Googlebot principalement) et de savoir comment communiquer avec eux. La communication repose principalement sur trois niveaux : la communication directe, la communication indirecte et les signaux offsite.

La communication directe fait référence aux outils que nous utilisons pour guider les robots de recherche sur notre site. Il s’agit essentiellement de signaux qui contrôlent où et comment Google crawle un site. Parmi eux figurent le fichier robots.txt, les balises méta, les balises x-robots, les balises <link>, les codes d’état. Il est important de les connaître car ils vous permettent de communiquer au robot vos préférences quant à son comportement.

Certains les utilisent également pour des raisons de confidentialité, mais n’oubliez pas que la véritable protection de la vie privée passe par la non-publication du contenu en ligne !

La communication indirecte explique le contenu et la relation sémantique entre les pages.

Enfin, les signaux off-site sont des actions qui se produisent en dehors de votre site et qui ont également un impact sur votre positionnement. Une bonne stratégie de SEO off-site permet à un site web de réaffirmer sa fiabilité et son autorité. Les backlinks sont les principaux éléments en ce qui concerne les signaux offsite.

L’analyse des données et outils SEO

Une fois que vous maîtrisez les principes fondamentaux, il est nécessaire de comprendre ce qui se passe à l’intérieur et à travers les moteurs de recherche. Il faut donc améliorer ses compétences en analyse de données et apprendre à utiliser efficacement les outils de SEO.

Les principaux outils qu’un SEO doit maîtriser sont :

  • les SERPs
  • les outils des moteurs de recherche
  • les outils externes

Les SERPs sont le champ de bataille : nous pouvons vérifier de nombreuses requêtes, analyser le type de média affiché par les moteurs de recherche et – bien sûr – vérifier si une ressource est indexée ou si le chemin entier d’un site est indexé.

Nos meilleurs amis sont deux opérateurs et nous pouvons les utiliser pour inclure ou exclure (-) des résultats :

  • site:
  • inurl:

Dans les SERPs, il y a aussi le compteur de résultats ; mais il faut se méfier lors de l’évaluation des données. Il est souvent considéré comme « arbitraire » car il change trop souvent en analysant la même requête, voire en passant d’une page à la suivante ou à la précédente.

Pour une analyse approfondie, il est préférable de se tourner vers les outils SEO et, dans ce cas aussi, nous avons deux types à considérer : les outils propriétaires et les outils externes.

Les outils les plus répandus sont ceux qui appartiennent aux moteurs de recherche et ils sont :

  • Google Search Console
  • Bing Webmaster Tools
  • Yandex Webmaster Tools (la Russie)
  • Baidu Webmaster Tools (la Chine)

Il est impératif de se rappeler que ces outils sont votre seul moyen de vérifier directement ce qui s’est passé sur votre site web dans les différents moteurs de recherche, et il est nécessaire d’apprendre à interpréter les données et les flux graphiques.

Par exemple : savez-vous qu’il existe une corrélation directe entre le temps de réponse de Googlebot et le nombre de pages que Google consulte ? Ou qu’il semble y avoir une corrélation entre la visibilité sur le carrousel de news / discover et les valeurs CrUX ?

Je suis sûr que vous utilisez toujours GSC et vous vous demandez pourquoi vous devriez utiliser BWT, étant donné qu’il est très peu utilisé par les webmasters qui gèrent le moteur de recherche de Microsoft. C’est une excellente question, je l’aborderai plus tard.

Dans Google Search Console, vous trouverez beaucoup d’informations concernant :

  • Combien de pages sont indexées ;
  • Combien de pages sont exclues (et pourquoi) ;
  • Tester la capacité d’exploration et d’indexation des pages.

Vous pouvez également consulter :

  • Les mesures de performance concernant Core Web Vitals, la compatibilité mobile et le temps de réponse
  • Statistiques sur le crawl
  • Résultats du positionnement

Si vous pouviez trouver tout cela dans GSC, pourquoi utiliser aussi BWT ?

J’utilise souvent BWT parce que le rapport d’indexation de Google est trop limité, même si ces dernières années, Google a mis en œuvre de nombreuses améliorations. Dans BWT, vous trouverez un excellent rapport sur l’état de l’indexation, similaire à celui de l’explorateur de fichiers standard de Windows : WOW ! Et oui… vous pouvez vérifier l’état d’indexation des ressources en parcourant les chemins et les sous-domaines !

Bien sûr (je vous écoute) ce n’est pas l’index de Google, mais que pensez-vous si nous supposons que si Bing voit certaines ressources, Google vient de les voir ? !

Tout ceci étant dit, pourquoi avons-nous besoin d’utiliser des outils externes pour vérifier la santé du site ? Je pense qu’il y a deux raisons principales :

  • Les outils externes peuvent être utilisés pour analyser le web, les statuts de votre site, son positionnement dans les SERPs et vos backlinks.
  • Avec les outils liés aux moteurs de recherche, vous ne pouvez vérifier que les données de votre propre site (des outils supplémentaires peuvent vous aider à voir ce que font vos concurrents).

J’utilise les outils externes de la manière suivante :

  • Comparer les données de trafic réel et organique avec les données de trafic fournies par les outils de suivi du positionnement. Je pense que c’est une bonne solution pour comprendre si les SERPs intègrent des éléments perturbateurs qui ont un impact sur le taux de clics (CTR) et donc sur le trafic organique. Habituellement, ce type d’outils a tendance à ignorer ces éléments en plus des résultats organiques traditionnels.
  • Pour comparer les sites sur lesquels je travaille avec leurs concurrents. Lorsque vous effectuez ce type d’analyse, ne comparez jamais les résultats de différents outils. Chaque outil a son propre algorithme pour convertir les positionnements et le volume des requêtes en projections de trafic.
  • Analyser les activités de link-building des concurrents.
  • Pour analyser les sites pour lesquels je travaille sur les backlinks. Bien sûr, vous pouvez trouver les données réelles sur le rapport GSC, mais elles sont si pauvres que nous devons les intégrer avec des données externes (ancres, rel, détails de la page source, etc…).

Je ne peux pas oublier de mentionner les outils permettant d’émuler les crawlers et de vérifier – en mode groupé – les éléments de la page ainsi que la façon dont les liens sont reliés. Quand je vous parle de liens, je ne parle pas seulement de la balise <a>, mais aussi de <link> et de chaque source à l’intérieur de la page.

Pendant un crawl, un site en bonne santé :

  • Ne répond « que » avec le status code 200 et toutes les pages sont bonnes pour l’indexation.
  • A tendance à avoir ZERO status codes de redirection (3xx)
  • A ZÉRO status codes d’erreur 4xx
  • N’a ZÉRO erreur de travail du serveur (status code 5xx)

Ce type d’optimisation, acquis en utilisant judicieusement robots.txt et rel= « nofollow », permet d’optimiser le budget de crawl en guidant le robot là où nous le voulons et où nous en avons besoin. Oui, je suggère ce genre d’activité même si vous n’avez pas un grand ou un très grand site web !

[Ebook] Utiliser des prévisions pour renforcer votre stratégie SEO

Découvrez différentes méthodes et résultats dans le domaine de la prévision du SEO.

Le conteneur de la page

Pendant mes cours de SEO (quand j’en faisais), je disais souvent : « Le meilleur contenu d’un mauvais site web pourrait devenir un mauvais contenu ». Quelque chose de similaire peut se produire si vous mettez un grand chef à l’intérieur d’un restaurant peu attrayant extérieurement : le risque est que personne n’ait la chance de goûter les plats délicieux.

Dans la partie précédente, j’ai abordé la question de l’état général du site, mais il est également important de garder à l’esprit les trois facteurs de réussite d’un site Web organique (capacité d’exploration, indexation et classement). Lorsque l’on considère ces trois éléments, il faut commencer par les pages Web.

La page est le contenant du contenu, le cadre qui met en valeur l’image. En tant que SEOs, nous devons nous assurer que les balises SEO les plus importantes existent (titre, h1, méta description). Nous devons nous préoccuper de la stabilité visuelle de la page pendant le chargement et les interactions, pendant quelques mois.

Un SEO doit vérifier si la page se charge assez rapidement et si le contenu principal se charge en premier et occupe la première position visuelle au-dessus de la ligne de flottaison.

Au cours de la dernière année, j’ai vu de plus en plus de sites Web construits en utilisant le JavaScript et ce type de changement au niveau de la programmation a une conséquence que les SEOs – soutenus par les programmeurs – doivent comprendre. Les moteurs de recherche ne voient pas seulement le HTML (source de la page), mais ils analysent le DOM qui est le résultat du code HTML avec les « modificateurs » CSS et JS.

N’oubliez pas : Googlebot est Chrome et – depuis quelques années – sa version suit directement les versions du navigateur Google Chrome et oui, il peut voir tout type de rendu DOM, à l’exclusion de ce qui est provoqué par l’interaction de l’utilisateur (clic, scroll, …).

Vous pensez que la liste devient trop longue ? Eh bien, je n’ai même pas commencé à parler des données structurées !

Dans les groupes de la communauté SEO, on utilise généralement le terme « web sémantique ». Certains l’utilisent pour parler des relations entre les contenus, mais l’utilisation correcte de ce concept est liée aux données structurées, des morceaux de code similaires à JS qui vous permettent d’ajouter au contenu traditionnel des informations catégorisées.

Par exemple, si vous avez une page de recettes préférées – via des données structurées – vous pouvez préciser au moteur de recherche le nom, les calories et les étapes de préparation. Ensuite, pour certains types de données, Google convertira votre travail en un rich snippet. Vous les avez déjà vus ?

Le contenu de la page

La discipline la plus difficile à améliorer est celle du SEO sémantique. Dans ce cas, je ne fais pas référence à la sémantique liée aux données structurées, mais plus spécifiquement au contenu des pages. La difficulté vient de la nécessité de créer du contenu.

Elle exige que nous nous améliorons :

  • Analyse des mots-clés/analyse de l’intention de recherche/clustering
  • Analyse morphologique des SERPs et de leurs évolutions
  • Analyse du contenu et du méta-contenu (mais la rédaction du texte est assurée par l’équipe chargée du contenu)
  • Identification et résolution des conflits de SEO/cannibalisation

Travailler sur du contenu est un métier difficile et je suis sûr que vous serez d’accord avec moi pour dire que ce ne devrait pas être le travail d’un SEO de rédiger du contenu ou de réaliser des audits techniques ! Pourquoi et comment les SEOs devraient-ils être impliqués dans le contexte sémantique ?

Notre mission est de comprendre comment les gens cherchent ce que votre site a à offrir et comment les moteurs de recherche interprètent les requêtes et décident par conséquent du type de pages web à afficher dans les SERPs.

Avant de lancer un nouveau site web, je suggère que le SEO soit impliqué dès le début, pour analyser le marché organique, identifier les concurrents dans les SERPs, détecter le type de widgets SERPs et ainsi de suite.

Ensuite, en accord avec « l’architecte de l’information », ils concevront la structure du site web et le SEO doit établir des directives pour les créateurs de contenu et les responsables e-commerce également, pour chaque page et chaque niveau. La mission est d’éviter la cannibalisation et de fixer les priorités du contenu par le design.

Et si le site existe déjà ? Commencez à espérer une collaboration étroite avec l’équipe existante (programmeur, rédacteurs de contenu, concepteurs UX/UI, responsables e-commerce, …). Ma recommandation est de commencer par une vue « hélicoptère » : vérifiez les principaux défauts et essayez ensuite de planifier une boucle continue de problème → (re)solution, jusqu’à ce que vous arriviez à régler les détails mineurs.

Un savoir-faire approfondi en matière de SEO

Souvent, on nous demande quelle est la différence entre un SEO junior et un SEO senior. De notre point de vue, l’évolution de la profession d’un SEO vers la séniorité se caractérise par l’élargissement de ses compétences, et bien plus encore ! Les SEOs seniors ont développé une vision stratégique intégrée aux autres activités digitales et sont capables de gérer des projets de manière autonome.

Pour en revenir aux compétences en matière de SEO, voici quelques « super pouvoirs » qui permettent au spécialiste du SEO de se distinguer et de relever le défi Site-vs-Google à un niveau bien supérieur.

Les capacités stratégiques

La stratégie est quelque chose qui n’est pas forcément mesurable comme le positionnement ou le trafic. La stratégie est une vision de haut niveau d’un projet basée sur la connaissance du système, la compréhension du projet et une grande maîtrise de la mission et des objectifs attendus.

La stratégie de référencement prime sur l’audit de référencement : l’audit est le résultat d’une capture instantanée du projet à un moment donné ; la stratégie de SEO est la vision de la situation actuelle et le plan indiquant quel type d’actions nous devons entreprendre pour atteindre les objectifs fixés.

Pour créer une bonne stratégie, il est indispensable de joindre toutes vos connaissances techniques à des années d’expérience. Le SEO n’est pas une science exacte et une stratégie de planification à moyen terme nécessite de réunir plusieurs types de techniques, même celles qui ne peuvent être définies.

L’analyse de la concurrence

Liée directement à la stratégie, l’analyse de la concurrence est une aptitude qui permet d’interpréter ce qui se passe dans les SERPs ou de comprendre la raison pour laquelle les positionnements changent ou le CTR vacille.

Sur quels types de données se base ce type d’analyse ? Malheureusement, l’outil officiel du propriétaire du site (GSC, BWT, …) ne peut pas nous aider autant que nous le voudrions. Les données qui peuvent aider le SEO expérimenté sont les suivantes :

  • Positionnements (vous devez toujours disposer d’une analyse des mots-clés !)
  • Projections du traffic
  • Comparaison du profil des backlinks (quantité et qualité)
  • Comparaison du contenu

Pour les trois premiers points, la seule solution est d’utiliser des outils externes (SEMrush, Sistrix, AHrefs, Majestic SEO, …). Mais, pour la comparaison de contenu, je suggère absolument de le faire manuellement. Au cours des dernières années, beaucoup d’outils sémantiques ont été créés, mais je crois vraiment que la bonne interprétation du contenu doit être entre les mains de véritables humains. Et oui… je vous entends : Google utilise des algorithmes pour comparer les contenus, mais nous n’avons aucun moyen d’utiliser ces algorithmes par nous-mêmes.

L’analyse des logs

L’un des côtés obscurs du SEO est l’analyse de logs. Il y a quelques mois, j’ai publié un article consacré à l’analyse de logs pour Oncrawl et chaque fois que j’essaie d’expliquer l’intérêt de cette activité, je me retrouve face aux yeux grand ouverts des SEOs, des administrateurs de systèmes, des webmasters et des responsables marketing.

Le principe de l’analyse de logs est de comprendre, sans interprétation, ce qu’un bot voit sur notre site web lorsqu’il parcourt les pages, combien ou à quelle fréquence il les consulte et quelles sont les pages qui n’ont jamais été consultées.

Bien sûr, GSC ou BWT donnent des indications intéressantes sur leurs activités, mais ils ne partagent généralement que des échantillons de données, des données groupées ou des données non filtrées. Avec les fichiers de logs, un SEO peut examiner méticuleusement le comportement des robots et trouver des réponses aux problèmes qu’il constate en étudiant les graphiques ou en analysant le site.

Un outil comme Oncrawl vous permet également d’aller plus loin : il réunit les données de logs (du bot) avec les données de logs (des utilisateurs) et les données qualifiées telles que Google Analytics, Google Search Console ou toute autre donnée que vous pouvez importer dans la plateforme. Il s’agit d’un outil très utile pour une analyse complète de votre site.

[Étude de cas] Trouver et résoudre des problèmes d’indexation

D’un trafic nul à une croissance exponentielle : découvrez comment GroupM Turkey a utilisé Oncrawl pour résoudre les problèmes d'indexation d'Unilever.

L’analyse de la vitesse

Depuis de nombreuses années, Google ne cesse de répéter – comme une litanie – que la vitesse des sites est importante. Pour les spécialistes du CRO/UX et les responsables du marketing, la vitesse est primordiale car elle est directement liée au taux de conversion et est directement liée à l’ARGENT. Si vous essayez de faire une recherche en ligne, vous pouvez trouver des centaines d’idées qui démontrent le pourcentage d’amélioration du taux de conversion, pour chaque milliseconde gagnée.

En ce qui concerne le SEO, les performances sont directement liées au positionnement, au crawl et, par conséquent, à l’indexation.

Permettez-moi d’expliquer un peu plus en détail ce que je veux dire lorsque je fais référence à ces relations :

  • Plus le temps de réponse du site est bon, plus Googlebot pourra lire de pages par jour (soit plus de pages, soit plus fréquemment).
  • Plus vite Googlebot lit les pages, plus vite il sera en mesure de les indexer (ou de rafraîchir ses index).
  • Plus le temps de réponse de la page est bon, meilleur sera le positionnement du site. Nous ne savons pas exactement quelle est la valeur de la vitesse des pages en termes de positionnements, mais on peut dire que le plus rapide gagne !

Jusqu’à présent, j’ai parlé du temps de réponse et, en général, je simplifie les choses en l’appelant la performance du serveur. Mais il existe d’autres mesures importantes à prendre en compte. Depuis quelques mois, Google a introduit des mesures supplémentaires pour évaluer l’expérience des sites : les Core Web Vitals.

Les CWV sont un groupe d’indexations qui tentent de calculer la qualité de l’expérience utilisateur. Google recueille ces mesures de manière anonyme à partir des navigateurs Chrome des utilisateurs réels (s’ils ne les bloquent pas). Les principales mesures sont les suivantes :

  • LCP (Largest Contentful Paint) : Le temps nécessaire au rendu du plus grand élément de contenu visible dans le viewport, à partir du moment où l’utilisateur demande l’URL.
  • FID (First Input Delay) : Le temps entre le moment où un utilisateur interagit pour la première fois avec votre page (lorsqu’il a cliqué sur un lien, appuyé sur un bouton, etc.) et le moment où le navigateur répond à cette interaction.
  • INP (Interaction to Next Paint – bientôt) : Observe la latence de toutes les interactions qu’un utilisateur a faites avec la page, et apporte une valeur unique en dessous de laquelle toutes (ou presque toutes) les interactions se situent.

Il existe également d’autres mesures que les SEOs doivent utiliser pour évaluer les performances (du client), mais pour l’instant, elles ne s’appliquent pas au positionnement : TTFB, FCP, LCP, FID, TTI, TBT, CLS.

Un SEO n’est pas un développeur front-end ni un administrateur de système, donc savoir programmer n’est pas une nécessité. Ce que les SEOs doivent savoir, en revanche, c’est comment comprendre les rapports de performance, tant au niveau du client que du serveur, et comment dialoguer avec les programmeurs et les administrateurs de système pour améliorer les performances du site, le trafic, la conversion et le taux de satisfaction des clients.

D’autres compétences importantes à renforcer

Je pense que la carrière de SEO a deux vecteurs de croissance, soit verticale, soit horizontale. Verticale signifie que vous cherchez à vous concentrer et à améliorer une compétence spécifique comme l’audit, l’analyse de logs ou l’analyse de contenu.

La croissance horizontale consiste à développer des connaissances en forme de T, à définir un domaine d’expertise, mais aussi à en apprendre un peu plus sur un certain nombre d’autres domaines du SEO. Si vous avez constaté que vous vous concentrez davantage sur le vecteur de croissance horizontale, vous avez peut-être déjà constaté que la règle pour les SEOs change souvent en fonction de l’équipe avec laquelle ils travaillent.

Si un SEO travaille avec :

  • Les créateurs de contenu : ils partagent l’analyse du trafic et des mots-clés.
  • Les développeurs : il s’agit généralement d’optimiser le site et sa vitesse de performance.
  • Les administrateurs système : c’est pour optimiser la performance de la vitesse.
  • Les analystes ou les responsables du marketing : ils doivent comprendre les données de performance économiques et le rôle du SEO par rapport aux autres sources de trafic.

Plus les SEOs peuvent s’intégrer dans tous les aspects relatifs à un site web, plus ils peuvent améliorer leur travail et les performances organiques du site.

Qu’en est-il des certifications SEO ?

Ces compétences peuvent-elles être certifiées ? Ma réponse est NON et j’en ai parlé en profondeur dans un article de 2019 « Meilleure certification SEO » (en italien).

Ce qui existe, ce sont les certifications fournies par les développeurs d’outils SEO ou les agences web. Dans le meilleur des cas, ces dernières représentent une confirmation – donnée par des experts SEO – qu’un parcours de formation a été (au moins) suivi et que des examens ont été passés. Dans le pire des cas, il s’agit de certificats de présence anodins déguisés en certifications.

D’un point de vue académique, il n’y a pas de cours spécifiques et personnellement, je ne suis pas en mesure de recommander une formation plutôt qu’une autre. Un état d’esprit informatique aide beaucoup pour les activités techniques, tandis qu’une compétence à caractère économique ou humaniste est un atout pour les activités stratégiques et créatives.

Et oui, les activités créatives en SEO existent !

Une bonne dose d’imagination – liée à la connaissance d’un secteur de marché spécifique – permet d’intercepter les intentions de recherche des consommateurs (même celles qui sont latentes) et de proposer des stratégies de contenu SEO qui répondent aux intentions et apportent un trafic de qualité.

Car – en fin de compte – la tâche « banale » des experts en SEO est toujours cette seule et unique : améliorer la qualité du trafic sur un site web au fil du temps. Par qualité, j’entends qu’il ajoute de la marginalité économique à l’entreprise à court, moyen et long terme.

Le reste est un bon mélange d’aspirations métriques et de futilités 🙂 .

Comment devenir un spécialiste du SEO et quel sera l’avenir du SEO ?

Dans cet article, j’ai essayé de présenter les compétences et les caractéristiques principales de la spécialiste SEO idéale – le « super-héros ». Cependant, comme je l’ai dit, il n’existe pas encore de certifications ad-hoc ou de cours académiques pour ceux qui veulent s’engager dans cette voie.

Que puis-je donc suggérer à ceux qui souhaitent entrer dans le monde du SEO et améliorer leur profil ? En d’autres termes, quel est l’avenir des spécialistes du SEO ?

Voici les mots d’Andrea Melloni, responsable du SEO chez Studio Cappello, l’une des agences de SEO les plus anciennes d’Italie :

 » La curiosité, la précision et l’état d’esprit stratégique : Je pense que ce sont les trois compétences fondamentales qui – au-delà des connaissances acquises par les tests et les formations – transforment un SEO junior en un SEO senior. La curiosité implique la volonté d’apprendre et d’aller plus loin. La précision signifie que l’on prend soin de chaque détail et que l’on trace ainsi un chemin à suivre. L’état d’esprit stratégique, quant à lui, est essentiel pour gérer les projets et communiquer efficacement avec les clients. Bien sûr, des erreurs peuvent se produire, qui ne sont rien d’autre que des étapes que nous franchissons avant d’atteindre les résultats convoités.”

Merci de votre attention.

Riccardo a commencé à travailler à la fin de 1999 après un diplôme d'ingénieur en informatique. Dans ces années il a appris la programmation en Coldfusion, JS, PHP, ASP, SQL, CSS, ... en développant des portails web, e-commerce, CMS. En 2010, il a été embauché par Studio Cappello en tant que spécialiste SEO et aujourd'hui il est Head of SEO et COO de l'agence. Il est l'un des principaux intervenants dans les événements italiens et joue habituellement sur Twitter avec les SEOs du monde entier.
Sujets en lien :