8 épisodes

Les Petites Histoires du SEO est une série de podcasts qui se donne pour ambition de vous dévoiler tous les secrets du monde merveilleux du SEO.
Comment Google fonctionne pour effectuer son classement dans ses pages de résultats. Quels sont les différents algorithmes qu'il utilise pour évaluer une page web, comprendre son contenu, et afficher les résultats les plus pertinents en fonction de la requête de l'utilisateur ? Qu'est-ce que le SEO ou référencement naturel ? Comment optimiser son contenu pour qu'il plaise autant aux internautes qu'aux robots des moteurs de recherche ?

Les Petites Histoires Du SEO Julien Gourdon Consultant SEO

    • Actualités
    • 5,0 • 1 note

Les Petites Histoires du SEO est une série de podcasts qui se donne pour ambition de vous dévoiler tous les secrets du monde merveilleux du SEO.
Comment Google fonctionne pour effectuer son classement dans ses pages de résultats. Quels sont les différents algorithmes qu'il utilise pour évaluer une page web, comprendre son contenu, et afficher les résultats les plus pertinents en fonction de la requête de l'utilisateur ? Qu'est-ce que le SEO ou référencement naturel ? Comment optimiser son contenu pour qu'il plaise autant aux internautes qu'aux robots des moteurs de recherche ?

    Quel avenir pour le SEO ? - Ep. 8 - LPHS

    Quel avenir pour le SEO ? - Ep. 8 - LPHS

    Quelles seront les grandes tendances du référencement naturel dans les prochaines années ?

    Le SEO est une stratégie de marketing en ligne qui vise à améliorer le classement d'un site web dans les pages de résultats des moteurs de recherche. Cette technique a vu le jour dans les années 1990, lorsque les premiers moteurs de recherche comme Altavista et Yahoo ont été lancés.

    Au début, le classement dans les pages de résultat était principalement basé sur des mots-clés et des liens entrants, c'est-à-dire des liens provenant d'autres sites web pointant vers le site en question. Cette approche était simple et facile à manipuler, ce qui a mené à des pratiques douteuses comme l'achat de liens et le bourrage de mots-clé.

    Mais la donne va changer lorsque Google arrive sur le marché en 1998 avec un tout nouvel algorithme, le PageRank. Cet algorithme de classement des résultats tient compte de la qualité et de la quantité des liens pointant vers une page, ainsi que de la qualité des pages qui les font référence. Plus une page a de liens de qualité, plus son pagerank est élevé, ce qui lui permet d'apparaître en haut des résultats de recherche.

    Depuis, le pagerank a été constamment amélioré et mis à jour pour tenir compte des évolutions du web et des comportements des utilisateurs. Et de la même façon, le SEO a évolué constamment pour s'adapter aux changements des algorithmes de classement des moteurs de recherche et aux attentes des utilisateurs. Aujourd'hui, le SEO comprend une variété de techniques pour améliorer le classement d'un site, telles que l'optimisation de la structure du site et la génération de liens entrants de qualité, ou encore la création de contenu multi formats visant à occuper un maximum d’espace en fonction des multiples affichages que propose Google dans ses pages de résultats. La création de contenu de qualité peut d’ailleurs aujourd’hui se faire à l’aide de l’intelligence artificielle, les techniques de traitement automatique du langage étant suffisamment matures pour générer en quelques clics et quelques secondes des contenus d’une qualité tout à fait satisfaisante sur des thématiques extrêmement variées. Et si vous en doutez encore, et je ne devrais sans doute pas vous le dire, mais sachez que le podcast que vous êtes en train d’écouter actuellement a été presque entièrement rédigé par l’intelligence artificielle dont tout le monde parle aujourd’hui, à savoir ChatGPT, qui appartient à OpenAI, dont l’un des propriétaires n’est autre qu’Elon Musk.

    Et cela ouvre des perspectives immenses pour le futur.

    Et l’avenir, justement, parlons-en. S’il est difficile de prédire ce que nous réserve le SEO dans les prochaines années, il y a de fortes chances qu’il soit de plus en plus axé sur les données et l’analyse. Les algorithmes des moteurs de recherche deviendront de plus en plus sophistiqués et capables de traiter des quantités massives de données pour comprendre de manière plus approfondie les requêtes des utilisateurs et le contenu des sites Web. Cela signifie que les stratégies SEO devront être fondées sur des données solides et des analyses approfondies pour être efficaces.

    De plus, il y a de fortes chances que le SEO devienne de plus en plus intégré à d'autres stratégies de marketing en ligne, telles que les campagnes publicitaires en ligne, les médias sociaux et les marketing d'influence...


    Retrouvez le podcast Quel avenir pour le SEO ? sur YouTube :

    https://www.youtube.com/watch?v=ek2og7CIORI


    Retrouvez le podcast Quel avenir pour le SEO ? sur mon site internet :


    https://julien-gourdon.fr/podcast-seo/quel-avenir-pour-le-seo

    • 4 min
    C'est quoi un bon consultant SEO ? - Ep. 7 - LPHS

    C'est quoi un bon consultant SEO ? - Ep. 7 - LPHS

    Qu’est-ce qui distingue un bon consultant SEO d’un consultant lambda ? Qu’est-ce qui fait qu’un expert en référencement naturel va réussir à se démarquer, devenir une référence dans son métier et attirer de nombreux clients grâce à sa réputation ?

    Voici les 6 qualités indispensables que doit rassembler à mon sens un consultant SEO pour sortir du lot.



    Retrouvez le podcast C'est quoi un bon consultant SEO ? sur YouTube :

    https://www.youtube.com/watch?v=DzCTpHNIC-o

    Retrouver le podcast C'est quoi un bon consultant SEO ? sur mon site internet :

    https://julien-gourdon.fr/podcast-seo/c-est-quoi-un-bon-consultant-seo

    • 4 min
    Une entité nommée c'est quoi ? - Ep. 6 - LPHS

    Une entité nommée c'est quoi ? - Ep. 6 - LPHS

    En réalité, il n’existe pas de consensus réel sur la définition d’entité nommée, puisqu’elle est souvent dépendante de son champ d’application, qui peut être multiple et varié. Toutefois, lorsqu’il s’agit de traitement automatique du langage naturel et de recherche du sens d’un texte ou d’une requête (puisque c’est bien de ça dont nous souhaitons parler dans cet épisode), on peut définir une entité nommée comme un objet textuel (c’est à dire un mot ou un groupe de mots) catégorisable dans des classes qui peuvent être par exemple des lieux, des personnes ou des organisations, auxquelles nous pouvons rattacher des caractéristiques ou attributs.

    Le concept de reconnaissance et d’exploitation des entités nommées au sein d’un document textuel est apparu dans le milieu des années 90. Il est aujourd’hui un élément incontournable dans le traitement automatique du langage naturel.

    Selon une étude menée par Microsoft en 2010, entre 20 et 30% des requêtes soumises dans Bing, son moteur de recherche, étaient des entités nommées à parts entières, et 71% d’entre elles contenaient au moins une entité nommée dans la question posée. On comprend alors tout l’intérêt pour un moteur de recherche de constituer une gigantesque base de données d’entités nommées permettant de catégoriser des requêtes et des pages web afin de simplifier l’extraction de la bonne information et d’améliorer la pertinence des résultats.

    2010, c’est également l’année où Google rachète Metaweb, une société connue pour avoir développé Freebase, une base de données de plusieurs millions d’entités nommées.

    C’est avec cette base de données, qui rassemble aujourd’hui 500 milliards de faits au sujet de 5 milliards d’entités selon les dernières informations données par Google en 2020, que le moteur de recherche a déployé son knowledge graph, ou arbre de connaissances, à partir de 2012.

    Il faut cependant savoir que la reconnaissance des entités nommées se heurte à plusieurs défis de taille, parmi lesquels nous pouvons en citer 2.

    Le premier défi est celui de la désambiguïsation sémantique lexicale. Un même terme peut en effet avoir plusieurs sens différents. On dit alors qu’il est polysémique. L’exemple classique qu’on donne en SEO est le terme jaguar, qui peut à la fois désigner l’animal sauvage mais également la marque de voiture de luxe. Dans le cadre d’une recherche d’information sur un moteur de recherche, lorsque l’utilisateur utilise le terme jaguar (qui est donc une entité qui peut soit avoir pour type “le nom d’une organisation”, soit avoir pour type “le nom d’un animal”) dans sa requête, le moteur de recherche va devoir analyser le contexte dans lequel se trouve le terme (qui peut être les mots entourant jaguar, mais également l’historique des recherches de l’utilisateur ou encore sa position géographique au moment où il effectue sa recherche) pour comprendre le véritable besoin de l’internaute et lui renvoyer les résultats les plus pertinents. Un scoring sera par ailleurs mis en place afin de déterminer la probabilité qu’un utilisateur recherche plutôt telle ou telle information lorsqu’il tape une requête de type “jaguar” dans le moteur de recherche.

    Etc.

    Retrouvez ce podcast SEO sur mon site :

    https://julien-gourdon.fr/podcast-seo/c-est-quoi-une-entite-nommee

    Ou retrouvez le podcast Une entité nommée c'est quoi sur YouTube :

    https://www.youtube.com/watch?v=DzCTpHNIC-o

    • 7 min
    Le PageRank c'est quoi ? - Ep. 5 - LPHS

    Le PageRank c'est quoi ? - Ep. 5 - LPHS

    Comme nous l’avons vu dans un précédent épisode, le PageRank est l’algorithme fondateur de Google, qui fut à l’origine de son succès. Créé par Larry page, un des cofondateurs du moteur de recherche, il est expliqué en détail dans un article en date du 29 janvier 1998, que l’on peut facilement consulter sur le web. Mais comment expliquer le PageRank en quelques mots ?

    Pour cela, il faut déjà comprendre la problématique qui se pose à tout moteur de recherche. Comment trouver un modèle qui puisse automatiquement et rapidement fournir les résultats les plus pertinents à l’utilisateur en recherche d’information ?

    C’est la base !

    Un utilisateur qui juge les résultats qu’on lui renvoie peu pertinents par rapport à sa recherche passera chez la concurrence et ne reviendra pas de sitôt. La qualité des résultats fournis est donc cruciale pour un moteur de recherche.

    C’est donc à cet épineux problème que c’est attaqué Larry Page en créant le PageRank.

    Son postulat de départ consiste à dire que les pages les plus populaires doivent être les mieux classées dans un moteur de recherche.

    Pourquoi ? Parce que si une page est souvent visitée par un grand nombre d’internautes, c’est qu’elle leur plaît et il est donc normal que les moteurs de recherche poussent ces pages web.

    Mais le problème est qu’en 1998, il n’existe aucun moyen de mesurer l’audience d’un site web. Rappelons que Google Analytics ne sera lancé qu’en 2005 et qu’il n’existe alors pas encore d’outil pour connaître le trafic d’un site.

    Pour autant, une estimation de l’audience ne semble pas insurmontable.

    Imaginons pour commencer que le web soit représenté par un graphe orienté, où chaque nœud représente une page web, et chaque arc reliant les nœuds entre eux un lien hypertexte pointant d’une page vers une autre. Intuitivement, on peut aisément se visualiser le fait que plus un nœud A est relié à d’autres nœuds, plus ce nœud A est gros et est donc plus visible que les autres.

    Mais encore faut-il donner une base scientifique à cette intuition pour la rendre tangible.

    Pour cela, Larry Page va modéliser un visiteur virtuel, appelé “surfeur aléatoire”. C’est l’idée selon laquelle un internaute, lorsqu’il se retrouve sur une page web quelconque, a deux comportements possibles. Soit il clique sur un des liens se trouvant sur la page, soit aucun de ces liens ne l’intéresse et il se téléporte sur une autre page quelconque, en ouvrant un nouvel onglet dans son navigateur par exemple.

    Retrouvez le podcast Qu'est-ce que le PageRank sur YouTube :

    https://www.youtube.com/watch?v=8kZfwu2CPA0

    • 7 min
    Le Natural Language Processing c'est quoi ? - Ep. 4 - LPHS

    Le Natural Language Processing c'est quoi ? - Ep. 4 - LPHS

    Qu’est-ce que le Natural Language Processing ? Et quel est son rapport avec le SEO ?

    Le Natural Language Processing a pour objectif de permettre aux machines de comprendre le langage humain, et est notamment utilisé dans la recherche d’information. C’est une technologie utilisée par Google pour traiter, comprendre et classer le contenu des pages web, mais également les recherches des utilisateurs.

    D'un point de vue historique, une théorie majeure fut développée au milieu des années 50. Il s’agit de ce que l’on appelle l’hypothèse distributionnelle. Elle pose l’idée que les mots qui se trouvent dans des contextes d’apparition proches tendent à avoir des significations similaires.

    Plusieurs décennies plus tard, en 1983, Gerard Salton propose le modèle vectoriel, qui consiste à représenter des documents textuels ou des listes de mots sous la forme de vecteurs, c'est-à-dire de valeurs numériques.

    Parallèlement, ce même Gérard Salton propose d’utiliser une méthode statistique de pondération, appelée TF-IDF, pour évaluer l’importance d’un terme, devenu une valeur numérique, dans un document.

    A partir des années 2010, on commence à utiliser des réseaux de neurones artificielles en NLP.

    En 2013, des algorithmes entraînés par des réseaux de neurones et développés  par les équipes de Google ont permis de mettre au point le système Word2Vec, un algorithme de word embedding, capable d’identifier les relations entre les mots en prenant en compte le contexte dans lequel ces mots, transformés en vecteur, apparaissent.

    Mais depuis 2013, Google ne cesse de repousser les frontières du traitement automatique du langage naturel. On peut citer BERT, son algorithme à l'œuvre depuis 2019 pour comprendre encore plus précisément les requêtes des utilisateurs.

    Fin 2020, Google annonce que sa mise à jour “passage indexing” lui permet d’identifier un passage précis d’un contenu qui répond selon lui précisément à la requête de l’internaute. De cette manière, Google peut renvoyer à l’utilisateur un extrait d’un contenu en réponse à sa recherche, peu importe que le contenu d’ensemble de la page n’ait qu’un rapport lointain avec la demande de l’utilisateur.

    On le voit, la compréhension qu'a Google de votre contenu est précise.

    Les avancées en traitement automatique du langage naturel montre qu’aujourd’hui il est totalement improductif de bourrer votre contenu du mot-clé sur lequel vous souhaitez vous positionner.

    De la même manière, les longs textes dilués ne servent à rien. Au contraire. Google souhaite mettre en avant des textes précis, allant à l’essentiel, clairs dans l’objectif qu’ils se donnent de répondre à telle ou telle problématique, autant dans leur globalité que dans chacune des sous-thématiques abordées. Gardez toujours à l’esprit. Ce que Google veut, c’est afficher les réponses les plus pertinentes à la requête de l’utilisateur.

    Pour optimiser un contenu, il faut donc d’abord et avant tout être clair dans l’intention qu’on se donne de répondre à une problématique rencontrée par vos utilisateurs. Et plutôt que de bourrer votre page du même mot-clé sur lequel vous souhaitez vous positionner, demandez-vous plutôt quels sont les termes et les thèmes qui tournent autour et qui sont régulièrement abordés lorsqu’on parle du sujet sur lequel vous souhaitez prendre la parole. Structurez votre contenu en conséquence. Chacun des sujets connexes à votre sujet principal pourra faire l’objet d’une sous-partie ou d’un paragraphe spécifique.

    Cette manière de structurer votre contenu plaira autant aux internautes qu’au moteur de recherche. Et c’est la combinaison gagnante pour vous rapprocher des premières places dans les pages de résultats de Google.

    Retrouvez le podcast Qu'est-ce que le Natural Language Processing sur YouTube :

    https://www.youtube.com/watch?v=5eGX_aturVM

    • 7 min
    Quels sont les 3 piliers fondamentaux du SEO ? - Ep. 3 - LPHS

    Quels sont les 3 piliers fondamentaux du SEO ? - Ep. 3 - LPHS

    En SEO, on a l’habitude de dire qu’il faut travailler 3 piliers fondamentaux pour maximiser ses chances d’être bien positionnés dans les pages de résultats des moteurs de recherche. Quels sont-ils ?

    1 - Le contenu

    Le premier pilier fondamental qu’il faut absolument travailler pour une bonne stratégie de référencement naturel est le contenu de votre site. Les moteurs de recherche et vos internautes, veulent des contenus de qualité, qui apportent une réelle valeur ajoutée et répondent à leurs questions. Pour y arriver, vous devez d’abord et avant tout vous concentrer sur l’intention de recherche des utilisateurs. Comment comprendre la réelle intention de recherche des internautes. Tapez un mot-clé de votre thématique dans Google et analysez les résultats affichés en première page. Y a-t-il beaucoup de résultats images ou vidéos ? Est-ce que ce sont surtout des fiches produits ou de longs articles de blogs qui se positionnent sur la requête ? Ce sont autant d’indications sur ce que recherchent les internautes. A vous d’adapter votre contenu en conséquence.

    2 - La technique

    Le deuxième pilier fondamental du SEO est la technique. L’objectif ici est d’améliorer l’exploration et l’indexation des pages de votre site par les robots des moteurs de recherche. Derrière ces termes techniques se cache en réalité une évidence. Pour que Google puisse bien positionner vos contenus dans ses pages de résultats, encore faut-il qu’il les connaisse.

    Il faut donc aider ses robots d’exploration à découvrir vos pages. Comme les robots parcourent un site en suivant ses liens internes, le maillage interne est un élément incontournable d’une bonne stratégie SEO. Tous les contenus ayant un intérêt à être visibles dans Google doivent être accessibles en quelques clics depuis la home. Et toutes les pages parlant de la même thématique doivent être maillées entre elles. C’est utile autant pour les utilisateurs que pour les robots, qui vont d’autant mieux comprendre les différents sujets abordés sur votre site que votre maillage interne sera cohérent. Et si malgré tous vos efforts certaines pages ne sont toujours pas indexées dans Google ? Crawlez votre site et vérifiez s’il n’y a pas des soucis techniques empêchant vos contenus d’être indexés.

    3 - La popularité

    Le troisième pilier fondamental du SEO est la popularité, c'est à dire le nombre et la qualité des backlinks obtenus par une page web. Il s’agit  du pilier originel du SEO, puisque c’est en identifiant le nombre de liens obtenus par une page que Google a commencé à effectuer son classement. Plus une page recevait de liens externes, plus cela voulait dire qu’elle était populaire et donc pertinente pour apparaître dans les résultats de Google. C’est ce qu’on appelle le Pagerank, le premier des algorithmes de Google. Cet algorithme a évolué et s’est perfectionné au fil des années, et on parle aujourd’hui de pagerank thématique. Ca veut dire que désormais, il est nécessaire de s’intéresser à la thématique de la page qui fait un lien vers une autre page. Plus la thématique d’une page qui contient un lien sera proche de celle qui reçoit ce lien, plus ce backlink aura de la valeur aux yeux de Google. Les SEO vont donc optimiser la popularité d’un site en travaillant ce qu’on appelle le profil de liens de ce site. Le nerf de la guerre est d’obtenir des backlinks de sites déjà populaires aux yeux de Google et traitant de la même thématique que le site qu’on cherche à optimiser. Et tout ça avec des ancres de liens variés pour ne pas que le moteur de recherche suspecte une suroptimisation !

    En bref, les 3 piliers du SEO que sont le contenu, la technique et la popularité, sont indispensables à la mise en place d’une bonne stratégie de référencement naturel. Mais ils sont également complémentaires.

    Et un bon référenceur est un référenceur qui ma

    • 4 min

Avis

5,0 sur 5
1 note

1 note

Classement des podcasts dans Actualités

RTL
AQABABE
Hugo Décrypte
Anna Rvr
RTL
Europe 1