Liens et mentions : quelles évolutions dans la compréhension de l’algorithme ?
Le 22 avril 2021
37 minutes
Les participants
Pour ce 22e numéro, le Wamcast aborde un sujet important : le possible déclin des liens pour le calcul du positionnement d’une page, au profit des mentions de marques. Pour analyser les propos du spécialiste SEO Rand Fishkin, et apporter leur expertise sur le sujet : Florian Karmen, chef de projet SEO, Helder Fonseca, consultant RP, et David Eichholtzer, directeur et fondateur de WAM-Référencement.
SOMMAIRE
- Qu’avance Rand Fishkin dans son article ? (2’15)
- Liens induits : quels changements pour les RP ? (8’25)
- La mention, moins manipulable que le lien ? (13’35)
- Le machine learning : un virage technologique qui alimente l’hypothèse de Fishkin ? (18’40)
- L’évaluation E-A-T au service des liens induits (27’40)
- Quels sont les KPI qu’il faut suivre en RP en 2021 ? (31’15)
- Liens induits : quels impacts pour les décideurs ? (33’20)
Qu’avance Rand Fishkin dans son article sur les liens dans le SEO ? (2’15)
Rand Fishkin, l’un des plus grand spécialistes SEO du monde, a publié le 14 janvier dernier un article intitulé « Inferred Links Will Replace the Link Graph ». Titre que l’on pourrait traduire par « Les liens inférés (ou liens induits) remplaceront le graph de liens », que l’on a connu jusque-là. Décryptons ses propos.
Que dit Rand Fishkin ?
Le Link Graph dont parle Fishkin, c’est le graph qui régit, en quelque sorte, la hiérarchie entre les sites, au niveau de leur popularité. Schématiquement, plus un site est maillé par des liens hypertextes depuis des sites complémentaires et eux-mêmes populaires, plus Google va le visiter souvent.
Ce Link Graph a largement contribué au succès des stratégies SEO depuis que Google existe. Et il a donc suscité la passion des experts en SEO à travers le monde, en France en particulier, autour de l’importance du Saint Graal du SEO : le lien hypertexte. Au point qu’un marché de la vente de liens s’est créé.
Dans son article, Rand Fishkin tient le propos suivant : « depuis 25 ans, les liens sont au cœur de la façon dont Google classe les pages web ». Mais, aujourd’hui, Fishkin pense que la plupart des spécialistes du marketing surestiment considérablement leur importance.
Pour lui, les liens ne seront pas cruciaux pour le SEO et le classement de Google et seront remplacés par des références lexicales qui relient des sujets et des mots-clés à une marque, un site web ou une page. C’est ce qu’il appelle des « liens inférés ». Nous les appellerons, en français, des liens induits ou implicites.
Comment cela se traduit-il concrètement ?
Pour rendre tout ça plus clair, Fishkin donne l’exemple d’un produit : un cardigan de la marque Pendleton, dont il a analysé les liens pointant vers le site.
En l’occurrence, les meilleurs liens vers ce produit ne sont pas suivis par Google, car en « nofollow », postés par des communautés sur des médias sociaux comme Reddit ou Pinterest. En revanche, c’est là qu’il a trouvé les meilleures mentions : « Dans sa gamme de prix, je ne pense pas qu’il y ait un meilleur cardigan que vous puissiez acheter que le Westerley de Pendleton ».
Les liens suivis par Google sont générés par motivations mercantiles, dans des publications, blogs, magazines, via des campagnes de RP. Et ce, avec des mentions plus mécaniques appelant un lien direct vers le site de la marque : « Découvrez la sélection de cardigans pour hommes de Pendleton ».
Rand Fishkin soutient que la mention contextualisée agit comme une sorte d’approbation impartiale (notre premier exemple) et a, à son sens, une meilleure image que le lien (notre deuxième exemple). Selon lui, cette mention est d’ailleurs supérieure au lien dans le calcul qui fait le positionnement d’un site, d’une page, d’une marque. Toujours selon Fishkin, aujourd’hui, Google aurait la capacité d’interpréter les deux types : liens déduits et liens directs.
Quels avantages ?
Selon Rand Fishkin, les liens déduits ou implicites ont plusieurs avantages.
- Plus d’échelle. Il y a des millions de fois plus de textes que de liens sur le web. On imagine donc que ce système d’évaluation est probablement plus fructueux.
- Plus de contexte. Le texte peut être analysé sous tous les angles ou toutes les tonalités. Les seules limites réelles sont la puissance de calcul. Mais, comme Google est passé au machine learning, on peut imaginer que, dans quelques temps, il sera en capacité d’analyser toute cette masse d’informations contextuelles.
- Plus d’attribution. Qui a écrit ce contenu ? Où a-t-il été publié ? Quels signaux d’autorité et d’expertise l’auteur et l’éditeur portent-ils ? Étant donné que de nombreux liens sont ajoutés après la publication (en particulier dans les mondes du journalisme, des blogs), l’attribution entre écrivain / éditeur d’un côté, avec la marque/son concept/ses pages de l’autre côté, est extrêmement précieuse.
- Plus d’authenticité. Des liens existent parfois simplement par les bonnes intentions de certains auteurs. Mais, bien plus souvent, il y a une motivation financière ou des connaissances SEO derrière la création ou la modification d’un lien. C’est également possible avec du texte, mais probablement moins qu’avec le lien – entendez que c’est moins manipulable.
👉Retrouvez toutes les explications de Florian Karmen dès la 2e minute de ce 22e Wamcast.
Liens induits : quels changements pour les RP ? (8’25)
Consultant RP chez WAM, Helder Fonseca analyse l’article de Rand Fishkin, à partir de la 8e minute de ce podcast.
On retrouve dans l’article de Fishkin un lien avec les travaux de Ferdinand de Saussure. Ce linguiste s’est attaché à décortiquer ce qui compose les mots. Il a donc identifié le signifiant et le signifié. Le signifiant, c’est le mot exprimé à l’écrit ou à l’oral dans une langue. Le signifié, c’est ce que désigne le mot exprimé.
Si vous lisez le mot « chien », vous pensez spontanément à un chien. Nous n’avons pas tous la même image du chien, il y a des nuances. Mais on pense au même animal. Le signifiant et le signifié sont intimement liés et inséparables. Comme le recto et le verso d’une feuille de papier.
De la même manière, et selon ce que décrit Rand Fishkin, Google semble vouloir sublimer ce paradigme de signifiant et de signifié sur le web. Auparavant, pour les algorithmes, les mots étaient dépourvus de sens. Nous n’avions que le signifiant sans le signifié. Pour que le signifiant dispose de son signifié, il fallait lui ajouter un lien. C’est de cette manière que l’algorithme pouvait comprendre et interpréter les mentions de marque vers un site web. Selon Fishkin, aujourd’hui, nous n’aurions plus la nécessité, comme auparavant, de faire ce lien pour que l’algorithme comprenne.
Et c’est une aubaine pour les RP. Cela voudrait dire que, dès que vous êtes mentionné dans la presse, Google vous confère la puissance du média qui vous fait la mention et lie votre mention à votre site web. C’est ce qui se passe peut-être dans l’esprit des internautes, d’ailleurs. Il semble difficile de penser à Amazon sans penser à son site marchand.
Les RP ont trois missions : faire connaître, faire aimer et faire agir. Faire croître le nombre de mentions dans la presse, c’est le premier des éléments pour travailler ces trois objectifs. La presse vous cite si vous avez quelque chose de pertinent à proposer. Une expertise fiable. Mais il faut être encore plus pertinent ou plus fiable que ses concurrents. C’est le seul moyen d’émerger et de prendre la place. C’est par le contenu que cela se joue.
Toutefois, il faut bien avoir conscience que le travail du journaliste est d’informer. Dans la très grande majorité des cas, le journaliste va relayer votre propos et citer votre marque. Pour bon nombre d’entre eux, faire un lien, c’est faire de la pub. Et un journaliste dans l’exercice de son métier ne fait pas de pub. Il informe. Il n’ajoute donc jamais de lien, sauf si le communicant qui accompagne la marque se débrouille bien. De fait, il y a toujours des articles qui subsistent sans lien.
Si, désormais, Google fait la passerelle tout seul, les RP en ressortiront gagnants. Par ailleurs, cela peut permettre de faire le ménage dans de nombreuses pratiques de linking.
À lire aussi : Netlinking, guest blogging ou relations presse : les enjeux de la visibilité d’aujourd’hui
La mention, moins manipulable que le lien ? (13’35)
À son lancement, Google reposait sur l’idée que les liens fonctionnaient comme des votes pour une page, un site. Si une page obtient plus de votes que ses concurrents, elle devrait les surpasser.
Mais les experts du SEO ont vite trouvé des moyens de développer des votes fictifs. L’analyse des liens est devenue plus sophistiquée chez Google : texte d’ancrage, confiance, texte environnant, analyse de sujet, modélisation prédictive du surfeur, etc. Ces nouvelles techniques ont aidé Google à garder une longueur d’avance sur le spam et la manipulation des graphes de liens. Mais il s’agissait d’un jeu répétitif du chat et de la souris entre les SEO et les équipes de qualité de recherche et de lutte contre le spam chez Google.
Lors du SMX Paris en octobre 2019, nous avions pu nous entretenir avec John Mueller, Webmaster Trends Analyst. Nous lui avions posé la question suivante : « Le lien a encore beaucoup d’importance dans le classement de Google, au point que de nombreux réseaux de sites, les fameux PBN, se sont créés. C’est même un véritable marché, en particulier en France. Comment Google appréhende ce phénomène ? » Et John Mueller de répondre : « Il est difficile pour nous de repérer ces réseaux, mais quand nous en trouvons un ou que quelqu’un le dénonce, alors nous les supprimons ».
Google n’a pas les moyens techniques. Ou il ne souhaite pas en mettre pour ce genre de choses – sans doute anecdotiques à l’échelle du web. En tout cas, son énergie doit plutôt aller vers la lutte contre la désinformation. Et là, l’ampleur de la tâche est colossale. Bref, la stratégie de Google est plutôt de faire deux pas de côté et de contourner le problème.
John Mueller n’a de cesse de dire à la communauté SEO qu’elle accorde trop d’importance aux liens et qu’il est préférable de se concentrer sur la qualité des contenus et la création d’une marque. Il y a quand même un message en filigrane : « le lien perd de sa valeur ». C’est en tout cas le point de vue de David Eichholtzer, qui analyse les propos de Rand Fishkin, à partir de la 13e minute du podcast.
Le machine learning : un virage technologique qui alimente l’hypothèse de Fishkin ? (18’40)
Lors du SearchOn, en octobre 2020, Google a précisé que ses classements sont désormais construits par des algorithmes d’apprentissage profond. Dans ce modèle, les ingénieurs indiquent aux systèmes vers quel objectif ils doivent aller. C’est ce que l’on appelle l’apprentissage supervisé. Ainsi, les machines décident des critères de classement à utiliser et comment / quand les pondérer.
Ce que dit Rand Fishkin dans son article, c’est que si les calculs de la machine déterminent qu’un modèle avec des liens fortement pondérés est moins performant qu’un modèle avec des liens inférés plus pondérés, le système d’apprentissage modifiera automatiquement les poids de classement. D’autant que, toujours selon Fishkin, dans les systèmes les plus avancés construits par Google, la machine déterminerait non seulement la pondération, mais aussi les entrées elles-mêmes, découvrant potentiellement de nouvelles façons de classer une page, par elle-même.
Ce que soutient Fishkin, c’est qu’en 2021, les liens sont certainement encore de meilleurs critères de classement que les mentions de la marque, et que le système de sélection par apprentissage automatique les favorise toujours.
Il n’y a pas d’étude à ce jour qui permette d’identifier si ce mode de sélection est déjà effectif, et encore moins de savoir dans quelles proportions. C’est du cas par cas, donc très difficile à mesurer. Cela signifie surtout que la manière de mesurer ces indicateurs doit évoluer. Il y a encore quelques années, on comptait le nombre de liens, le nombre de sites différents faisant des liens, etc. C’est toute cette mécanique qui évolue.
Le machine learning a fait son entrée dans le jeu des classements – comme chez Bing, d’ailleurs – et il y a fort à parier que la valeur des critères propres aux liens ait baissé ces dernières années. Ou tout du moins évolué au profit de nouvelles approches, prenant davantage en compte le contexte du texte qui mentionne une marque.
Plusieurs arguments appuient ces propos. D’une part, Google a fortement progressé sur l’analyse du contexte qui se dégage d’un contenu, notamment sur la désambiguïsation des termes, via ses progrès avec l’algorithme Bert et ses déclinaisons. Il est donc tout à fait faisable, en pratique, de distinguer le nom d’une marque et surtout d’en apprécier la tonalité, positive ou négative, voire de repérer des commentaires plus précis.
Ensuite, on sait que Google, comme Bing, utilise les knowledge graph pour cartographier les choses qui font notre monde, par types d’entités nommées : des noms des lieux, des événements, etc. D’ailleurs, les recherches d’entités nommées sont très courantes – elles comptent parmi les plus populaires sur le web. Une entité nommée est une chose à laquelle est associé un nom propre. Les recherches de ces entités comprennent donc des recherches de personnes ou de lieux, des événements, des noms d’entreprises et d’autres organisations, mais aussi différents types de produits, tels que des livres ou des films.
👉 Retrouvez toutes les explications de David Eichholtzer et Florian Karmen, et des exemples concrets sur l’utilisation des bases de connaissance, à partir de la 18e minute de ce Wamcast.
À lire aussi : Tout savoir sur la compréhension du contenu par la machine
L’évaluation E-A-T au service des liens induits (27’40)
L’évaluation E-A-T repose sur trois piliers.
- L’expertise. Quel est le niveau d’expertise de l’entité qui édite le site, dans son domaine ?
- L’autorité. Sa voix porte-t-elle dans son écosystème ?
- La fiabilité. L’entité est-elle fiable ? Quel est le niveau de sa réputation, notamment par le biais des avis ?
À travers cela, Google cherche à sélectionner les pages et sites dignes de confiance, selon l’intention de recherche de l’internaute. Par exemple, lorsqu’un utilisateur fait une recherche sur Google, voici les deux questions qu’il se pose :
- « Est-ce que je peux faire confiance à ce site, à l’entité qui se cache derrière ? »
- « Les informations que je lis à travers ces pages sont-elles vraies, est ce que je peux faire confiance à son auteur ? »
Avec l’évaluation E-A-T, il n’est pas nécessairement question de liens hypertexte. Du moins, le propos de Google est bien nuancé. On parle bien d’une évaluation et non d’un algorithme. Une évaluation faite par des milliers de quality raters qui utilisent une grille d’évaluation pour juger si un contenu, une page, un site, répond de façon pleinement satisfaisante à la demande d’un internaute ou non, à travers 5 niveaux d’évaluation.
Ben Gomes, de Google, explique que l’évaluation E-A-T n’agit pas directement sur les classements d’un site : « vous pouvez voir les directives des évaluateurs comme une destination de l’algorithme de recherche. Ils ne vous disent pas comment l’algorithme classe les résultats, mais ils montrent fondamentalement ce que l’algorithme doit faire. »
En réalité, cette évaluation est supervisée par les humains. Gary Illyes, Webmaster Trends Analyst chez Google, précisait en octobre 2019, au Pub Con de Las Vegas : « Google dispose d’une collection de millions de petits algorithmes qui travaillent à l’unisson pour proposer un score de classement. Beaucoup de ces ‘’bébés’’ algorithmes recherchent des signaux dans les pages ou le contenu. »
Pour l’heure, ne nous y trompons pas, Gary Illyes prend soin de préciser que les algorithmes de Google recherchent des signaux en corrélation avec de bons ou de mauvais EAT, tels que le PageRank, « qui utilise des liens sur le web pour comprendre l’autorité ». On voit toutefois à travers cet exemple E-A-T que Google dispose des moyens nécessaires pour évaluer la qualité d’un site ou d’une marque à travers des centaines de signaux, que ses algorithmes vont aller chercher.
Quels sont les KPI qu’il faut suivre en RP en 2021 ? (31’15)
Traditionnellement, les critères de réussite des RP sont le nombre de relais d’une info partagée à la presse, si les messages sont bien repris, et la tonalité de l’article. Pour rendre compte de l’exposition, les professionnels des RP traduisent l’espace de l’article en équivalence d’achat d’espace pub. En somme, combien faudrait-il dépenser en pub pour avoir la même chose ? Une tendance fausse, qui n’est pas suivie chez WAM.
Comme expliqué précédemment, les missions des RP sont de faire connaître, de faire aimer et de faire agir. Dans ce cas, on peut s’aider d’un outil comme Google Trends pour voir si l’intérêt auprès d’une marque a grandi à la suite des actions. Et si cet intérêt se traduit en visites sur le site, à travers les outils de mesure Analytics.
On peut également voir vers quelles pages est fléché ce trafic, et s’il y a corrélation avec une action RP. On ne réfléchit pas l’action sous le prisme d’une dépense, comme c’est le cas avec l’équivalence publicitaire, mais plutôt en gains.
Liens induits : quels impacts pour les décideurs ? (33’20)
Pour finir ce Wamcast, les experts de WAM-Référencement font le point sur l’impact que peuvent avoir les liens induits pour les marketeurs et les décideurs.
Pour Helder Fonseca, les RP, ce n’est pas un placement de produit. Si vous activez ce levier, c’est que vous avez une vision à porter. Ce n’est pas le nom de votre marque qui intéresse (le signifiant) mais plutôt votre expertise, votre savoir-faire (le signifié). Il faut parvenir à ce que votre marque soit synonyme d’un savoir-faire aussi indissociable que le recto et le verso d’une feuille. Et dans ce but, les Relations Publiques sont un excellent levier.
Pour Florian Karmen, il faut intégrer le knowledge graph avec votre marque, vos produits si possible, et vos principaux auteurs s’ils sont de véritables experts, pour que votre marque soit reconnue par Google. Ainsi, vous maximisez vos chances d’apparaître en tête des classements.
Enfin, selon David Eichholtzer, il faut utiliser les données structurées pour contextualiser les contenus. Est-ce qu’il s’agit de recettes, d’articles de news, de produits ? En utilisant les balises sémantiques, vous aidez Google et Bing à comprendre vos contenus, leur contexte d’utilisation, et vous favorisez donc votre apparition dans les classements pour les recherches associées.
On pourrait également dire qu’il faut soigner, plus que jamais, l’expérience d’achat avec votre marque. Pour rester concret, il y a deux leviers clés à actionner en 2021 :
- La réputation de la marque, matérialisée par les avis. Google a lancé une offensive du côté des avis clients, avec un algorithme censé trier le bon grain de l’ivraie, puisqu’il y a là aussi un terrain de manipulation pour les spammeurs.
- Les critères d’engagement de l’utilisateur avec le résultat présenté par Google lors de la search experience. Vous devez obtenir le premier clic et garder l’utilisateur, ou au moins un clic long avant que l’utilisateur ne reparte. Et, sinon, être le dernier clic lors de la search experience. On touche au cœur de l’expérience utilisateur, qui est LE sujet des années à venir pour le SEO.
À lire aussi : Quelles sont les synergies entre SEO et UX ?
Nos derniers Wamcasts
Voir tous les podcasts-
Search 2025 : quels enjeux pour l’autorité digitale de votre marque ?
38 minutes
-
Stratégie e-commerce : comment augmenter la visibilité de vos produits sur Google ?
33 minutes
-
Design de l’attention : pourquoi et comment faciliter l’UX ?
60 minutes
-
Quels enjeux pour les marques sur TikTok ?
45 minutes
V Voir tous les articles podcasts