SMX 2019 : ce qu’il faut retenir

Le 29 novembre 2019

28 minutes

Partager sur :

L’équipe de WAM Référencement vous propose un tour d’horizon de tout ce qui fait le SEO : actualités, data, contenus, relations presse, etc. Pour ce 3e numéro du Wamcast, notre podcast SEO en français, WAM-Référencement était une nouvelle fois au SMX cette année. L’organisation a souhaité marquer le coup pour sa 10ème édition avec la participation de John Mueller, Web Trend Analyst chez Google. Il s’est ainsi prêté au jeu d’une session ouverte de questions-réponses animée par David Eichholtzer, Directeur de WAM-Référencement, et Virginie Clève, Directrice de Largow, et à des entretiens privés sur des questions SEO. Nous vous proposons de revenir sur ce qui a attiré notre attention lors de cette nouvelle édition du SMX.

Entretien privé WAM-Référencement / John Mueller

« WAM » a ainsi pu bénéficier d’une dizaine de minutes d’entretien en tête-à-tête avec John Mueller, Web Trend Analyst de Google et au centre des relations entre les SEO et Google. L’agence a ainsi profité de cette occasion pour aborder cinq questions concernant la lutte contre le spam, l’impact de l’affect des utilisateurs avec une marque dans les comportements de recherche, la distinction selon l’algorithme entre articles et liens sponsorisés et articles et liens de presse naturels, l’impact d’E-A-T dans le référencement naturel et la visibilité dans Discover.

Lutte contre le spam

– Question : Nous imaginons la difficulté quotidienne, pour Google, de faire évoluer la qualité de ses résultats. Dans le concept E-A-T (déjà abordé lors du 2eme épisode de ce podcast), on devine très bien le souhait d’ajouter du contexte, de la sensibilité humaine pour apprécier les résultats. Est ce que cela sonne le glas des pratiques de spam, telles que les PBN (à savoir diriger des liens en masse vers un domaine, depuis un réseau de faux sites), offre de référencement, très visibles en France ? Est-ce que cette pratique est dans les radars de Google ?

– Réponse de John Mueller : “Évidemment, nous sommes au courant de toutes ces pratiques. Le spam est traité de manière automatique quand cela est possible. Quand c’est flagrant, ce type de site peut être neutralisé. Mais parfois, c’est plus complexe. Nous avons pleinement conscience que nous n’avons pas la capacité de tout détecter. En somme, si toute la stratégie SEO d’un site repose sur les PBN, le site sera repéré. Si le site a été pénalisé une fois, toute la base sur laquelle il a reposé disparaît. Même si on effectue une “Reconsideration Request” auprès de Google, il sera très difficile de retrouver son positionnement.”

Commentaires : Comme attendu, Google n’approuve pas cette pratique. Mais, l’information importante c’est que Google a parfois du mal à courir après ces réseaux qui poussent très vite et qui sont parfois assez sophistiqué. John Mueller a même ajouté plus tard durant la session de questions-réponses que ces pratiques les poussaient à améliorer leurs algorithmes. Cependant, nous déconseillons de pratiquer ce type de réseaux dès lors que l’on est une marque identifié du grand public. La pérennité de la visibilité organique n’est pas assurée à long terme.

Impact de l’affect des internautes avec une marque dans les les résultats de recherche

– Question : On parle souvent de popularité dans le monde du SEO pour désigner l’autorité. Or la popularité est le fait d’être aimée par une communauté. Le fait de faire un lien ou de mentionner une marque est un des indicateurs qui peut déterminer la popularité. Mais existe-t-il d’autres indicateurs pour mesurer l’affect que les internautes accordent à une marque et son site ?

– Réponse : “Je ne pense pas que la prise en compte de l’affect dans les critères marcherait pour trier les résultats de recherche. C’est intéressant d’essayer de mesurer cela dans le cadre d’un site web pour savoir quel rapport ont les utilisateurs à la marque. Nous avons nous-même des indicateurs de ce type pour qualifier la qualité de nos réponses. Mais nous n’utilisons pas ce critère pour classer nos résultats de recherche.”

Commentaires : La question cachée était évidemment de savoir si Google prend en compte des indicateurs d’engagement de l’utilisateur avec un résultat de recherche, comme le taux de clics, le temps de lecture du résultat après le clic et avant le retour sur la page de résultats, ou même tout autre indicateur de ce type. Comme à son habitude, Google reste sur sa ligne et s’évertue à nous dire qu’il ne prend pas en compte ces signaux. Pourtant, il y a un mix d’indicateurs qui sont pris en compte. Différents SEO l’ont démontré empiriquement, notamment Rand Fishkin de Sparktoro, Tom Capper de Distilled. Nous avons nous-même déjà pu en faire l’expérience, en particulier sur les 5 premiers résultats de Google. On sait que l’interaction des utilisateurs avec un résultat est pris d’une certaine façon en compte par Google. On observe des fluctuations continues sur des requêtes phares très disputées en e-commerce sur cette tranche de résultats. Mais la réponse officielle reste « non »

Différence entre un article sponsorisé et un article naturel

– Question : Concernant l’autorité des marques, la lecture des Guidelines QR, est rassurante, puisque la présence d’une marque dans la presse par le biais des mentions, voire des liens sont des signaux pris en compte positivement par Google. Quel poids accordez-vous aux fruits des campagnes de Relations Presse ? Comment arrivez-vous à faire la différence avec une présence payée lors d’un article sponsorisé par exemple ?

– Réponse : “On voit ce genre de pratique de temps en temps. Les articles sponsorisés, les placements achetés sur les sites média,… Ce sont des choses que l’on voit parfois et auxquelles nous accordons de l’attention. Nous n’ignorons pas complètement le problème mais parfois c’est très compliqué de faire la différence. Habituellement, et c’est ce que j’ai remarqué de manière empirique c’est que c’est flagrant quand il s’agit de sites qui n’existent que de cette manière. L’algorithme peut parfois considérer un article comme naturel mais quand vous le regardez de plus près, que vous regardez l’ensemble des articles, qui comportent tous des ancres optimisées qui pointent toutes vers un seul et même site… Ce genre de choses est assez flagrant et dans ce cas de figure nous menons des actions pour pénaliser ou sanctionner.”

Commentaires : Google nous dit voir ce genre de pratiques et agir contre leurs abus. Mais John Mueller nous indique aussi qu’il est difficile pour l’algorithme de faire la différence entre un article sponsorisé et un article naturel. En d’autres termes, s’il n’y a pas une action sanction manuelle de la part de Google ou pas d’évolution majeure dans l’algorithme, ce type de netlinking sera toujours aussi impactant. On est toutefois pas exactement dans le même registre que le PBN, dont la qualité de contenu globale n’a rien à voir avec un site média.

L’impact d’E-A-T dans les classements des résultats de recherche

– Question : On a le sentiment que ce concept joue plutôt un rôle pour les mauvais élèves, E-A-T fait un tri en évinçant ceux qui ne répondent pas à l’intention. Mais pour un bon élève cela n’entre pas du tout en jeu / son classement. C’est bien la vocation de ce concept ?

– Réponse : “Je pense que c’est un peu des deux. Premièrement, nous n’avons pas d’algorithme E-A-T focalisé spécifiquement là-dessus. Mais dans les consignes que l’on donne aux Quality Raters, nous mentionnons explicitement quel type de sites sont vraiment importants. Il est nécessaire d’évaluer le contenu sur les sites. Les internautes sont vraiment très attentifs à cela. Donc quand les sites fournissent du contenu de qualité, on le souligne et on le met en avant. Mais c’est également le cas pour les sites qui ne jouent pas le jeu et dans ce cas nous les mettons moins en avant.”

Commentaires : Le contenu, le contenu et encore le contenu. La valeur informative du contenu semble prendre toujours plus de poids dans les évaluations demandées aux Quality Raters.

Quels critères et quelles informations pour performer dans Discover

– Question : Les webmasters disposent de très peu d’informations pour améliorer leur visibilité dans Discover. Nous attachons beaucoup d’importance à la qualité des contenus chez WAM. Notre équipe rédactionnelle est composée de journalistes. Nous avons remarqué que si nous avions un contenu en relation avec une actualité, nous obtenions une visibilité dans Discover. Mais on n’en sait pas plus ? Avez-vous des conseils ?

– Réponse : “C’est une question délicate car on ne travaille pas sur des requêtes. Pour Discover, les images peuvent faire la différence en preview car le preview attire l’attention des utilisateurs, mais cela n’a pas d’impact sur le positionnement mais plus sur la visibilité.”

Commentaires : L’impression est que l’algorithme actuel de Discover tâtonne. On sait que la géolocalisation du mobinaute est le critère principal. La qualité du contenu est une évidence, son ancrage dans l’actualité ou encore son enrichissement avec des visuels ou des vidéos jouent en faveur d’une visibilité dans Discover. Appliquer ces principes de base aura déjà un impact significatif.

John Mueller s’est prêté ensuite pendant une heure au jeu des questions/réponses avec David Eichholtzer et Virginie Clève de Largow. Il a aussi répondu à quelques questions du public sur des sujets divers.

Pas de déploiement de BERT avant plusieurs mois voire même 1 an en France

Cette mise à jour majeure nommée BERT ne concerne pour le moment que les résultats de recherche en anglais. Rien n’est déployé sur les résultats en Français si ce n’est sur les données structurées. Cette évolution censée permettre à l’algorithme de mieux comprendre et de mieux répondre aux requêtes des internautes ne modifie pas véritablement les règles de l’art. John Mueller a simplement conseillé de continuer à bien travailler son contenu. Si on lit entre les lignes, le message est très clair. Si les consignes de Google sont respectées, il n’y a rien à craindre de BERT. Pour les sites dans le cas contraire, BERT pourrait avoir un impact négatif sur leur visibilité organique.

Mise à jour I Le 9/12/2019

Google a annoncé le déploiement de BERT sur plus de 70 langues ce lundi 9 décembre 2019. Source : Lemonde.fr

Obfusquer les liens, est-ce vraiment utile ?

Le principe de l’obfuscation de liens peut être utile dans certains cas. Pour rappel, il s’agit de cacher un contenu aux moteurs de recherche au sein même d’une arborescence pour guider les robots via le maillage interne vers les pages que l’on estime pertinentes ou d’importance. John Mueller a cependant répondu que cette pratique compliquait la tâche de Google. L’idéal selon lui est de générer des arborescences et des menus simples pour ne pas à avoir à cacher du contenu et perdre les robots dans les méandres d’un site. Ce qui peut parfois être compliqué pour un menu à facette. Il a rajouté que le moyen le plus simple serait d’user de l’attribut “no follow”. La réalité est plus complexe et il faut certainement adapter ses pratiques au cas par cas.

John Mueller a indiqué qu’un test était déployé sur la Search Console pour remonter des statistiques propres aux Featured Snippets. Il est possible que dans un futur proche ce type de statistiques soient déployés pour l’ensemble des sites en France tout du moins.

Quelles évolutions sur la recherche vocale ?

Selon John Mueller, la recherche vocale ne remplacera jamais le contenu textuel. Ils ne répondent simplement pas aux mêmes besoins. De son point de vue, la recherche par la voix correspond davantage à un service. Si des évolutions sont à observer dans les usages à l’avenir, des résultats adaptés verront le jour. Pas de grande nouveauté donc alors que l’on lit ici et là que la recherche vocale représentera en 2020 une part importante voir même majoritaire de la recherche sur les moteurs. Pour rappel, Médiamétrie indiquait dans une étude publiée en juillet 2019 que la recherche sur le web via les enceintes vocales ne représentaient qu’une part infime des usages arrivant derrière la musique, les infos pratiques (exemple : la météo du jour) et la radio.

Les liens provenant des réseaux sociaux enfin pris en compte ?

John Mueller a répondu à la question d’un participant qui lui demandait si les réseaux sociaux joueraient un jour un rôle direct dans le référencement naturel. Selon toute vraisemblance, aucun changement n’est à espérer de ce côté-là. Cependant, John Mueller a indiqué que les liens provenant des réseaux sociaux pourraient un jour être pris en compte en « do follow ». Affaire à suivre…

Le Edge SEO, vraie solution ou gadget ?

Philippe Yonnet et Stéphane Rios ont animé ensemble une conférence sur l’intérêt du Edge SEO. Derrière ce terme se cache en réalité la possibilité pour un chef de projet SEO d’implémenter des optimisations sur un site internet sans passer par son interface d’administration mais à travers des scripts chargés parallèlement au site web. Au lieu de toucher au back office du site, on remplace des morceaux de code du site de manière dynamique via le Content Delivery Network (CDN). En clair, le Edge SEO donne la possibilité au chef de projet d’agir sur la vitrine sans toucher à la boutique. Le recours à cette pratique se justifierait par le manque de bande passante entre le chef de projet SEO et le développeur. De cette manière, les optimisations nécessaires pour assurer une bonne visibilité organique peuvent être effectuées sans pour autant porter atteinte à la structure technique du site. Toutes les actions sont possibles : redirections, robots.txt, campagnes d’AB test SEO, etc. Toutefois, le Edge SEO comporte des limites. Des précautions sont à prendre dans son utilisation. Ce n’est pas parce que le champ des possibles est très vaste qu’il faut se permettre de tout faire. De nouveaux processus, de nouvelles collaborations sont à imaginer pour éviter de trop gros écarts entre le code source réel et le cache CDN. Il ne faut pas négliger le coût également. L’achat d’un compte cloudflare ou même de l’outil sans oublier l’accompagnement et l’entretien que cela exige sont autant d’éléments à prendre en compte.

​E-A-T, le nouveau paradigme du SEO sur Google

WAM-Référencement est également intervenu par l’intermédiaire de son Directeur David Eichholtzer avec Maxime Gillet, Directeur webmarketing de Fioulmarket.fr. Le but de cette conférence était de montrer comment la prise en compte des critères E-A-T pouvait bénéficier à la bonne visibilité d’une marque sur les moteurs de recherche. Tous les leviers (techniques, éditoriaux et notoriété) sont abordés. Vous pourrez retrouver la conférence via le bouton ci-dessous :

​E-A-T, le nouveau paradigme du SEO sur Google

N’hésitez pas à partager cet article sur vos réseaux préférés !

Nos derniers Wamcasts

Voir tous les podcasts