Google I/O : quelles nouveautés pour le moteur de recherche ?
Le 13 juillet 2021
51 minutes
Les participants
Pour ce 24e épisode du Wamcast, David Eichholtzer, directeur et fondateur de WAM-Référencement, et Mathieu Doubey, manager du pôle SEO et Data, font le débrief de l’événement Google I/O qui s’est tenu au mois de mai dernier. MUM, LaMDA, Shopping Graph ou encore Google Lens : tour d’horizon des nouveautés et des annonces faites par Google.
Sommaire
- MUM : 2’54
- KELM et TEKGEN : 12’27
- LaMDA : 17’21
- Google Maps en réalité augmentée : 28’33
- Shopping Graph : 30’12
- Google Lens : 39’04
- Les cookies et Privacy Sandbox : 40’50
1. MUM (2’54)
MUM est la nouvelle technologie de Google, annoncée 1 000 fois plus puissante que BERT, dont l’objectif est de comprendre très rapidement le contexte d’une recherche pour fournir une réponse sous différents angles, sans avoir à reformuler la requête pour la préciser.
Mais là où BERT parvenait à dégager le contexte générique d’un contenu, ou plutôt d’un passage de contenu, en analysant les mots qui précèdent et qui succèdent un mot central, MUM va beaucoup plus loin en se montrant multi-tâches. Elle acquiert des connaissances par elle-même, comprend 75 langues, génère du langage, interprète du texte, des images, des vidéos, et tout cela en même temps, d’après les promesses de Google.
Pour mieux comprendre la puissance de MUM, Prabhakar Raghavan, le patron du département Search chez Google, a proposé un exemple sur scène lors du Google I/O. Il a utilisé la requête « J’ai parcouru le mont Adams et je veux maintenant faire de la randonnée au mont Fuji l’automne prochain : que dois-je faire différemment pour me préparer ? ».
Si l’on posait cette même question à Google aujourd’hui, il aurait quelques difficultés à fournir des résultats pertinents. Dans la recherche simulée avec MUM, Google a pu mettre en évidence les différences et les similitudes entre les deux montagnes (météo, topographie, surface, dénivelé, etc.) et, en face, proposer des produits pour avoir le bon équipement pour gravir le mont Fuji.
Et comme MUM est multimodal, elle peut donc répondre avec du texte mais aussi des images, des vidéos et, demain, de l’audio. Cerise sur le gâteau : si certains contenus locaux, donc japonais, répondent mieux à la question que dans le pays d’origine de l’utilisateur, MUM lui remontera ledit contenu, mais traduit directement dans sa langue.
👉 Retrouvez toute l’analyse et d’autres exemples du fonctionnement de MUM dès la 2e minute de ce Wamcast.
À lire aussi : Tout savoir sur la compréhension du contenu par la machine
2. KELM et TEKGEN (12’27)
Pour reprendre l’exemple de Prabhakar Raghavan sur la préparation d’un trek au mont Fuji, on imagine facilement toutes les informations que Google doit assimiler au préalable concernant le contexte immédiat (la personne qui pose la question, son entrainement, son matériel, etc.), et le contexte global (le mont Fuji, le trajet pour s’y rendre, les villes par lesquelles passer, les sentiers à suivre, les points de vue à ne pas manquer, etc). De nombreux biais qui peuvent induire des réponses inadaptées de Google si on lui pose la question.
Pour avancer sur ces biais, l’une des annonces du Google I/O portait sur Google KELM, pour Knowledge Enhanced Language Model.
Plus concrètement, il s’agit d’un programme d’entraînement qui aide des modèles de NLP comme BERT à s’améliorer. Cela s’appuie sur une orientation liée à des éléments factuels et de confiance. L’idée reste de réduire au maximum les erreurs possibles de réponse lorsque l’outil auquel vous posez votre question vous répond. On peut imaginer ici, par exemple, que ce sera un jour Google Assistant.
Tout cela est visiblement lié à une autre technologie appelée TEKGEN, qui se base sur le Knowledge Graph de Google, et qui passe d’informations structurées à du langage naturel qui pourrait, par exemple, être exploité ensuite par MUM.
Wikidata, il est temps d’aller creuser le sujet ! Google avance à pas de géant sur la compréhension du monde avec son Knowledge Graph et l’identification des faits et entités.
Si le sujet a piqué votre curiosité, vous pouvez retrouver davantage de précisions et d’information sur cet article de Search Engine Journal.
3. LaMDA (17’21)
Google a aussi fait de grands progrès dans la génération automatisée de contenus. Ces dernières années, Google a inventé des techniques d’apprentissage automatiques, comme BERT (voir ci-dessus), qui les aident à mieux comprendre l’intention derrière les requêtes de recherche de ses utilisateurs. LaMDA, la dernière percée en matière de recherche, ajoute des pièces à l’une des sections les plus alléchantes de ce grand puzzle : la conversation.
Prenons un exemple : la nature ouverte d’une conversation signifie qu’elle peut commencer à un endroit et finir à un autre. Une conversation avec un ami au sujet d’une émission télévisée pourrait évoluer en discussion sur le pays où l’émission a été tournée, avant de se lancer dans un débat sur la meilleure cuisine régionale de ce pays.
C’est ce chemin sinueux, aléatoire, qui peut rapidement perturber les agents conversationnels modernes – plus communément appelés chatbots – qui ont tendance à suivre des chemins étroits et prédéfinis (selon des arbres décisionnels).
Mais LaMDA – abréviation de Language Model for Dialogue Applications – peut s’engager de manière fluide sur un nombre apparemment infini de sujets. Une capacité qui, selon Google, pourrait débloquer des moyens plus naturels d’interagir avec la technologie et de toutes nouvelles catégories d’applications utiles.
Contrairement à la plupart des autres modèles de langage, LaMDA a été formé au dialogue. Cela signifie qu’il est capable de détecter les nuances qui distinguent la conversation ouverte des autres formes de langage.
L’une de ces nuances est la sensibilité : la réponse à un contexte conversationnel donné a-t-elle un sens ? Par exemple, si quelqu’un dit : « Je viens de commencer à prendre des cours de guitare ». Vous pouvez vous attendre à ce qu’une autre personne réponde par quelque chose comme : « C’est bon, ça ! Ma mère a encore une Gibson et elle joue encore des riffs des seventies ! »
Cette réponse est logique. Ou en tout cas naturelle entre humains, compte tenu de la déclaration initiale. Mais la sensibilité n’est pas la seule chose qui fait une bonne réponse. Quand on répond « C’est bien » ou « Je ne sais pas », c’est une réponse sensée à la plupart des questions. Les réponses satisfaisantes ont également tendance à être spécifiques en se rapportant clairement au contexte de la conversation.
Google annonce travailler également sur une autre dimension du langage, en plus de la sensibilité et de la spécificité : l’intérêt. Il évalue si les réponses sont perspicaces, inattendues ou pleines d’esprit. Le champ des possibles est très vaste, d’autant que Google progresse à vitesse grand V. Et qu’un défi de taille apparait : la responsabilité !
Certains chatbots, par exemple, ont été rapidement pris dans des travers comme le racisme, des propos inappropriés ou des indications médicales douteuses. Un très gros défi qu’il sera intéressant de suivre.
👉 Retrouvez les analyses de David Eichholtzer et Mathieu Doubey sur ce sujet et, plus généralement, sur les contenus, à partir de la 17e minute de ce podcast.
À lire aussi : Où en est-on de la recherche vocale ?
4. Google Maps en réalité augmentée (28’33)
Aujourd’hui, si vous regardez Google Maps avec votre smartphone, vous voyez apparaître une flèche qui va vous guider d’un point A à un point B, avec une vue basée sur Google Street View.
Désormais, Google va aussi afficher, en plus des lieux près desquels vous passez, leurs notes, par exemple. Vous verrez que le restaurant où vous vous rendez fréquemment est très bien noté, mais aussi que l’auto-école au coin de la rue a mauvaise réputation.
Si ces nouveautés relèvent pour l’instant plutôt du gadget, à l’avenir, elles pourraient se montrer de plus en plus utiles, à mesure que la réalité augmentée gagne du terrain dans notre quotidien. Et Google l’a bien compris. Aussi, l’attention que l’on accorde à la SERP pourrait petit à petit se tourner vers d’autres interfaces, à commencer par le flux de discussion Google Assistant, ou plus simplement les autres outils de Google.
5. Shopping Graph (30’12)
Lors d’une des présentation du Google I/O, on a pu voir un internaute naviguer sur Chrome et, au fil de son parcours d’achat, ajouter des produits issus de différents espaces comme YouTube, une SERP Google, une photo où Google Lens a détecté un produit, etc.
Plutôt que de pousser l’internaute à la conversion en live sur le site sur lequel il a vu un produit, l’idée est de l’aider à comparer les prix et à aller acheter son produit là où il est le moins cher.
Google explique que pour nous montrer les informations d’achat les plus pertinentes, il doit avoir une compréhension approfondie des produits qui apparaissent dans son moteur, et dans le monde qui nous entoure : des images et vidéos, des critiques en ligne… et jusqu’aux stocks des magasins !
La technologie derrière le Shopping Graph est un modèle dynamique amélioré par l’IA, qui comprend un ensemble de produits, de vendeurs, de marques, d’avis en constante évolution. Surtout, il contient les informations sur les produits et les données d’inventaire émanant directement des marques et des détaillants, ainsi que la manière dont ces attributs se rapportent les uns aux autres.
Cela permet à Google de proposer de nouvelles fonctionnalités de recherche, pour répondre au plus juste à nos requêtes.
👉 Retrouvez toutes les explications et des exemples chiffrés sur le Shopping Graph, à partir de la 30e minute.
6. Google Lens (39’04)
Cette fonctionnalité permet de rechercher ce que vous voyez, à partir de votre appareil photo, de votre galerie de photos et, évidemment, de votre barre de recherche. Google a précisé qu’il enregistrait plus de 3 milliards de recherches avec Lens chaque mois.
Cette information, passée un peu inaperçue, montre une réelle évolution dans les usages. Et cela n’a potentiellement aucune limite : vous photographiez une chaise de designer dont le nom vous échappe, et Lens retrouve le produit associé ou des modèles ressemblants.
Google nous indique que Lens est de plus en plus utilisé dans la formation. Par exemple, de nombreux élèves peuvent avoir des devoirs à faire dans une langue qu’ils ne connaissent pas très bien. Avec la mise à jour du filtre de traduction dans Lens, il est maintenant facile de copier, écouter ou rechercher du texte traduit, pour accéder à du contenu éducatif dans plus de 100 langues. C’est très utile, et, en quelque sorte, c’est une anti-sèche 3.0 !
7. Les cookies et Privacy Sandbox (40’50)
Pour se mettre en règle avec les nouvelles règles de confidentialité en France et à l’international – et pour ne pas perdre d’utilisateurs d’un côté, ni les annonceurs de l’autre – Google propose plusieurs solutions.
Vous pouvez toujours utiliser le Cookie First Party si votre tracking n’est pas inter-sites, mais il faut se mettre en règle pour identifier moins de données. Si votre besoin de tracking est inter-sites, faites appel à un Cookie Third Party, utilisé par d’autres à des fins de tracking publicitaire. Mais c’est précisément ce qui est combattu par les navigateurs, Safari en premier lieu.
Pour faire simple, nous n’allons retenir qu’une seule solution, la principale, celle que Google promeut : Privacy Sandbox. Son principe fondamental : le navigateur peut créer un espace protégé autour des données personnelles que vous partagez avec les sites web que vous visitez.
Un des objectifs à long terme de Privacy Sandbox reste d’aider à empêcher les « empreintes digitales » par une collecte excessive de données. Il vise à introduire une limite à la quantité d’informations auxquelles un site peut accéder sur un visiteur, et aide à gérer efficacement ce « budget de confidentialité ». Par exemple, les sites qui accèderont à trop d’informations pourront être bloqués.
Pour l’heure, cette solution en est au stade de l’expérimentation. C’est sur ce dernier message que Google a insisté, en incitant les développeurs à intégrer les programmes d’expérimentation de Google Privacy Sandbox pour remonter leurs remarques. Notez qu’en tant qu’utilisateur, vous pouvez choisir de ne pas intégrer ces tests.
Un point intéressant néanmoins, devant la complexité de la situation technique : l’utilisation de l’outil Chrome Dev Tools vous permet de détecter les problèmes en regard de la législation, et vous permet donc de les corriger.
Globalement, Google multiplie les efforts (de séduction) pour rendre l’utilisation de ses produits plus sécurisée et plus confidentielle, en permettant notamment aux utilisateurs de supprimer toute trace de leur utilisation de façon simple, accessible et précise. À l’avenir, Google s’engage aussi à sortir des produits sécurisés par défaut.
Soulignons quand même, pour conclure, que dans ce contexte technique un peu flou – c’est le moins que l’on puisse dire – les questions et les réponses sont de plus en plus nombreuses. On peut donc s’étonner de ne pas avoir d’entité neutre qui s’impose pour répondre à toutes les questions des entreprises comme des utilisateurs, en dehors des acteurs privés comme Google.
👉 La dernière partie de l’analyse de David Eichholtzer et Mathieu Doubey sur cette édition 2021 du Google I/O est à retrouver à partir de la 40e minute.
À lire aussi : Avec la fin annoncée des cookies, quel avenir pour la collecte de données ?
Nos derniers Wamcasts
Voir tous les podcasts-
Search 2025 : quels enjeux pour l’autorité digitale de votre marque ?
38 minutes
-
Stratégie e-commerce : comment augmenter la visibilité de vos produits sur Google ?
33 minutes
-
Design de l’attention : pourquoi et comment faciliter l’UX ?
60 minutes
-
Quels enjeux pour les marques sur TikTok ?
45 minutes
V Voir tous les articles podcasts