Google I/O 2022 : ce que l’on retient chez WAM

Le 8 juin 2022

Par : Mathieu Doubey

5 minutes

SEO

Partager sur :

Google I/O 2022 : ce que l’on retient chez WAM

Une nouvelle édition de passée ! Les conférences du Google I/O sont terminées, l’événement avait lieu les 11 et 12 mai 2022. Retrouvez ci-après nos premières impressions.

Première intervention : Sundar Pichai

Cette keynote de Google a duré 2 heures. Autant vous dire que ce fut assez long et riche en nouvelles informations :

Vidéo de la Keynote

Voici les principales annonces qui ont retenu notre attention dans cette première partie :

  • Nouvelle vue disponible sur Google Maps avec une sélection des grandes villes du monde cartographiées en 3D.
  • Génération de vues en 3D de l’intérieur des restaurants avec comme base les photos des internautes. Google est désormais capable de générer l’équivalent d’une visite en 3D d’un restaurant en mixant les différentes photos des utilisateurs, disponibles sur Google Maps.
  • Nouvelle fonctionnalité sur les itinéraires générés via Google Maps, qui propose désormais un trajet permettant d’économiser le plus de carburant possible. Déjà lancée aux US, cette fonctionnalité sera disponible en Europe plus tard en 2022.
  • Système de chapitrage automatique des contenus vidéos, amélioré, qui se déploie petit à petit sur les vidéos YouTube.
  • Google va créer automatiquement des résumés et/ou sommaires pour les documents créés sur Google Docs.

Prabhakar Raghavan & intervenants divers

Dès le début de son intervention, Prabhakar Raghavan a précisé ce qui sera le futur de la recherche, à savoir : une expérience mutlimodale, via l’image, le son ou le texte, selon la nature de la recherche à effectuer.

Vocal, Lens & Multisearch

Prabhakar Raghavan a mentionné le fait que Google enregistre désormais des centaines de millions de recherches vocales chaque jour. Cela progresse en particulier dans les pays en voie de développement comme l’Inde où, selon l’intervenant, 30 % des requêtes sont désormais parlées.

Il est également revenu sur l’ajout d’une entrée vers Google Lens dans la barre de recherche sur mobile, qui a permis de multiplier l’utilisation de cette fonctionnalité par 3 en 1 an, ce qui l’amène à être utilisée 8 milliards de fois par mois.

exemple multisearch et fonctionnalité « near me »
Multisearch + near me

Le multisearch, qui a été lancé il y a peu aux US, est désormais complété par la fonctionnalité « near me », qui permet aux internautes de combiner leur demande à une recherche locale, autour de soi. On peut ainsi prendre la photo d’un plat et interroger Google pour savoir où manger ce plat près de chez soi. Cette fonctionnalité sera disponible en anglais cette année et arrivera dans les autres langues et pays petit à petit.

Pourquoi c’est intéressant ? Tout au long de ces 20 dernières années, Google a façonné notre manière de formuler nos interrogations, grâce à la recherche mots-clés. Désormais, les avancées technologiques de Google vont amener de nouveaux réflexes plus naturels pour les utilisateurs, en utilisant la voix ainsi que les visuels – un peu comme si nous montrions du doigt une plante en disant « peux tu me dire quelle est cette plante ? ». Objectif : proposer des réponses encore plus pertinentes à nos questions les plus complexes. Lens, en particulier, déplafonne littéralement la découvrabilité des informations disponibles sur le web, tout comme les produits pour le e-commerce.

Scene Exploration

Une nouveauté impressionnante a également été présentée : Scene Exploration. Avec un smartphone, il suffit de filmer le rayon d’un supermarché, puis vous obtenez automatiquement les informations relatives aux produits en réalité augmentée via Scene Exploration.

Dans l’exemple présenté, l’utilisateur filme des tablettes de chocolat et voit s’afficher des informations sur les avis produits, le sans gluten, etc.

Cette fonctionnalité accélère en réalité l’accès aux informations sur les produits filmés, en évitant la phase de recherche individuelle via les mots-clés, par exemple pour les comparer.

Pourquoi c’est intéressant ? Derrière ce système, ce sont les connaissances émanant du Knowledge Graph de Google qui entrent en action, et probablement l’ensemble des données structurées que l’on peut fournir à Google via les balises Schema.org.

Monk skin tone scale

La diversité des couleurs de peau a été segmentée par un professeur d’université dans le but de mieux représenter les personnes « de couleur » dans divers aspects. Cela peut aller des filtres des applications mobiles comme Instagram à l’offre de maquillage proposée par les différentes marques du secteur de la beauté.

Cette notion d’inclusion est importante pour Google, qui souhaite que chacun soit représenté lorsqu’il effectue une recherche sur Google ou dans un outil de la firme.

Pourquoi c’est intéressant ? Pour les requêtes liées au maquillage, Google proposera une nouvelle interface qui organisera les informations cela ce nouveau système. À cette occasion, Google a également annoncé 3 nouveaux items à venir pour qualifier les photos : la couleur de peau, la couleur des cheveux et la texture des cheveux.

Matériel & technologies nouvelles

Le Nest Hub Max de Google fonctionne désormais sans les mots-clés qui déclenchent l’assistant Google. Il suffit simplement de regarder l’appareil qui détecte notre regard. Il convient de noter que, désormais, toute la donnée est gérée en local et que rien n’est partagé avec Google ou d’autres partenaires externes.

Également présenté pour améliorer l’expérience d’engagement en vocal avec l’assistant : votre assistant Google attend que vous terminiez votre phrase, il vous encourage à finir votre requête (le fameux « hmm hmm, euuuh ») et peut même compléter ou corriger ce que vous avez oublié ou nommé incorrectement.

Pourquoi c’est intéressant ? L’objectif ici est de faire parler l’utilisateur de la façon la plus naturelle possible, sans avoir à forcer le trait pour être compris par l’appareil.

LaMDA 2 is coming

Les nouvelles fonctionnalités de LaMDA, qui avait été annoncé l’an dernier, sont très impressionnantes et montrent à quel point Google mise sur la conversation entre l’homme et la machine pour mieux satisfaire et engager l’utilisateur. Ont été présentés 3 modèles actuellement testés chez Google depuis leur interface AI Test Kitchen (fermée pour l’heure mais qui sera ouverte à l’avenir) :

  • List It : permet de générer une liste d’étapes à suivre pour atteindre un but. L’exemple présenté liste les étapes à suivre pour planter des légumes dans son jardin.
List It en action
  • Imagine It : permet de générer des idées sur un sujet. L’exemple présenté imagine un océan et ce qu’on peut trouver comme vie au fond.
Imagine It en action
  • Talk About It : permet de générer une discussion sur un sujet précis, sur lequel LaMDA 2 essaiera autant que possible de rester. Dans l’exemple présenté, LaMDA continue de parler de chiens, alors que la discussion pourrait l’amener ailleurs.
Talk About It en action

Pourquoi c’est intéressant ? La fonctionnalité List it semble déjà très avancée et pourrait tout à fait être utilisée pour donner des idées à un rédacteur lorsqu’il doit traiter un sujet précis.

Autres informations communiquées, moins cruciales

Pathways Language Model, également appelé PaLM, est un modèle de langage multitâches reposant sur 540 milliards de paramètres. Concrètement, PaLM est capable de résoudre des problèmes complexes. Par exemple, Google nous a révélé qu’il a obtenu un score de 60 % dans la résolution de problèmes de mathématiques inscrits au programme scolaire des enfants de 9 à 12 ans. C’est-à-dire, autant que les enfants eux-mêmes.

Mais PaLM va bien au-delà de cette démonstration. Il est multitâches, donc capable de résoudre des milliers de problèmes dans des domaines totalement différents, comme la rédaction de lignes de code (Python) et même l’explication de blagues inventées pour l’occasion (donc sans source disponible sur Google). Les scores obtenus par PaLM dans la plupart des domaines dans lesquels il a été challengé ont dépassé les précédentes technologies. Et pour couronner le tout, PaLM est multilingue et déjà capable de fonctionner dans 29 langues largement utilisées dans le monde.

Pourquoi c’est intéressant ? Cela nous rappelle l’annonce, lors du SearchOn 2021, de la technologie MUM (Multitask Unified Model), qui sera capable de répondre aux requêtes d’un utilisateur via le son, le texte ou les visuels, dans la plupart des langues largement répandues dans le monde.

Les intervenants ont également annoncé :

  • la création de « My ads center », qui permet de personnaliser les publicités auxquelles on est exposé ;
  • la disponibilité d’About This Result sur l’app Google ou Chrome directement en consultant une page web ;
  • l’arrivée d’Android 13, avec un nouveau Google Wallet où stocker les cartes bancaires, son certificat de vaccination, sa carte identité ou son permis de conduire ;
  • la création de nombreux produits « Made by Google », tels que des écouteurs, smartphones (pixel 6A & 7), tablettes, montres, Nest hub ;
  • le retour des Google Glass, lunettes de réalité augmentée, avec un teasing réalisé pour générer des sous-titres en temps réel lorsque quelqu’un parle une langue qui n’est pas la nôtre (utile lors d’un voyage).

Voilà pour les principaux points que nous avons pu découvrir cette année. N’hésitez pas, si vous avez vu d’autres informations non mentionnées ici, à nous les partager sur Twitter @wamref ou sur LinkedIn !