L’année dernière, nous avons apporté plus de 5 000 améliorations à notre moteur de recherche Google, explique Pandu Nayak.
Depuis sa création en 1998, Google a constamment fait évoluer son moteur de recherche. Objectif ? Tendre vers des recherches de plus en plus intuitives et naturelles. D’abord en étant capable d’identifier les fautes d’orthographe dans les requêtes, puis en comprenant le contexte et les intentions derrière chaque recherche, afin de proposer les résultats les plus pertinents. “En effet, plutôt que de chercher à comprendre les mots individuellement, nos algorithmes nous permettent désormais de comprendre les mots dans le contexte dans lequel ils sont utilisés” explique ainsi Pandu Nayak.
Conséquence : les utilisateurs n’ont plus à s’adapter au moteur de recherche en raisonnant par mots-clés. Désormais, le moteur de recherche comprend le langage naturel de l’utilisateur : une fonctionnalité particulièrement utile lorsque les recherches sont effectuées vocalement.
Fredonner une chanson, grâce à « hum to search » et retrouver son titre, est une fonctionnalité d’apparence anecdotique, qui est utilisée plus de 100 millions de fois chaque mois…
Plus de 5 000 améliorations par an !
Vingt-quatre ans après la création de Google, des avancées majeures en matière de recherche en ligne et d’accès à l’information sont-elles encore possibles ? Le chercheur de Google en est convaincu. “L’année dernière, nous avons apporté plus de 5 000 améliorations à notre moteur de recherche, qu’il s’agisse de mises à jour du classement des informations ou de nouvelles fonctionnalités majeures”, précise-t-il.
Cela va de la meilleure mise en avant des sources officielles dans la lutte contre le Covid-19 au déploiement de nouveaux services, comme la possibilité de fredonner une chanson afin d’en connaître le titre. D’ailleurs, cette fonctionnalité nommée “hum to search”, d’apparence anecdotique, est utilisée plus de 100 millions de fois chaque mois…
La recherche multiple, ou “multisearch” en anglais, est disponible pour l’instant uniquement aux Etats-Unis.
La recherche visuelle, utilisée plus de 8 milliards de fois chaque mois
Google investit aussi très fortement dans la recherche visuelle : la fonctionnalité Google Lens, qui permet d’effectuer des recherches grâce à l’appareil photo, est utilisée plus de 8 milliards de fois par mois. Des innovations sont régulièrement ajoutées : depuis le printemps 2022, il est par exemple possible d’associer recherche textuelle et visuelle. C’est la recherche multiple, ou “multisearch” en anglais, qui est disponible pour l’instant uniquement aux Etats-Unis.
“Vous pouvez désormais prendre une photo et poser une question en même temps” explique Pandu Nayak. Quel intérêt ? “Par exemple, vous pouvez trouver très cool la chemise de quelqu’un que vous croisez. Vous aimez le motif, mais pas forcément la couleur. Il vous suffit de la prendre en photo et d’ajouter le mot ‘bleu’ pour trouver tout un éventail d’autres options.”
La recherche multiple, l’évolution principale du moment
Ces recherches peuvent aussi être géolocalisées, pour trouver les magasins à proximité qui vendent des modèles similaires. Loin d’être une fonctionnalité de plus, “il s’agit de l’une des évolutions les plus importantes que nous ayons apportées à la recherche depuis plusieurs années,” souligne le représentant de Google, qui ajoute que la recherche multiple sera disponible dans le monde entier au cours de l’année, mais uniquement en anglais. Pour l’instant.
À plus long terme, la recherche visuelle va même pouvoir être utilisée pour scanner automatiquement le rayon d’un supermarché pour identifier les produits les plus sains ou reconnaître les ingrédients d’un plat au restaurant à partir d’une simple photo. “Nous appelons ça l’exploration de scène : vous pourrez utiliser la recherche multiple en utilisant votre caméra et en posant des questions pour obtenir instantanément des informations sur des objets présents juste devant vous,” s’enthousiasme Pandu Nayak, avant de conclure : “nous sommes impatients de découvrir comment cette technologie va aider les individus à obtenir instantanément des informations sur tout ce qu’ils voient !”