Google booste la recherche avec de nouvelles fonctionnalités

La recherche est le produit le plus important de Google et au niveau de l'I/O, l'entreprise pousse son service à de nouveaux niveaux. Plus tôt, Google a introduit Multisearch qui vous permet, par exemple, de prendre une photo d'un objet et de baser une requête de recherche autour de cette photo. Maintenant, la société a annoncé qu'elle déploierait Multisearch avec la variable supplémentaire "près de moi" et les fonctionnalités d'exploration de scènes plus tard cette année.

La variable "près de moi" de Multisearch vous permet de rechercher une assiette de nourriture, de savoir comment elle s'appelle et de savoir où la manger près de chez vous. C'est comme Shazam mais pour les requêtes de recherche.

Fondamentalement, vous pouvez rechercher une photo et une question en même temps. La fonctionnalité fonctionnera sur tout, comme une photo d'un plat, et ajoutera "près de moi" – ce qui fera apparaître un restaurant qui sert le plat. Il analysera les photos des contributeurs Maps pour qu'elles correspondent à la photo que vous avez recherchée. La fonctionnalité sera déployée plus tard cette année pour l'anglais et d'autres langues au fil du temps.

Une autre fonctionnalité de recherche à venir est l'exploration de scène qui vous permet de faire un panoramique de votre caméra et de glaner instantanément des informations sur plusieurs objets d'une scène plus large. Vous pouvez mettre en scène toute l'étagère avec votre appareil photo, et il affichera des informations utiles superposées sur les objets.

La fonctionnalité utilise la vision par ordinateur pour connecter plusieurs images qui composent la scène et tous les objets qu'elle contient. Le graphe des connaissances présente les résultats les plus utiles. Google a cité une étagère de chocolats que vous pouvez scanner et obtenir des informations sur les barres de chocolat sans noix. Il vous permet d'obtenir une sorte de superposition d'aspect AR d'une scène entière devant vous.