Google fait une démonstration de ses lunettes intelligentes et nous donne envie d’avenir

Lors d'une récente conférence TED , les passionnantes lunettes intelligentes XR de Google ont été présentées au public pour la toute première fois. Bien que nous ayons déjà vu les lunettes intelligentes, cela a toujours été dans des vidéos très soignées présentant le projet Astra , où nous n'avons jamais une véritable idée des caractéristiques et des fonctionnalités du monde réel. Tout cela a maintenant changé et notre premier aperçu de l’avenir est très excitant. Cependant, l’avenir est bien le mot clé.

La démonstration de ce que les lunettes intelligentes peuvent faire occupe la majeure partie de la présentation de 16 minutes, présentée par Shahram Izadi, vice-président de la réalité augmentée et étendue de Google. Il commence par quelques informations sur le projet, qui comporte Android XR en son centre, le système d'exploitation que Google construit avec Samsung. Il apporte Google Gemini au matériel XR tel que les casques, les lunettes intelligentes et « des facteurs de forme dont nous n'avons même pas encore rêvé ».

Une paire de lunettes intelligentes est utilisée pour la démonstration. Le design est audacieux, dans la mesure où les montures sont noires polies et « lourdes », un peu comme les lunettes intelligentes Ray-Ban Meta . Ils disposent d'une caméra, d'un haut-parleur et d'un microphone permettant à l'IA de voir et d'entendre ce qui se passe autour de vous, et grâce à un lien avec votre téléphone, vous pourrez passer et recevoir des appels. Là où ils se séparent des Ray-Ban Meta, c'est avec l'ajout d'un petit écran couleur intégré à l'objectif.

Casque et lunettes

Ce qui distingue initialement les lunettes intelligentes Android XR dans la démo, c'est la capacité de Gemini à se souvenir de ce qu'il a « vu », et il rappelle correctement le titre d'un livre que le porteur a consulté, et a même noté où une carte d'accès d'hôtel avait été laissée. Cette mémoire à court terme a un large éventail d'utilisations, non seulement comme rappel de mémoire, mais aussi comme moyen de confirmer des détails et de mieux organiser le temps.

La vision de l’IA est également utilisée pour expliquer un diagramme dans un livre et traduire du texte dans différentes langues. Il traduit également directement les langues parlées en temps réel. L'écran entre en action lorsqu'il est demandé à Gemini de se diriger vers un lieu de beauté local, où les directions sont affichées sur l'objectif. Gemini réagit rapidement à ses instructions et tout semble fonctionner parfaitement lors de la démonstration en direct.

Après les lunettes intelligentes, Android XR fonctionne ensuite sur un casque complet. L'expérience visuelle rappelle celle du casque Vision Pro d'Apple , avec plusieurs fenêtres affichées devant le porteur et des gestes de pincement utilisés pour contrôler ce qui se passe. Cependant, Gemini a été la clé de l'utilisation du casque Android XR, la démonstration montrant la capacité de l'IA à décrire et à expliquer ce qui est vu ou montré de manière hautement conversationnelle.

Quand peut-on l'acheter ?

Izadi a clôturé la présentation en disant : "Nous entrons dans une nouvelle phase passionnante de la révolution informatique. Les casques et les lunettes ne sont que le début. Tout cela indique une vision unique de l'avenir, un monde où l'IA utile convergera avec la XR légère. Les appareils XR deviendront de plus en plus portables, nous donnant un accès instantané à l'information. Tandis que l'IA deviendra plus sensible au contexte, plus conversationnelle, plus personnalisée, travaillant avec nous selon nos conditions et dans notre langage. Nous n'augmentons plus notre réalité, mais plutôt notre intelligence. "

C'est passionnant, et pour tous ceux qui ont vu le potentiel des Google Glass et ont déjà apprécié les Ray-Ban Meta, les lunettes intelligentes en particulier semblent certainement être la prochaine étape souhaitable dans l'évolution des lunettes intelligentes de tous les jours. Cependant, l'accent devrait être mis sur l'avenir, car même si les lunettes semblent presque prêtes à être publiées au public, ce n'est peut-être pas le cas du tout, alors que Google continue de taquiner apparemment sans fin ses lunettes intelligentes.

Izadi n'a pas parlé de date de sortie pour l'un ou l'autre des appareils XR lors de la conférence TED, ce qui n'est pas bon signe, alors quand sont-ils susceptibles d'être de vrais produits que nous pouvons acheter ? Les lunettes intelligentes présentées seraient le fruit d'une nouvelle collaboration entre Google et Samsung (le casque est également fabriqué par Samsung) et ne devraient pas être lancées avant 2026, selon un rapport du Korean Economic Daily , qui prolonge la date de lancement possible au-delà de la fin 2025, comme la rumeur l'avait précédemment annoncé . Bien que cela puisse sembler loin, il est en fait plus proche que la version grand public des lunettes intelligentes Orion de Meta , qui ne devraient pas arriver dans les magasins avant fin 2027.

Est-ce qu'il arrivera trop tard ?

Considérant que les lunettes intelligentes présentées lors de la conférence TED semblent rassembler des aspects de Glass, Ray-Ban Meta et des lunettes intelligentes telles que celles de Halliday , ainsi que l'assistant Google Gemini que nous utilisons déjà sur nos téléphones et ordinateurs, la longue attente continue est surprenante et frustrante.

Pire encore, la surcharge de matériel utilisant l'IA, ainsi que les nombreuses copies et alternatives de Ray-Ban Meta attendues d'ici la fin de 2026, signifient que les efforts de Google et de Samsung risquent de devenir une vieille nouvelle, ou éventuellement d'être diffusés à un public incroyablement blasé. Le casque Android XR, connu sous le nom de Project Moohan , devrait être lancé en 2025.

Peut-être sommes-nous simplement impatients, mais quand nous voyons une démo présentant un produit qui a l'air si final et si alléchant, il est difficile de ne pas le vouloir entre nos mains (ou sur nos visages) plus tôt que l'année prochaine.