Pourquoi la dernière fonctionnalité de l’Apple Watch est vouée à l’échec

Le symbole Double Tap sur l'Apple Watch Series 9
Andy Boxall / Tendances numériques

Les systèmes de contrôle gestuel fonctionnent mieux lorsqu’ils sont simples, rapides et faciles à apprendre. Ils doivent également se sentir naturels et intuitifs, de préférence pour que vous vous en souveniez, et surtout, ils doivent être fiables. Le Double Tap d'Apple sur l' Apple Watch Series 9 et l'Apple Watch Ultra 2 est un bon exemple de contrôle gestuel qui fonctionne bien.

Je pense que c'est une fonctionnalité intéressante et amusante , etje ne suis pas seul . Cependant, ce n'est pas le premier du genre et l'histoire nous montre que, malheureusement, les gestes sur les appareils mobiles sont plus susceptibles d'être abandonnés et oubliés qu'ils ne sont aimés et largement adoptés.

Motion Sense sur le Pixel 4

Utiliser Motion Sense sur le Pixel 4 | Pixels

Sans revenir en arrière pour regarder des téléphones comme le Sony Ericsson Yari 2009, qui utilisait la caméra frontale pour vérifier les mouvements du corps et contrôler les jeux préchargés, de nombreux fans de technologie peuvent instantanément penser aux Google Pixel 4 et Pixel 4 XL 2019 lorsque les contrôles gestuels sont mentionnés.

Ces deux appareils ont été les premiers à être dotés de la puce Project Soli de Google , qui utilisait un radar pour reconnaître le moindre mouvement autour d'eux. La fonctionnalité résultante, appelée Motion Sense, vous permettait de faire glisser votre doigt sur et autour du téléphone pour lire ou mettre en pause la musique, faire taire les alarmes ou couper le son d'un appel entrant. Il a également déverrouillé le téléphone lorsque vous l'avez décroché.

bouton accentué pixel 4 xl
Julian Chokkattu / Tendances numériques

C'était techniquement passionnant, mais dans la pratique, cela ne fonctionnait pas de manière suffisamment fiable et des problèmes de régularité empêchaient son utilisation à l'échelle mondiale, ce qui nuisait au potentiel de vente. Le Pixel 4 a fini par être le seul smartphone doté des commandes gestuelles du Project Soli, mais la puce a perduré sans Motion Sense dans le Google Nest Hub , où elle permet de mesurer la respiration pendant que vous dormez.

Technologies de vue oculaire

Motion Sense sur le Pixel 4 est probablement l'un des systèmes de contrôle gestuel défaillants les plus connus sur un téléphone, mais d'autres sociétés travaillaient sur des systèmes de contrôle gestuel depuis longtemps avant lui. En 2011, la marque d'électronique coréenne Pantech a lancé le Vega LTE, qui avait fondamentalement les mêmes gestes que le Pixel 4 mais utilisait un système logiciel qui s'appuyait sur la caméra frontale pour « voir ». Il a été développé par une société appelée eyeSight Technologies.

Pendant plusieurs années après le Pantech Vega, eyeSight Technologies a fait de gros efforts pour que les commandes gestuelles sur les appareils mobiles deviennent une réalité. L'entreprise comptait sur son logiciel Natural User Interface (NUI), indépendant de la plate-forme, pour réussir, car il pouvait être intégré directement au système d'exploitation d'un appareil ou même à des applications pour utiliser la caméra et ajouter des systèmes de contrôle gestuel.

La société a travaillé avec la marque indienne de smartphones Micromax sur l'A85 Superfone, qui utilisait des gestes similaires à ceux du Pantech Vega, rendait le NUI disponible sur Android et iOS, et sa technologie était présentée à plusieurs reprises lors de salons technologiques. Il s'est vanté de partenariats avec des sociétés allant de Nokia à AMD et a également tenté de capitaliser sur l'engouement pour la réalité virtuelle en 2016. Malgré tous ces efforts, l’entreprise n’a jamais atteint le grand public et l’entreprise a finalement changé son nom pour Cipia et s’est tournée vers la technologie embarquée.

Gestes aériens sur le Samsung Galaxy S4

Magnifique écran Galaxy S4
Tendances numériques

À peu près au même moment où eyeSight Technologies faisait la promotion de son système de gestes logiciel, Samsung a introduit un petit ensemble de commandes gestuelles appelées Air Gestures sur le tout nouveau smartphone Galaxy S4. Le téléphone utilise un capteur infrarouge pour repérer les mouvements de base de la main sur l'écran, vous permettant de l'activer pour vérifier l'heure sans le toucher, accepter des appels, interagir avec des applications et même faire défiler des pages Web d'un simple glissement.

Cela a plutôt bien fonctionné, mais la courte portée du capteur signifiait que vous touchiez presque l'écran de toute façon, ce qui le faisait paraître plus fantaisiste que la technologie cool ne le méritait peut-être. La fonctionnalité a continué dans le répertoire de Samsung mais a été progressivement supprimée et remplacée par Air Actions, qui utilise les gestes effectués avec le stylet S Pen pour effectuer des actions similaires sans avoir besoin d'un capteur infrarouge.

Jusqu'à présent, nous avons vu des radars, des logiciels et des capteurs infrarouges utilisés pour comprendre les mouvements des mains et les fonctions de contrôle sur nos téléphones, montrant à quel point les entreprises étaient désireuses d'expérimenter et qu'il n'existait pas de «meilleure» façon reconnue d'ajouter la reconnaissance gestuelle à leurs téléphones. un smartphone. Mais nous n’avons pas encore fini.

Laboratoires elliptiques

Laboratoires elliptiques 2
La technologie Elliptic Labs présentée lors d'un salon professionnel Malarie Gokey/Digital Trends / Digital Trends

Avance rapide jusqu'en 2017 et, fait intéressant, le Galaxy S4 a également été mis en action dans une démonstration de la technologie de reconnaissance gestuelle d'Elliptic Labs , qui, comme eyeSight Technologies, a consacré beaucoup de temps et d'efforts à essayer de nous faire saluer nos smartphones et Autres appareils.

La technologie d'Elliptic Labs utilisait les ultrasons pour détecter les mouvements, ce qui permettait un plus grand champ de mouvement et l'utilisation de différents gestes sans aucune dépendance à la lumière, avec moins de consommation d'énergie et plus de précision. Il prévoyait de concéder sous licence la technologie des gestes à ultrasons aux fabricants d'appareils, mais il n'a jamais semblé aller bien au-delà du stade de la démonstration et du concept, malgré l'adaptation du même système pour tirer parti du boom de l'Internet des objets (IoT) et son intégration dans les haut-parleurs et les lumières. .

Au lieu de cela, Xiaomi a utilisé son capteur de proximité à ultrasons pour se débarrasser d'un capteur de proximité traditionnel et minimiser la lunette du Mi Mix d'origine . Aujourd'hui, Elliptic Labs travaille toujours sur des capteurs de proximité et a désormais entièrement éliminé le matériel du système pour proposer une détection de proximité pilotée par logiciel , que l'on retrouve sur les téléphones pliables compacts Motorola Razr Plus et Razr (2023) .

Mouvement aérien sur le LG G8 ThinQ

LG G8 ThinQ
Julian Chokkattu / Tendances numériques

Elliptic Labs et eyeSight Technologies, ainsi que d'autres sociétés comme Neonode , ont expérimenté le contrôle gestuel entre 2010 et 2017, mais sans avoir beaucoup d'impact en dehors des salons technologiques comme le CES et le MWC. Lorsque le Pixel 4 a ravivé l'intérêt pour les commandes gestuelles en 2019, il a été rejoint par un autre appareil de grand nom : le LG G8 ThinQ .

LG, qui a désormais complètement arrêté de fabriquer des smartphones , aimait essayer de nouvelles choses avec ses téléphones, qu'il s'agisse de matériel modulaire avec le LG G5 ou d'écrans secondaires sur des téléphones comme le LG V10 et le V50 ThinQ . Air Motion a utilisé des caméras frontales et un capteur de temps de vol (ToF) pour détecter divers mouvements de la main, notamment en imitant la torsion d'un bouton de volume pour régler le volume du lecteur de musique.

Comme tous les systèmes de contrôle gestuel de proximité, son utilité était discutable car l'écran tactile était juste là , à quelques centimètres seulement de vos doigts qui se tournaient. Il n’était pas non plus particulièrement fiable, ce qui empêchait les gens de l’utiliser. Le LG G8 ThinQ a marqué la fin de la gamme G de LG et, avec le projet Soli, Air Motion était peut-être le dernier système de contrôle gestuel à être fortement promu par un fabricant de téléphones.

Et les montres connectées ?

Une photo de quelqu'un faisant un geste de la main pour utiliser Double Tap sur l'Apple Watch Ultra 2.
Joe Maring / Tendances numériques

Jusqu'à récemment, les commandes gestuelles étaient principalement démontrées ou présentées sur les smartphones. Mais qu’en est-il des montres connectées ? Double Tap sur l'Apple Watch Series 9 et l'Apple Watch Ultra 2 doit son existence à une fonctionnalité d'accessibilité appelée AssistiveTouch , qui fait partie de watchOS depuis plusieurs années. Samsung propose également une fonctionnalité d'accessibilité très similaire sur la Galaxy Watch 6 .

L'espace est restreint à l'intérieur d'une montre intelligente et il y a très peu d'espace disponible pour les caméras, les capteurs de proximité ou d'autres éléments matériels complexes. Double Tap utilise le capteur de fréquence cardiaque, l'accéléromètre et le logiciel pour reconnaître lorsque vous tapez du doigt, ajoutant ainsi un autre système de reconnaissance à la liste.

En dehors de l'Apple Watch et du Double Tap, Google a présenté le projet Soli dans une montre intelligente , mais il n'a jamais atteint l'éventuelle Google Pixel Watch . La Mad Gaze Watch, au nom bizarre, utilisait apparemment la conduction osseuse pour permettre une gamme de contrôles gestuels différents, des claquements de doigts aux tapotements de bras. En 2015, une société appelée Deus Ex a financé un module complémentaire pour la Pebble Watch appelé Aria , et bien qu'il ne s'agisse pas d'une montre intelligente, Google a utilisé un signe de tête pour ajouter une utilisation mains libres aux Google Glass .

Les gestes simples sont les meilleurs

Une personne effectuant le geste Double Tap sur l’Apple Watch Series 9.
Andy Boxall / Tendances numériques

Tous ces exemples montrent qu’il y a plus de tentatives infructueuses pour rendre populaires les systèmes de contrôle gestuel sur nos téléphones et nos montres intelligentes que de succès. Il existe cependant plusieurs gestes simples qui se sont révélés efficaces et fiables, au point qu'on ne les considère même pas comme spéciaux. Un bon exemple est le lever pour se réveiller, où soulever ou incliner l'écran d'un appareil vers votre visage allume l'écran, et c'est l'exemple parfait d'un mouvement naturel activant une fonctionnalité. On pourrait dire que tout ce qui va au-delà est tout simplement trop compliqué.

Même les mouvements et les torsions du poignet, qui étaient utilisés sur la Moto 360 pour faciliter le défilement, semblent être un geste trop poussé et rarement vu depuis le Fossil Hybrid HR . En dehors de ces quelques exemples isolés et des fonctionnalités d’accessibilité essentielles, les gestes n’ont pas transformé l’utilisation régulière et quotidienne d’un portable ou d’un smartphone pour la plupart des gens.

Double Tap a le potentiel de rejoindre le lever pour se réveiller comme l'un des rares gestes largement utilisables sur une montre intelligente, car il est simple, naturel et fonctionne très bien. Malheureusement, l'histoire montre que les systèmes de contrôle gestuel et les appareils mobiles n'ont tout simplement pas encore retenu notre intérêt, et j'espère que Double Tap ne se retrouvera pas sur une future liste de systèmes de contrôle gestuels rapidement abandonnés mais prometteurs. C'est trop intéressant de subir ce sort.