Vous pourrez bientôt contrôler votre iPhone et iPad avec vos yeux
Apple a annoncé un certain nombre de nouvelles fonctionnalités d'accessibilité qui arriveront plus tard cette année pour les propriétaires d'iPhone et d'iPad. Parmi eux, la possibilité d'interagir avec les interfaces iOS et iPadOS à l'aide du mouvement des yeux, ce que l'on observe dans un système similaire sur le matériel Mac.
La société l’appelle Eye Tracking et il s’agit d’un système construit sur les fondations de Dwell Control. Jusqu'à présent, Dwell Control était disponible dans le cadre du clavier d'accessibilité sur macOS, permettant aux utilisateurs d'exécuter des actions de la souris à l'aide de gestes des yeux et de la tête.
Sur iPhone et iPad, Eye Tracking ne nécessitera que quelques secondes pour se calibrer et fonctionnera à l’aide de la caméra frontale. Une fois activé, il permettra aux utilisateurs handicapés physiques d'effectuer des gestes de balayage et de bouton avec leurs mouvements oculaires.
Des actions Dwell sont également disponibles pour le casque Vision Pro. Sur la coûteuse machine XR, ils sont regroupés dans le cadre du système Assistive Touch dans les paramètres d’accessibilité. Sur les machines Mac, les gestes des yeux et de la tête permettent le clic de la souris, le glisser-déposer et d'autres gestes de contrôle de base de l'interface utilisateur.
Pour les utilisateurs malentendants, Apple ajoute une fonctionnalité sur les iPhones appelée Music Haptics. Une fois activé, le Taptic Engine installé à l'intérieur d'un iPhone produira des vibrations synchronisées avec la lecture de la musique en utilisant un mélange de frappes rythmiques, de vibrations douces et de textures.
Cette fonctionnalité a déjà été certifiée pour les millions de chansons de la bibliothèque Apple Music. Les développeurs peuvent également exploiter les interfaces de programmation d'applications (API) pour permettre un retour d'accessibilité basé sur les vibrations afin de rendre leurs applications plus inclusives et fonctionnellement gratifiantes pour les personnes malentendantes.
Pour les personnes souffrant de difficultés d’élocution, Apple ajoute quelques nouvelles fonctionnalités à ses téléphones et tablettes. Le premier est Atypique Speech, qui s’appuie sur l’apprentissage automatique pour identifier la signature vocale unique d’une personne afin de pouvoir l’aider à effectuer des tâches à l’aide de commandes vocales.
Le prochain en ligne est les raccourcis vocaux. Celui-ci permet aux utilisateurs d'enregistrer des signaux audio personnalisés, puis de les attribuer comme raccourcis pour diverses tâches sur l'appareil, qui peuvent être de nature en une ou plusieurs étapes. Apple affirme que ces fonctionnalités ont été « conçues pour les utilisateurs souffrant de maladies acquises ou évolutives qui affectent la parole, telles que la paralysie cérébrale, la sclérose latérale amyotrophique (SLA) ou les accidents vasculaires cérébraux ».
Une autre fonctionnalité à venir est Personal Voice. Les personnes qui ont du mal à prononcer ou à lire de longues phrases peuvent créer une voix personnelle en utilisant des phrases plus courtes.
Apple a également développé une fonction de bien-être qui prend en compte le mal des transports dans les circonstances à bord du véhicule. La fonctionnalité en question s'appelle Vehicle Motion Cues et, une fois activée, elle affichera des points animés sur l'écran qui sont alignés dynamiquement avec le mouvement directionnel d'un véhicule. L’idée est de réduire les conflits sensoriels, en permettant aux utilisateurs de lire plus facilement le contenu à l’écran.