J’espère qu’Apple apportera cette fonctionnalité Vision Pro à l’iPhone
Les réalités alternatives conçues numériquement peuvent être excitantes ou inconfortables, selon la façon dont vous les envisagez. Mais Apple, parmi d'autres entreprises investies dans un avenir dominé par l'AR et la VR, souhaite clairement que vous vous concentriez sur le bon côté des choses. C'est pourquoi Apple a consacré beaucoup de temps à sa conférence des développeurs WWDC 2023 pour mettre en évidence les différentes fonctionnalités de l' Apple Vision Pro , le nouveau casque de réalité mixte extravagant d'Apple.
Selon le récit sûr d'Apple lors de l'événement, le Vision Pro nous fait entrer dans une nouvelle ère de l'informatique et repousse les limites des écrans fixes . Les procédures promotionnelles nous convainquent facilement que le casque est à la fois visuellement et fonctionnellement unique à bien des égards.
Qu'il s'agisse de vous permettre d'étendre votre flux de travail avec d'innombrables écrans qui s'étalent dans l'espace ambiant ou de vous immerger dans des passerelles naturelles hyperréalistes, le casque présente de nombreuses fonctionnalités fascinantes. Et nous espérons certainement que quelques-unes de ses fonctionnalités feront leur chemin vers d'autres appareils, en particulier l'iPhone.
Les nouveaux avatars FaceTime d'Apple sont incroyables
Le Vision Pro est proclamé pour mélanger des scénarios réels et imaginatifs de manière transparente, ce qui peut persuader l'esprit humain d'oublier réellement les frontières entre les domaines physique et virtuel. Ceci est réalisé grâce à des éléments virtuels qui ne flottent pas simplement dans votre espace physique, mais améliorent également votre environnement physique. L'une des façons consiste à avoir des détails infimes, tels que les ombres de ces fenêtres flottantes, projetées sur des objets du monde réel dans votre environnement.
Une autre façon dont Apple cherche à étonner (ainsi qu'à perplexer) les non-utilisateurs est d'utiliser des avatars virtuels dans FaceTime. Avec le casque, Apple salue la nouvelle ère du "FaceTime spatial", où les vidéos de chaque participant apparaîtront dans des fenêtres qui lacent les environnements réels des utilisateurs de Vision Pro. Mais les gens de l'autre côté ne verront pas votre visage enveloppé dans le couvre-chef.
Le Vision Pro créera à la place des représentations virtuelles astucieusement réalistes – et, en même temps, étrangement énervantes – de l'utilisateur. Ces avatars s'affichent à la place de la vue réelle et sont créés avec les deux caméras TrueDepth sur le casque. Notamment, la caméra TrueDepth est un système de caméra unique introduit à l'origine sur l'iPhone X. Il comprend un illuminateur infrarouge, un projecteur de points et une caméra infrarouge. Ces trois systèmes se combinent pour aider à créer une carte 3D du visage de l'utilisateur qui peut être utilisée pour déverrouiller l'iPhone à l'aide de Face ID.
L'avatar reproduira vos expressions faciales, vos mouvements oculaires et vos gestes pour paraître plus naturels. Cela résout le problème de tenir constamment votre iPhone dans votre main ou de faire face à l'écran de votre Mac lorsque vous êtes sur FaceTime – ou d'apparaître comme le passionné de technologie looney qui aime rester déséquilibré tout en essayant les derniers gadgets.
Pour Apple, c'est aussi un moyen tangible d'inciter davantage de personnes à embarquer avec son idéologie naissante de l'informatique spatiale – sinon pour une autre raison, mais pour éviter la peur de manquer quelque chose (FOMO). Mais en plus de convaincre les utilisateurs Apple existants de dépenser 3 500 $ pour une technologie émergente , il existe un autre moyen pour Apple de rendre ces avatars hyperréalistes plus courants – en les amenant sur l'iPhone et l'iPad.
Ils ne devraient pas être exclusifs à Vision Pro
Il y a de bonnes raisons pour lesquelles les avatars Virtual FaceTime conviennent aussi bien aux autres appareils Apple qu'au Vision Pro.
Tout d'abord, l'intégration de FaceTime spatial à tous les appareils s'aligne sur la nouvelle ère d'"informatique spatiale" proposée par Apple. En attendant un futur tangible où la réalité augmentée prendra complètement le pas sur les autres interactions avec les ordinateurs et surtout remplacera nos chers smartphones , Apple peut profiter de cette opportunité pour améliorer la familiarité avec la technologie.
En plus d'être conforme à l'élimination des frontières entre le monde réel et le monde virtuel, l'offre d'une expérience FaceTime spatialisée s'inscrit parfaitement dans les principes d'un écosystème d'Apple, où tous les appareils – du moins ceux de premier plan – fonctionnent de manière similaire et en harmonie les uns avec les autres. L'analyste renommé Ming-Chi Kuo affirme également la nécessité d'établir une harmonie entre le Vision Pro et les autres appareils de l'écosystème Apple, le citant comme essentiel au succès initial du casque.
De plus, pour favoriser une expérience logicielle convergente, Apple s'efforcera de renforcer le matériel de ses autres appareils, en particulier l'iPhone. Naturellement, l'iPad (au moins la variante Pro) suivra. Cela fait de l'iPhone et de l'iPad Pro des candidats dignes de partager des expériences avec le Vision Pro, et une expérience FaceTime spatiale en tête de liste de nos attentes.
Apple a déjà les atouts dans son sac
Apple a déjà jeté les bases de cette transition vers des avatars réalistes, mettant des années de travail dans la création et l'amélioration d'Animoji . Ces grands emojis animés sur les appareils Apple imitent les expressions faciales et les mouvements de la tête d'une personne.
Si vous n'êtes pas familier, Apple propose également une version spécialisée d'Animoji – appelée Memoji – qui crée une caricature 3D du visage de l'utilisateur de l'iPhone. Cette caricature peut ensuite être utilisée pour des emojis personnalisés, comme des réactions animées dans iMessage, ou même dans — roulement de tambour — FaceTime pour se voiler le visage.
Ce n'est pas surprenant quand on pense que Memoji est le signe avant-coureur des avatars animés de Vision Pro. Comme l'avatar animé sur le Vision Pro, Memoji utilise la caméra TrueDepth sur l'iPhone ou l'iPad Pro pour suivre les mouvements de la tête.
Outre Face ID et Animoji, Apple utilise également la caméra TrueDepth pour des fonctionnalités de caméra supplémentaires, telles que des effets d'éclairage de studio sur l'iPhone et la fonction Center Stage sur l'iPad Pro. De plus, il permet aux développeurs tiers d'ajouter une nouvelle dimension de données provenant des capteurs TrueDepth à leurs applications via une API. Il est logique qu'Apple s'appuie sur ces fonctionnalités existantes pour inclure la prise en charge d'une expérience FaceTime améliorée similaire à la Vision Pro.
Favoriser notre argument est également le fait qu'Apple n'a pas mis à jour l'apparence visuelle d'Animoji ces dernières années. La dernière mise à jour Animoji proche du lancement de l' iPhone 14 n'avait ajouté que de nouvelles animations et quelques expressions faciales supplémentaires, laissant place à l'amélioration.
L'iPhone et l'iPad sont prêts
Outre la caméra TrueDepth, un autre aspect en accord avec l'idée est le matériel des appareils mobiles d'Apple. La majorité des modèles d'iPhone et d'iPad Pro sont pilotés par le même matériel puissant (ou similaire) sous le capot que sur le casque Vision Pro, qui contient le silicium M2 personnalisé d'Apple. La même chose peut être vue sur le MacBook Air, le MacBook Pro 13 pouces et l' iPad Pro 2022 .
De même, le chipset A16 Bionic qui pilote les modèles iPhone 14 Pro et iPhone 14 Pro Max est identique au M2, mais avec une puissance de traitement légèrement inférieure en raison d'un CPU et d'un GPU comparativement moins puissants. Malgré des performances moins puissantes sur l'iPhone, il est néanmoins suffisamment puissant pour restituer une version 3D de vous tout en reproduisant les expressions faciales et les gestes de la main en temps réel.
Avec le successeur de l'A16, Apple devrait apporter des améliorations structurelles au chipset en passant à un processus de fabrication beaucoup plus efficace en 3 nanomètres (3 nm). Sur la base d'un ensemble de résultats de référence selon la rumeur, l'A17 Bionic pourrait se rapprocher davantage du M2 .
Les appareils mobiles sont la porte d'entrée de la réalité augmentée
Outre l'utilisation de la caméra TrueDepth de l'iPhone pour créer des personnages virtuels pour FaceTime, les modèles iPad Pro et iPhone Pro sont bien équipés pour reproduire les tuiles de chaque participant dans FaceTime, réparties géométriquement sur le Vision Pro. L'iPad Pro (2020 et plus récent) et l'iPhone (12 Pro et plus récent) ont présenté un scanner lidar avec les caméras à l'arrière.
Le scanner lidar (abréviation de Light Detection and Ranging) peut détecter avec précision la distance entre l'iPhone et l'iPad Pro et tout objet physique en faisant briller la lumière dessus et en mesurant la quantité réfléchie. Cela rend le scanner lidar extrêmement utile pour les applications de réalité augmentée (AR).
Lors des précédents lancements d'iPhone et d'iPad, Apple a dédié des démos élaborées aux jeux et applications AR . L'extension de la technologie au propre FaceTime d'Apple est parfaitement logique pour étendre le FaceTime spatial au-delà de la Vision Pro.
Apple pourrait encore décevoir
Malgré nos vœux pieux, nous ne verrons peut-être pas de FaceTime spatial sur d'autres appareils cette année. Pour Apple, apporter l'expérience FaceTime de Vision Pro à d'autres appareils avant son lancement, qui est prévu pour "début 2024", cela signifierait diluer l'excitation et la nouveauté associées à son casque futuriste. Non seulement cela, ce ne serait pas non plus différent d'Apple si ces fonctionnalités étaient limitées au Vision Pro dans le but de générer exclusivement des ventes pour le gadget extravagant.
Si Apple décide d'apporter le FaceTime spatial à d'autres appareils, les premiers bénéficiaires seraient l'iPad Pro 2024 ou l'iPhone 16. Mais si cela s'avère vrai, le FaceTime spatial sur l'iPhone 16 bénéficiera d'un système TrueDepth amélioré qui est spéculé à ranger et à cacher sous l'écran.
Je veux un FaceTime spatial sur mon iPhone
Les expériences partagées sont au cœur de la philosophie d'Apple , ce qui nous donne un espoir déraisonnable d'apporter cette fonctionnalité clé de Vision Pro à l'iPhone et aux autres appareils pris en charge. Bien que nos attentes soient partiellement renforcées par le pur désir de découvrir FaceTime d'une manière nouvelle et excitante sans débourser 3 500 $, elles sont également soutenues par le fait que les modèles récents d'iPhone et d'iPad Pro sont équipés du matériel nécessaire pour faire de ce rêve une réalité.
Cependant, il y a une chance égale – ou probablement plus élevée – que cela ne se produise pas, juste pour qu'Apple puisse obliger plus de gens à partager sa vision (jeu de mots!) Pour un avenir surréaliste mais tissé numériquement. Après tout, une seule unité du Vision Pro rapportera environ trois fois plus de revenus qu'un iPhone ou un iPad Pro à la vache avide d'argent. Les rumeurs font également état d'uncasque relativement moins cher avec visionOS , mais ce sera loin d'être une version SE-fied nettement plus abordable.
Peut-être que le meilleur plan d'action en ce moment est d'attendre quelques mois en 2024. Ce sera la période où le Vision Pro sera (espérons-le) déjà lancé sur le marché et donnera à Apple une chance – et de nombreuses mesures – pour évaluer si le casque peut se vendre de manière rentable en tant qu'appareil autonome (avec un avantage certain) ou s'il a besoin du soutien de ses frères et sœurs plus âgés soutenu par un sentiment de familiarité.