Un initié d’Apple vient de révéler comment fonctionneront les fonctionnalités d’IA d’iOS 18
Alors que la Conférence mondiale des développeurs d'Apple (WWDC) se rapproche , les discussions autour du travail de l'entreprise en matière d'IA ont pris une tournure fébrile. Au cours d'une année où les marques de smartphones et d'ordinateurs se sont concentrées uniquement sur les subtilités de l'IA, Apple est resté inhabituellement silencieux face au battage médiatique de l'IA, suscitant des inquiétudes quant au fait que la marque rate le train.
Cependant, un nouveau rapport nous a permis d'examiner de plus près comment les rêves d'Apple en matière d'IA pourraient se concrétiser avec sa mise à jour iOS 18 plus tard cette année.
Nouveaux détails sur les plans d'IA d'Apple
Il semble qu'Apple soit très présent dans le jeu, mais avec une approche légèrement différente de celle de ses concurrents. « Apple a développé un vaste modèle de langage – l’algorithme qui sous-tend les fonctionnalités d’IA générative – et tout indique qu’il sera entièrement intégré à l’appareil. Cela signifie que la technologie est alimentée par le processeur à l'intérieur de l'iPhone, plutôt que dans le cloud », rapporte Bloomberg .
Des rumeurs concernant un outil interne nommé « AppleGPT » circulent depuis un certain temps déjà. Mais il semble qu'Apple n'ait pas tout à fait atteint le niveau de finesse que Google et Microsoft (avec OpenAI) ont atteint avec des outils comme ChatGPT, Copilot et Gemini . Cela explique également des rapports récents affirmant qu'Apple pourrait accorder une licence à Gemini AI de Google – tout comme Samsung et OnePlus – pour les iPhones au lieu de proposer un produit qui ne se démarque pas vraiment.
Ou, pour le dire plus précisément, il n’est pas à la hauteur des standards d’Apple. Les outils d’IA générative, même ceux construits sur les plus grands ensembles de données, continuent d’échouer de manière assez spectaculaire, du moins à leurs débuts. Google a récemment dû s'excuser pour un problème accablant avec le système de conversion texte-image de Gemini AI. L'IA de Meta n'est pas loin derrière. Ensuite, il y a toute la tempête qui se prépare autour des lois sur le droit d'auteur, de la divulgation équitable et de la transparence de la formation, ce qu'Apple voudrait éviter.
Mais il semble qu’au lieu de vendre la proverbiale huile de serpent de l’IA, Apple souhaite adopter une approche plus prudente. "Plutôt que de vanter la puissance des chatbots et autres outils d'IA générative, Apple prévoit de montrer comment la technologie peut aider les gens dans leur vie quotidienne", ajoute le rapport Bloomberg.
Depuis que ChatGPT est arrivé sur la scène et a lancé une révolution de l'IA, nous avons été témoins d'un flot d'outils d'IA capables de tout, depuis la génération d'images réalistes et le clonage de voix jusqu'à la création de vidéos photoréalistes à partir de texte et la participation à des discussions coquines en tant que partenaire virtuel. Pourtant, la plus grande question est de savoir dans quelle mesure ces astuces flashy sont-elles gratifiantes pour un consommateur moyen au quotidien.
Mais cela ne veut pas dire qu’Apple ne cherche pas à se démarquer dans la course à l’IA. Bien au contraire, en fait. Au cours des derniers mois, Apple a publié plusieurs documents de recherche documentant un outil d'IA appelé MGIE , capable de réaliser des astuces telles que l'édition multimédia avec des commandes vocales. Un autre détaille MM1 , un grand modèle de langage multimodal qui ouvre les portes d’un « apprentissage amélioré en contexte et d’un raisonnement multi-images ».
Où en est Apple dans la course à l’IA ?
Nous avons récemment disséqué un autre élément de recherche d'Apple qui se concentre sur l'IA donnant un sens au contenu à l'écran et aidant les utilisateurs en conséquence. Le fil de discussion suivant rédigé par un ingénieur Apple sur X, anciennement connu sous le nom de Twitter, détaille les progrès réalisés par Apple par rapport à des concurrents comme le modèle Gemini AI de Google :
Ce n'est que le début. L’équipe travaille déjà dur sur la prochaine génération de modèles. Un grand merci à tous ceux qui ont contribué à ce projet !
— Brandon McKinzie (@mckbrando) 15 mars 2024
D’autres articles ont abordé l’IA dans le cadre de la confidentialité et de la sécurité, ce qui n’est pas surprenant pour Apple. L'approche sur l'appareil mentionnée ci-dessus est au cœur de toute cette approche en matière de confidentialité. L’exécution de modèles d’IA sur l’appareil garantirait qu’aucune donnée ne quitte l’iPhone. Cela contraste avec l’envoi des requêtes des utilisateurs à un serveur cloud, une stratégie qui ralentit également toute la chaîne d’interaction homme-IA.
De plus, Apple a déjà le matériel de base prêt . La société propose une unité de traitement neuronal (NPU) dans les iPhones depuis 2017. Il s'agit d'un matériel d'accélérateur d'IA dédié, qui fonctionne dans la même veine que l'unité de traitement tenseur (TPU) des smartphones Pixel de Google, désormais capables d'exécuter le Gemini. modèle sur l'appareil. Il est intéressant de noter qu’Apple a également commencé à jeter les bases il y a quelque temps.
Lors de la WWDC 2022, la société a publié ce qu’elle appelle « une implémentation PyTorch de référence open source de l’architecture Transformer ». Les transformateurs sont l’outil de base de toute la technologie d’IA générative. Cet article du Financial Times est une excellente (et agréable) explication de la technologie des transformateurs issue d'un document de recherche de Google en 2017, la même année où nous avons obtenu un NPU dans l'iPhone X.
Le dernier rapport de Bloomberg indique qu'Apple offrira un aperçu de son approche en matière d'IA lors de la WWDC 2024, qui débutera en juin. Une approche d'IA générative sur l'appareil rendra-t-elle enfin Siri plus intelligent, de la même manière que Google a tenté de suralimenter Google Assistant ces derniers temps ? Seul le temps nous le dira.