Ce fut une semaine énorme pour l’IA. Voici les 5 plus grandes annonces que vous devez savoir
La course vers l’AGI (intelligence générale artificielle) s’est poursuivie à un rythme soutenu, ce qui a semblé être une semaine monumentale dans le développement rapide de l’IA.
Depuis qu'Apple nous a donné un avant-goût de son intelligence jusqu'aux énormes avancées en matière de vidéo générée par l'IA, jetons un coup d'œil à certaines des principales histoires d'IA de cette semaine.
Lancements en douceur d'Apple Intelligence
Ce fut une semaine mouvementée pour le fabricant d'appareils basé à Cupertino. Nous avons assisté aux débuts publics d' iOS 18 , WatchOS 11 et MacOS 15 , immédiatement suivis par la mise en vente de l'iPhone 16 et de l'Apple Watch 10, ainsi qu'Apple déployant sa première mise à jour du nouveau système d'exploitation avec la version bêta 18.1 .
La version bêta n'offre pas la suite complète des fonctionnalités de l'IA (nous ne nous attendons pas à la voir avant la sortie officielle de la version 18.1 en octobre), mais elle est suffisante pour donner aux utilisateurs intéressés un avant-goût de ce que l'agent d'IA génératif sera bientôt capable de faire. .
Cependant, d'après ce que Digital Trends a déjà vu , Apple Intelligence aura probablement besoin de plus de raffinement et de peaufinage avant d'être prêt pour le public.
Lionsgate s'associe à Runway pour former des modèles vidéo IA
Bizarrement, j’aurais juré que la grève des écrivains hollywoodiens de l’été dernier s’est produite spécifiquement en opposition à l’adoption inconsidérée par Hollywood de l’IA générative. Cette action collective n’a apparemment pas dissuadé Lionsgate de revenir dans le train de l’IA, qui a annoncé cette semaine son partenariat avec Runway, fabricant du modèle de génération vidéo Gen-3 Alpha.
L'accord verra les deux sociétés collaborer pour développer et former un modèle de génération vidéo utilisant le vaste catalogue de contenu cinématographique et télévisuel de Lionsgate. Les deux hommes envisagent de l'utiliser pour "développer des opportunités de création de contenu de pointe et économes en capitaux", ce qui, nous le savons tous, est la marque du grand cinéma et non une tentative mal conçue visant à priver de leurs droits les milliers de scénaristes, de concepteurs d'éclairage et d'effets. acteurs, musiciens et autres qui effectuent le travail réel de production de films et de séries télévisées en les remplaçant par une IA générative intégrée.
Snap lance de nouvelles et gigantesques lunettes Spectacles AR
Snap continue d'essayer de faire des lunettes AR une chose. Cette semaine, la société a publié la cinquième et dernière itération de sa gamme de lunettes Spectacles AR . Le nouveau matériel offre un champ de vision plus large et un affichage qui ressemble à « un écran de 100 pouces à 10 pieds de distance », tandis que SnapOS et l'application pour smartphone associée ont tous deux reçu des mises à niveau significatives par rapport à leurs versions précédentes. Snap s'associerait également à OpenAI pour apporter aux lunettes intelligentes des « modèles d'IA multimodaux hébergés dans le cloud ».
Les nouvelles spécifications pèsent également 226 grammes, soit plus de 100 grammes de plus que l'édition de l'année dernière, et ressemblent à quelque chose qu'Edna Mode porterait. Ils ne sont actuellement disponibles que pour les développeurs qui déboursent 99 $/mois pour accéder au programme, et on ne sait pas encore quand une version grand public sera publiée.
Les nouveaux outils d'IA de YouTube effectuent l'essentiel du processus de création de contenu à votre place
Dans le but de réduire les barrières à l’entrée pour les nouveaux créateurs de contenu et de mieux rivaliser avec les plateformes de vidéos courtes comme TikTok, YouTube a introduit cette semaine une multitude de nouveaux outils de production améliorés par l’IA . Google a annoncé mercredi lors de son événement Made on YouTube à New York que le modèle de génération vidéo Veo de DeepMind serait intégré à YouTube Studio. Le modèle peut générer des clips de six secondes en résolution 1080p et une grande variété de styles cinématographiques, à partir d'une simple invite de texte.
La société présente ces nouvelles fonctionnalités comme un assistant de « brainstorming » capable de suggérer des sujets pour la vidéo, ainsi que de générer un titre, une vignette et les premières lignes du script. Les utilisateurs pourront également utiliser Veo en conjonction avec Dream Screen, qui génère des images d'arrière-plan IA. Vous pourrez créer un arrière-plan statique avec Dream Screen puis l'animer avec Veo.
Par coïncidence, saviez-vous que demander à un chatbot d'écrire un e-mail de 100 mots pour vous consomme l'équivalent de trois bouteilles d'eau et de 14 ampoules LED fonctionnant pendant une heure ? Essayez peut-être d'utiliser votre caboche pour réfléchir à des idées originales au lieu de lacs bouillants pour entendre les suggestions récursives d'un grand modèle de langage.
Le Gen-3 Alpha de Runway propose désormais la génération vidéo à vidéo
Runway Gen-3 Alpha vient de passer au niveau supérieur avec la vidéo vers vidéo
Vous pouvez désormais transformer le style de n'importe quelle vidéo en utilisant uniquement des invites textuelles avec une qualité incroyable.
10 exemples fous de ce qui est possible : pic.twitter.com/onh12zCzpI
— Min Choi (@minchoi) 15 septembre 2024
Avant d'annoncer son partenariat avec Lionsgate, Runway a commencé la semaine en déployant une nouvelle fonctionnalité pour son modèle de génération vidéo Gen-3 Alpha : la possibilité de modifier le style cinématographique de n'importe quelle vidéo via des invites textuelles. Les passionnés d’IA s’en donnent à cœur joie avec le nouvel outil.
Vous pouvez voir la technologie en action dans la publication sur les réseaux sociaux ci-dessus. Runway a également lancé cette semaine une API qui permettra aux développeurs tiers d'intégrer le modèle vidéo dans leurs propres applications, systèmes et appareils.