De l’IA ouverte aux lunettes intelligentes piratées, voici les 5 plus grands titres de l’IA cette semaine

Les lunettes intelligentes Ray-Ban Meta de style Headline sont portées par un mannequin.
Méta

Nous sommes officiellement passés à Spooky Season cette semaine et, entre le cycle de financement de 6,6 millions de dollars d'OpenAI, le LLM surprise de Nvidia et certaines lunettes intelligentes Meta portant atteinte à la vie privée, nous avons assisté à un nombre effrayant de développements dans le domaine de l'IA. Voici cinq des plus grandes annonces.

Sam Altman, PDG d'OpenAI, debout sur scène lors d'un événement produit.
Andrew Martonik / Tendances numériques

OpenAI obtient 6,6 milliards de dollars lors du dernier cycle de financement

L'existence charmante de Sam Altman se poursuit avec l'annonce cette semaine selon laquelle OpenAI a obtenu un investissement supplémentaire de 6,6 milliards de dollars dans le cadre de son dernier cycle de financement. Les investisseurs existants comme Microsoft et Khosla Ventures ont été rejoints par les nouveaux venus SoftBank et Nvidia. La société d’IA est désormais évaluée à 157 milliards de dollars, ce qui en fait l’une des entreprises privées les plus riches de la planète. Et si le plan de restructuration à but lucratif proposé par OpenAI se concrétise, cette valorisation accorderait à Altman plus de 150 milliards de dollars de capitaux propres, le propulsant ainsi sur la liste des 10 personnes les plus riches de la planète. Suite à l'annonce du financement, OpenAI a déployé Canvas , sa version de la fonctionnalité collaborative Artifacts d'Anthropic.

Jensen, PDG de Nvidia, devant un arrière-plan.
Nvidia

Nvidia vient de publier un LLM open source pour rivaliser avec GPT-4

Nvidia passe du matériel d'IA au logiciel d'IA avec la sortie cette semaine de LVNM 1.0 , un grand modèle de langage véritablement open source qui excelle dans une variété de tâches de vision et de langage. La société affirme que la nouvelle famille de modèles, dirigée par le LVNM-D-72B de 72 milliards de paramètres, peut rivaliser avec le GPT-4o. Cependant, Nvidia positionne LVNM non pas comme un concurrent direct des autres LLM de classe frontière, mais comme une plate-forme sur laquelle d'autres développeurs peuvent créer leurs propres chatbots et applications.

Une démonstration de Gemini Live sur un Google Pixel 9.
Joe Maring / Tendances numériques

Gemini Live de Google parle désormais près de quatre douzaines de langues

On dirait que pouvoir parler directement avec votre chatbot est la nouvelle fonctionnalité incontournable. Google a annoncé cette semaine qu'ilétendait Gemini Live pour converser dans près de quatre douzaines de langues au-delà de l'anglais, à commencer par le français, l'allemand, le portugais, l'hindi et l'espagnol. Microsoft a également révélé une fonctionnalité similaire pour Copilot, baptisée Copilot Voice , qui, selon la société, est « le moyen le plus intuitif et le plus naturel de réfléchir en déplacement ». Ils rejoignent le mode vocal avancé de ChatGPT et les interactions vocales naturelles de Meta pour permettre aux utilisateurs de parler avec leur téléphone, pas seulement avec eux.

Le gouverneur de l'État de Californie, Gavin Newsom, s'exprimant lors d'un pupitre
Jauge Skidmore / Flickr

Le gouverneur de Californie oppose son veto à un vaste projet de loi sur la sécurité de l'IA

Tous les combats autour du SB 1047, la loi californienne sur l'innovation sûre et sécurisée pour les modèles artificiels frontaliers, ont été vains puisque le gouverneur Gavin Newsom a opposé son veto au projet de loi sur la sécurité de l'IA cette semaine . Dans une lettre aux législateurs, il a fait valoir que le projet de loi se concentrait de manière myope sur le plus grand des modèles linguistiques et que « des modèles plus petits et spécialisés pourraient apparaître comme tout aussi dangereux, voire plus, que les modèles ciblés par le SB 1047 ».

Les lunettes intelligentes Ray-Ban Meta au bord d'une piscine.
Phil Nickinson / Tendances numériques

Des pirates informatiques transforment les lunettes intelligentes Meta en machine automatique de doxing

Deux étudiants en informatique de Harvard ont réussi à modifier une paire de lunettes intelligentes Meta disponibles dans le commerce afin de pouvoir identifier et rechercher toute personne qui entre dans leur champ de vision, a rapporté cette semaine 404 Media . Les lunettes, qui font partie de l'expérience I-XRAY, ont été conçues pour capturer des images d'étrangers dans la rue, faire passer ces images via le logiciel de reconnaissance d'images PimEyes pour identifier le sujet, puis utiliser ces informations de base pour rechercher ses informations personnelles (c'est-à-dire son numéro de téléphone et adresse personnelle) sur les sites de courtage de données commerciales.

"Pour l'utiliser, il vous suffit de mettre les lunettes, puis lorsque vous passez devant des gens, les lunettes détecteront quand le visage de quelqu'un est dans le cadre", ont expliqué les deux hommes dans une démo vidéo publiée sur X . "Après quelques secondes, leurs informations personnelles apparaissent sur votre téléphone." Les implications d’un tel système sur la vie privée sont terrifiantes. Le duo n’a pas l’intention de divulguer publiquement le code source, mais maintenant qu’ils ont montré que cela était possible, il n’y a plus grand-chose qui puisse empêcher les autres de procéder à une ingénierie inverse.