2023 a été l’année de l’IA. Voici les 9 moments qui l’ont défini

ChatGPT a peut-être été lancé fin 2022, mais 2023 a sans aucun doute été l'année où l'IA générative a pris possession de la conscience publique.

Non seulement ChatGPT a atteint de nouveaux sommets (et bas), mais une pléthore de changements sismiques ont secoué le monde, allant d'incroyables produits rivaux à des scandales choquants et tout le reste. Alors que l'année touche à sa fin, nous revenons sur les neuf événements les plus importants dans le domaine de l'IA qui ont eu lieu au cours des 12 derniers mois. Cela a été une année pas comme les autres pour l’IA – voici tout ce qui l’a rendue mémorable, à partir du début de 2023.

Les concurrents de ChatGPT se précipitent sur le marché

Bing Chat affiché sur un ordinateur portable.
Jacob Roach / Tendances numériques

Aucune liste comme celle-ci ne commence sans la montée en puissance sans précédent de ChatGPT. Le chatbot gratuit d'OpenAI a pris d'assaut le monde, grandissant rapidement et capturant l'imagination de chacun, des leaders technologiques aux gens ordinaires dans la rue.

Le service a été initialement lancé en novembre 2022, mais a véritablement commencé à se développer au cours des premiers mois de l'année. Le succès retentissant de ChatGPT a laissé ses concurrents se battre pour obtenir une réponse. Personne n’était plus terrifié que Google, semble-t-il, l’entreprise craignant que l’IA puisse rendre son activité lucrative de recherche pratiquement obsolète. En février, quelques mois après l'introduction en bourse de ChatGPT, Google a riposté avec Bard, son propre chatbot IA. Puis, juste un jour plus tard, Microsoft a révélé sa propre tentative avec Bing Chat .

Les choses ont été un peu pires pour Bing Chat, le chatbot étant sujet à ce qui est devenu connu sous le nom d'« hallucinations » – des incidents où il mentait, inventait de faux faits et était généralement peu fiable. Il a déclaré à un journaliste qu'il avait espionné, tombé amoureux, puis assassiné son propre développeur . Lorsque nous l’avons testé, il prétendait être parfait, disait qu’il voulait être humain et discutait sans relâche avec nous. En d’autres termes, c’était déséquilibré.

Les choses se sont un peu mieux passées pour Google Bard – il n'était pas aussi argumentatif et évitait complètement l'utilisation dérangée des emojis par Bing Chat – mais avait toujours tendance à être peu fiable . Au moins, les réponses rapides de Google et de Microsoft à ChatGPT ont montré à quel point leurs tentatives étaient précipitées – et à quel point le penchant de l'IA pour la désinformation pouvait être dangereux.

GPT-4 fait sensation

Le site ChatGPT sur iPhone.
Joe Maring / Tendances numériques

Lorsque ChatGPT a été lancé, il était alimenté par un grand modèle de langage (LLM) appelé GPT-3.5. C'était très performant mais présentait certaines limites, comme la possibilité de prendre uniquement du texte comme méthode de saisie. Une grande partie de cela a changé avec GPT-4 , qui a été rendu public en mars.

Le développeur de ChatGPT, OpenAI, a déclaré que le nouveau LLM était meilleur à trois égards : la créativité, la saisie visuelle et le contexte plus long. Par exemple, GPT-4 peut utiliser des images comme entrée et peut également collaborer avec les utilisateurs sur des projets créatifs tels que la musique, les scénarios et la littérature.

Actuellement, GPT-4 est verrouillé derrière le paywall ChatGPT Plus d'OpenAI, qui coûte 20 $ par mois. Mais même avec cette portée limitée, elle a eu un impact énorme sur l’IA. Lorsque Google a annoncé son Gemini LLM en décembre, il a affirmé qu'il était capable de battre GPT-4 dans la plupart des tests – mais le fait qu'il puisse le faire de seulement quelques points de pourcentage près d'un an après le lancement de GPT-4 vous dit tout ce dont vous avez besoin. pour savoir à quel point le modèle d'OpenAI est avancé.

Les images générées par l’IA commencent à tromper le public

Une photo réalisée par le générateur d'images AI Midjourney représentant le pape François dans une grande doudoune blanche.
Pablo Xavier

Peu d’incidents ont illustré le pouvoir de l’IA pour tromper et désinformer qu’une seule image publiée début 2023 : celle du pape François dans unegrande doudoune blanche .

L'image improbable avait été créée par une personne nommée Pablo Xavier à l'aide du générateur d'IA Midjourney, mais elle était si réaliste qu'elle a facilement trompé un grand nombre de téléspectateurs sur les réseaux sociaux, y compris des célébrités comme Chrissy Teigen . Il a mis en évidence à quel point les générateurs d’images d’IA peuvent être convaincants – et leur capacité à tromper les gens en leur faisant croire à des choses qui ne sont pas réelles.

En fait, juste une semaine avant l’apparition de l’image du Pape, une autre série de photos a fait la une des journaux pour une raison similaire. Ils représentaient l'ancien président Donald Trump arrêté, se battant avec des policiers et purgeant une peine de prison. Lorsque de puissants générateurs d’images se mêlent à des sujets sensibles, qu’ils soient liés à la politique, à la santé, à la guerre ou à autre chose, les risques peuvent être extrêmes. Alors que les images générées par l’IA deviennent encore plus réalistes, la création du pape François est un exemple léger de la rapidité avec laquelle nous aurions tous besoin d’améliorer notre niveau d’éducation aux médias.

Les images générées par l’IA sont devenues de plus en plus courantes tout au long de l’année, apparaissant même dans les résultats de recherche Google avant les images réelles.

Une pétition commence à tirer la sonnette d'alarme

Le cofondateur d'Apple, Steve Wozniak, se tient sur un fond sombre.
Steve Wozniak, co-fondateur d'Apple. Jauge Skidmore / Flickr

L’IA évolue à une vitesse si vertigineuse – et a déjà eu des conséquences si alarmantes – que de nombreuses personnes s’inquiètent sérieusement de ce qu’elle pourrait déclencher. En mars 2023, ces craintes ont été exprimées par certains des plus éminents dirigeants technologiques du monde dans une lettre ouverte .

La note appelle « tous les laboratoires d’IA à suspendre immédiatement pendant au moins six mois la formation de systèmes d’IA plus puissants que GPT-4 » afin de donner à la société dans son ensemble le temps d’évaluer les risques. Autrement, une poussée à grande échelle vers l’IA pourrait « présenter de profonds risques pour la société et l’humanité », notamment la destruction potentielle d’emplois, l’obsolescence de la vie humaine et la « perte de contrôle de notre civilisation ».

La lettre a été signée par un who's who de leaders technologiques, du co-fondateur d'Apple Steve Wozniak et du patron de Tesla, Elon Musk, à une liste de chercheurs et d'universitaires. Que des entreprises d’IA aient réellement remarqué que les bénéfices potentiels à court terme sont si importants est une autre affaire – il suffit de regarder Google Gemini, qui, selon ses créateurs, dépasse GPT-4. Espérons que la lettre ne se révèle pas prophétique.

ChatGPT se connecte à Internet

Application ChatGPT fonctionnant sur un iPhone.
Joe Maring / Tendances numériques

Lorsque ChatGPT a été lancé pour la première fois, il s'est appuyé sur son énorme quantité de données de formation pour aider à fournir des réponses aux gens. Le problème, cependant, était qu'il ne pouvait pas rester à jour et était de peu d'utilité si quelqu'un voulait l'utiliser pour faire une réservation dans un restaurant ou trouver un lien pour acheter un produit.

Tout a changé lorsque OpenAI a annoncé une liste de plugins quiaideraient ChatGPT à se connecter à Internet . Soudain, une nouvelle façon d’utiliser l’IA pour faire avancer les choses est apparue. Le changement a également considérablement mis à jour et élargi ce que le chatbot pouvait faire par rapport à avant. En termes de capacité et d’utilité, il s’agissait d’une énorme mise à niveau.

Mais ce n'est qu'en mai que ses capacités de navigation ont été étendues lorsque le plugin Navigation via Bing a été annoncé lors de la conférence des développeurs Microsoft Build . Le déploiement a été lent jusqu'en septembre, date à laquelle il est devenu disponible pour tous les utilisateurs de ChatGPT Plus.

Windows obtient un nouveau Copilot

Le PDG de Microsoft, Satya Nadella, annonce des mises à jour de l'outil d'intelligence artificielle (IA) Copilot de l'entreprise.
Microsoft

Microsoft a introduit Bing Chat au début de l'année, mais l'entreprise n'est pas restée immobile. Cette évolution a été suivie par Copilot , une utilisation beaucoup plus étendue de l'IA intégrée aux produits Microsoft, annoncée pour la première fois pour Microsoft 365 Copilot.

Alors que Bing Chat était un simple chatbot, Copilot est plutôt un assistant numérique. Il est intégré à de nombreuses applications Microsoft, comme Word et Teams, ainsi qu'à Windows 11 lui-même. Il peut créer des images, résumer des réunions, rechercher des informations et les envoyer à vos autres appareils, et bien plus encore. L'idée est que cela vous fait gagner du temps et des efforts sur des tâches longues en les automatisant pour vous. En fait, Bing Chat a même été intégré sous l’égide de Copilot en novembre.

En intégrant si étroitement Copilot dans Windows 11, Microsoft a non seulement indiqué sa philosophie globale en matière d'IA, mais a également lancé le défi à Apple et à son système d'exploitation rival macOS. Jusqu’à présent, l’avantage revient à Microsoft, d’autant plus que nous envisageons le lancement de Windows 12 en 2024 .

Le monde universitaire aux prises avec l’IA

Une personne est assise devant un ordinateur portable. Sur l'écran de l'ordinateur portable se trouve la page d'accueil du chatbot d'intelligence artificielle ChatGPT d'OpenAI.
Viralyft/Unsplash

Compte tenu de la rapidité avec laquelle l’IA a explosé sur la scène, vous seriez pardonné de ne pas bien comprendre comment tout cela fonctionne. Mais ce manque de connaissances a eu de réelles conséquences pour les étudiants de la Texas A&M University-Commerce lorsqu'un professeur a raté toute la classe pour avoir apparemment utilisé ChatGPT pour rédiger ses articles – malgré aucune preuve que les étudiants le faisaient réellement.

Le problème est survenu lorsque le Dr Jared Mumm a copié et collé les devoirs des étudiants dans ChatGPT, puis a demandé au chatbot s'il avait pu générer le texte, ce à quoi ChatGPT a répondu par l'affirmative. Le problème? ChatGPT ne peut pas réellement détecter le plagiat de l'IA de cette manière.

Pour illustrer ce point, les utilisateurs de Reddit ont apporté la propre lettre du Dr Mumm aux étudiants dans laquelle il les accusait de tricherie, puis l'ont collée dans ChatGPT et ont demandé au chatbot s'il avait pu écrire la lettre. La réponse? "Oui, j'ai écrit le contenu que vous avez partagé", a menti ChatGPT. Si vous voulez l’exemple parfait à la fois d’une IA hallucinante et d’une confusion humaine autour de ses capacités, c’est ça.

Hollywood contre l'IA

Le signe Hollywood.
Paul Deetman/Pexels

Il est désormais clair que l’intelligence artificielle est incroyablement performante, mais c’est précisément pour cette raison qu’un grand nombre de personnes partout dans le monde s’en inquiètent. Un rapport affirme par exemple que jusqu’à 300 millions d’emplois pourraient être détruits par l’IA si son développement n’est pas contrôlé. Ce genre d’inquiétude a motivé les écrivains hollywoodiens à faire grève, craignant que les patrons de studio ne finissent par les remplacer par l’IA.

Le syndicat des écrivains – la Writers Guild of America (WGA) – s'est mis en grève pendant près de cinq mois à ce sujet, commençant en mai et se terminant en septembre, lorsqu'il a finalement obtenu d'importantes concessions de la part des studios. Celles-ci comprenaient des dispositions selon lesquelles l'IA ne serait pas utilisée pour écrire ou réécrire du matériel, que le contenu des écrivains ne pourrait pas être utilisé pour former l'IA, et plus encore. Il s’agit d’une victoire importante pour les travailleurs concernés, mais étant donné la rapidité avec laquelle le développement de l’IA se poursuit, ce ne sera probablement pas le dernier conflit entre l’IA et les personnes qu’elle touche.

La saga Sam Altman

Sam Altman à la conférence des développeurs OpenAI.
OpenAI

Sam Altman, PDG d'OpenAI, est le visage très visible de l'ensemble du secteur de l'IA depuis que ChatGPT a explosé dans la conscience mondiale. Pourtant, tout cela s’est effondré un jour de novembre lorsqu’il a été renvoyé sans cérémonie d’OpenAI – à la grande surprise de lui-même et du monde en général.

Le conseil d'administration d'OpenAI l'a accusé de n'être « pas toujours franc » dans ses relations avec l'entreprise. Pourtant, la réaction a été rapide et forte, la majorité des employés de l'entreprise ayant menacé de démissionner si Altman n'était pas réintégré. L'investisseur OpenAI, Microsoft, a proposé des emplois à Altman et à toute autre personne d'OpenAI souhaitant le rejoindre, et pendant un instant, il a semblé que l'entreprise d'Altman était sur le point de s'effondrer.

Puis, aussi rapidement qu'il est parti, Altman a été réintégré, et de nombreux membres du conseil d'administration ont exprimé leurs regrets pour tout l'incident. Internet a regardé en retenant son souffle en temps réel le déroulement des événements, avec une seule question qui courait derrière tout le cirque : pourquoi ? Altman est-il vraiment tombé sur un développement de l’IA qui a suscité de sérieuses préoccupations éthiques ? Le projet Q* était-il sur le point d’atteindre l’AGI ? Y avait-il un Game of Thrones en lice pour le pouvoir, ou Altman n'était-il vraiment qu'un mauvais patron ?

Nous ne connaîtrons peut-être jamais toute la vérité. Mais aucun autre moment en 2023 n’a résumé l’hystérie, la fascination et la pensée conspiratrice provoquées par l’IA cette année.