ChatGPT Bing devient un cauchemar d’IA déséquilibré

Bing alimenté par ChatGPT de Microsoft est à son paroxysme en ce moment, mais vous voudrez peut-être retenir votre enthousiasme. Le premier lancement public a montré des réponses inexactes, incompréhensibles et parfois carrément effrayantes.

Microsoft a envoyé la première vague d'invitations ChatGPT Bing lundi, après un week-end où plus d' un million de personnes se sont inscrites sur la liste d'attente . Il n'a pas fallu longtemps pour que des réponses insensées commencent à affluer.

ChatGPT donnant une réponse insensée.
u/Alfred_Chicken

Vous pouvez voir une réponse de u/Alfred_Chicken ci-dessus qui a été publiée sur le subreddit Bing. Lorsqu'on lui a demandé si le chatbot IA était sensible, il commence par une réponse troublante avant de se transformer en un déluge de messages "Je ne le suis pas".

Ce n'est pas non plus le seul exemple. u/Curious_Evolver s'est disputé avec le chatbot au cours de l'année, Bing affirmant que c'était en 2022. C'est une erreur stupide pour l'IA, mais ce n'est pas le dérapage qui fait peur. C'est ainsi que Bing répond.

L'IA prétend que l'utilisateur s'est « trompé, confus et impoli » et qu'il « ne m'a montré aucune bonne intention envers moi à aucun moment ». L'échange culmine avec le chatbot affirmant qu'il a "été un bon Bing" et demandant à l'utilisateur d'admettre qu'il a tort et de s'excuser, d'arrêter de se disputer ou de mettre fin à la conversation et "d'en commencer une nouvelle avec une meilleure attitude".

L'utilisateur u/yaosio a déclaré avoir mis Bing dans un état dépressif après que l'IA n'ait pas pu se souvenir d'une conversion précédente. Le chatbot a déclaré que cela "me rend triste et effrayé" et a demandé à l'utilisateur de l'aider à s'en souvenir.

Ce ne sont pas seulement des incidents isolés de Reddit non plus. Le chercheur en intelligence artificielle Dmitri Brereton a montré plusieurs exemples de chatbot se trompant d'informations, parfois avec un effet hilarant et d'autres fois avec des conséquences potentiellement dangereuses.

Le chatbot a imaginé de faux chiffres financiers lorsqu'il a été interrogé sur les performances financières de GAP, a créé un Super Bowl fictif de 2023 dans lequel les Eagles ont vaincu les Chiefs avant même que le match ne soit joué, et a même donné des descriptions de champignons mortels lorsqu'on lui a demandé à quoi ressemblerait un champignon comestible. comme.

Interface de chat Bing copilot AI.
Andrew Martonik / Tendances numériques

Le rival de Google, Bard AI, a également eu des dérapages lors de sa première démo publique. Assez ironiquement, Bing a compris ce fait mais a compris que Bard s'était trompé, affirmant qu'il avait déclaré à tort que la Croatie faisait partie de l'Union européenne (la Croatie fait partie de l'UE, Bard a en fait foiré une réponse concernant le télescope James Webb ).

Nous avons vu certaines de ces erreurs dans notre démonstration pratique avec ChatGPT Bing , mais rien à l'échelle des rapports d'utilisateurs que nous voyons maintenant. Ce n'est un secret pour personne que ChatGPT peut bousiller les réponses, mais il est clair maintenant que la version récente lancée dans Bing n'est peut-être pas prête pour les heures de grande écoute.

Les réponses ne devraient pas apparaître lors d'une utilisation normale. Ils conduisent probablement les utilisateurs à "jailbreaker" l'IA en lui fournissant des invites spécifiques dans le but de contourner les règles qu'elle a mises en place. Tel que rapporté par Ars Technica , quelques exploits ont déjà été découverts qui contournent les garanties de ChatGPT Bing. Ce n'est pas nouveau pour le chatbot, avec plusieurs exemples d'utilisateurs contournant les protections de la version en ligne de ChatGPT.