Un avocat s’excuse pour les fausses citations judiciaires créées par ChatGPT
On a beaucoup parlé ces derniers mois de la façon dont la nouvelle vague de chatbots alimentés par l'IA, dont ChatGPT , pourrait bouleverser de nombreuses industries, y compris la profession juridique.
Cependant, à en juger par ce qui s'est récemment passé dans une affaire à New York, il semble qu'il pourrait s'écouler un certain temps avant que des avocats hautement qualifiés ne soient balayés par la technologie.
L'épisode bizarre a commencé lorsque Roberto Mata a poursuivi une compagnie aérienne colombienne après avoir affirmé qu'il s'était blessé lors d'un vol à destination de New York.
La compagnie aérienne, Avianca, a demandé au juge de rejeter l'affaire, alors l'équipe juridique de Mata a rédigé un mémoire citant une demi-douzaine de cas similaires qui s'étaient produits dans le but de persuader le juge de laisser l'affaire de leur client se poursuivre, a rapporté le New York Times .
Le problème était que les avocats de la compagnie aérienne et le juge n'ont trouvé aucune preuve des cas mentionnés dans le mémoire. Pourquoi? Parce que ChatGPT les avait tous inventés.
Le créateur du dossier, Steven A. Schwartz – un avocat très expérimenté du cabinet Levidow, Levidow & Oberman – a admis dans un affidavit qu'il avait utilisé le très célèbre chatbot ChatGPT d'OpenAI pour rechercher des cas similaires, mais a déclaré qu'il avait "révélé elle-même peu fiable.
Schwartz a déclaré au juge qu'il n'avait jamais utilisé ChatGPT auparavant et "n'était donc pas au courant de la possibilité que son contenu puisse être faux".
Lors de la création du dossier, Schwartz a même demandé à ChatGPT de confirmer que les cas se sont réellement produits. Le chatbot, toujours utile, a répondu par l'affirmative, affirmant que des informations à leur sujet pouvaient être trouvées dans des "bases de données juridiques réputées".
L'avocat au centre de la tempête a déclaré qu'il "regrette beaucoup" d'avoir utilisé ChatGPT pour créer le dossier et a insisté sur le fait qu'il ne le ferait "jamais à l'avenir sans une vérification absolue de son authenticité".
Considérant ce qu'il a décrit comme une soumission légale pleine de "fausses décisions judiciaires, avec de fausses citations et de fausses citations internes", et décrivant la situation comme sans précédent, le juge Castel a ordonné une audience au début du mois prochain pour envisager d'éventuelles sanctions.
Bien qu'impressionnants dans la façon dont ils produisent un texte fluide de haute qualité, ChatGPT et d'autres chatbots similaires sont également connus pour inventer des choses et les présenter comme si c'était réel – quelque chose que Schwartz a appris à ses dépens. Le phénomène est connu sous le nom d '«hallucination» et constitue l'un des plus grands défis auxquels sont confrontés les développeurs humains derrière les chatbots alors qu'ils cherchent à aplanir ce pli très problématique.
Dans un autre exemple récent d'un outil d'IA générative hallucinant, un maire australien a accusé ChatGPT d'avoir créé des mensonges à son sujet, notamment qu'il a été emprisonné pour corruption alors qu'il travaillait pour une banque il y a plus de dix ans.
Le maire, Brian Hood, était en fait un dénonciateur dans l'affaire et n'a jamais été accusé d'un crime, il était donc plutôt bouleversé lorsque les gens ont commencé à l'informer de la réécriture de l'histoire par le chatbot.