Le créateur de ChatGPT cherche à éliminer les « hallucinations » du chatbot
Malgré toute l'excitation autour de ChatGPT et des chatbots similaires alimentés par l'IA , les outils textuels ont encore de sérieux problèmes qui doivent être résolus.
Parmi eux, il y a leur tendance à inventer des trucs et à les présenter comme des faits lorsqu'ils ne connaissent pas la réponse à une question, un phénomène connu sous le nom d'"hallucination". Comme vous pouvez l'imaginer, présenter des mensonges comme des faits à quelqu'un utilisant l'un des nouveaux chatbots puissants pourrait avoir de graves conséquences.
Un tel problème a été mis en évidence lors d'un incident récent au cours duquel un avocat expérimenté de New York a cité des cas – suggérés par ChatGPT – qui se sont avérés ne jamais s'être produits. L'avocat peut faire face à des sanctions à la suite de son action.
Un autre incident a reçu une large attention en avril lorsque ChatGPT a apparemment réécrit l'histoire en disant qu'un maire australien avait été emprisonné pour corruption alors qu'il travaillait pour une banque alors qu'en fait il avait été un dénonciateur dans l'affaire.
Pour rendre sa technologie de chatbot plus fiable, les ingénieurs d'OpenAI ont révélé qu'ils se concentraient actuellement sur l'amélioration de son logiciel afin de réduire et, espérons-le, d'éliminer ces occurrences problématiques.
Dans un document de recherche publié mercredi et repris par CNBC , OpenAI a déclaré que les chatbots "présentent une tendance à inventer des faits dans les moments d'incertitude", ajoutant: "Ces hallucinations sont particulièrement problématiques dans les domaines qui nécessitent un raisonnement en plusieurs étapes puisqu'une seule logique une erreur est suffisante pour faire dérailler une solution beaucoup plus grande.
Pour s'attaquer aux faux pas du chatbot, les ingénieurs d'OpenAI travaillent sur des moyens pour que ses modèles d'IA se récompensent pour avoir produit des données correctes lorsqu'ils se dirigent vers une réponse, au lieu de se récompenser uniquement au point de conclusion. Selon les ingénieurs, le système pourrait conduire à de meilleurs résultats car il intègre davantage une procédure de chaîne de pensée humaine.
Mais certains experts ont exprimé des doutes sur le travail, disant à CNBC qu'il est peu utile jusqu'à ce qu'il soit intégré à ChatGPT, qui entre-temps continuera d'halluciner. OpenAI n'a pas dit si et quand il pourrait intégrer son travail dans ses outils d'IA générative.
Bien qu'il soit bon de savoir qu'OpenAI travaille à résoudre le problème, cela pourrait prendre un certain temps avant de voir des améliorations. En attendant, comme le dit OpenAI lui-même, ChatGPT peut parfois générer des informations incorrectes, alors assurez-vous de confirmer ses réponses si elles font partie de tâches importantes.