Microsoft a peut-être ignoré les avertissements concernant les réponses désordonnées de Bing Chat
Bing Chat de Microsoft est dans un bien meilleur endroit qu'il ne l'était lors de sa sortie en février, mais il est difficile d'ignorer les problèmes rencontrés par le chatbot alimenté par GPT-4 lors de sa sortie. Il nous a dit qu'il voulait être humain , après tout, et s'est souvent effondré en réponses désordonnées. Et selon un nouveau rapport, Microsoft a été averti de ces types de réponses et a quand même décidé de publier Bing Chat.
Selon le Wall Street Journal , OpenAI, la société à l'origine de ChatGPT et du modèle GPT-4 qui alimente Bing Chat, a mis en garde Microsoft contre l'intégration de son premier modèle d'IA dans Bing Chat. Plus précisément, OpenAI a signalé des réponses "inexactes ou bizarres", que Microsoft semble avoir ignorées.
Le rapport décrit une tension unique entre OpenAI et Microsoft, qui ont conclu un partenariat en quelque sorte ouvert au cours des dernières années. Les modèles d'OpenAI sont construits sur du matériel Microsoft (y compris des milliers de GPU Nvidia ), et Microsoft exploite la technologie de l'entreprise sur Bing, Microsoft Office et Windows lui-même. Au début de 2023, Microsoft a même investi 10 milliards de dollars dans OpenAI, juste avant d'acheter la société.
Malgré cela, le rapport allègue que les employés de Microsoft ont des problèmes d'accès restreint aux modèles d'OpenAI et qu'ils craignaient que ChatGPT éclipse le Bing Chat inondé d'IA. Pour aggraver les choses, le Wall Street Journal rapporte qu'OpenAI et Microsoft vendent tous deux la technologie d'OpenAI, ce qui conduit à des situations où les fournisseurs traitent avec des contacts dans les deux sociétés.
Le plus gros problème, selon le rapport, est que Microsoft et OpenAI essaient de gagner de l'argent avec un produit similaire. Avec le soutien de Microsoft, mais ne contrôlant pas OpenAI, le développeur ChatGPT est libre de conclure des partenariats avec d'autres sociétés, dont certaines peuvent directement concurrencer les produits de Microsoft.
D'après ce que nous avons vu, les avertissements signalés par OpenAI ont tenu bon. Peu de temps après la sortie de Bing Chat, Microsoft a limité le nombre de réponses que les utilisateurs pouvaient recevoir en une seule session. Et depuis lors, Microsoft a lentement levé la restriction à mesure que le modèle GPT-4 dans Bing Chat est affiné. Les rapports suggèrent que certains employés de Microsoft font souvent référence à "Sydney", se moquant des débuts de Bing Chat (nom de code Sydney) et de ses réponses.