Microsoft était peut-être au courant des réponses désordonnées de Bing Chat il y a des mois
Bing Chat AI de Microsoft a connu des débuts difficiles, mais il semble que Microsoft ait été au courant des problèmes bien avant ses débuts publics. Un message d'assistance sur le site Web de Microsoft fait référence à des réponses "grossières" du chatbot "Sidney", qui est une histoire que nous entendons depuis la semaine dernière. Voici le problème – le message a été publié le 23 novembre 2022.
La révélation vient de Ben Schmidt , vice-président de la conception de l'information chez Nomic, qui a partagé le poste avec Gary Marcus , un auteur couvrant l'IA et fondateur de Geometric Intelligence. L'histoire raconte que Microsoft a testé Bing Chat – appelé Sidney, selon le post – en Inde et en Indonésie entre novembre et janvier avant de faire l'annonce officielle.
J'ai demandé à Microsoft si c'était le cas, et il a partagé la déclaration suivante :
"Sydney est un ancien nom de code pour une fonctionnalité de chat basée sur des modèles antérieurs que nous avons commencé à tester il y a plus d'un an. Les informations que nous avons recueillies dans le cadre de cela ont contribué à éclairer notre travail avec le nouvel aperçu Bing. Nous continuons à affiner nos techniques et travaillons sur des modèles plus avancés pour intégrer les apprentissages et les commentaires afin que nous puissions offrir la meilleure expérience utilisateur possible. Nous continuerons à partager des mises à jour sur les progrès via notre blog. ”
Le message initial montre le bot AI se disputant avec l'utilisateur et s'installant dans les mêmes formes de phrases que nous avons vues lorsque Bing Chat a déclaré qu'il voulait "être humain ". Plus loin dans le fil, d'autres utilisateurs ont fait part de leurs propres expériences, republiant le tristement célèbre emoji souriant Bing Chat suit la plupart de ses réponses avec.
Pour aggraver les choses, l'affiche initiale a déclaré avoir demandé à fournir des commentaires et à signaler le chatbot, donnant une certaine crédibilité au fait que Microsoft était au courant des types de réponses dont son IA était capable.
Cela va à l'encontre de ce que Microsoft a dit dans les jours qui ont suivi l'explosion du chatbot dans les médias. Dans une annonce couvrant les modifications à venir de Bing Chat , Microsoft a déclaré que le "divertissement social", qui fait vraisemblablement référence à la manière dont les utilisateurs ont tenté de tromper Bing Chat dans des réponses provocantes, était un "nouveau cas d'utilisateur pour le chat".
Microsoft a apporté plusieurs modifications à l'IA depuis son lancement, notamment en réduisant considérablement la durée des conversations. Il s'agit d'un effort pour limiter les types de réponses que nous avons vu circuler quelques jours après que Microsoft a annoncé pour la première fois Bing Chat. Microsoft dit qu'il travaille actuellement sur l'augmentation des limites de chat .
Bien que l'histoire derrière les tests de Bing Chat par Microsoft reste en suspens, il est clair que l'IA était en préparation depuis un certain temps. Plus tôt cette année, Microsoft a investi plusieurs milliards dans OpenAI suite au succès de ChatGPT , et Bing Chat lui-même est construit sur une version modifiée du modèle GPT de l'entreprise. De plus, Microsoft a publié un blog sur "l'IA responsable" quelques jours seulement avant d'annoncer Bing Chat au monde.
Il existe plusieurs questions d'éthique entourant l'IA et son utilisation dans un moteur de recherche comme Bing, ainsi que la possibilité que Microsoft se précipite sur Bing Chat avant qu'il ne soit prêt et ne sache de quoi il était capable. Le message d'assistance en question a été mis à jour pour la dernière fois le 21 février 2023, mais l'historique de la question initiale et les réponses montrent qu'ils n'ont pas été révisés depuis leur date de publication initiale.
Il est possible que Microsoft ait quand même décidé d'aller de l'avant, ressentant la pression du prochain Google Bard et la montée en flèche de la popularité de ChatGPT.