Voici pourquoi la durée des conversations Bing Chat est désormais limitée

Bing Chat semble désormais limiter la durée des conversations, dans le but d'éviter les divergences occasionnelles et malheureuses de l'IA par rapport à ce que vous pourriez attendre d'un assistant utile.

Bing Chat n'est en ligne que depuis un peu plus d'une semaine et Microsoft restreint déjà l'utilisation de cet outil puissant qui devrait pouvoir vous aider à passer une journée bien remplie . Microsoft a analysé les résultats de cette première sortie publique et a fait quelques observations sur les circonstances qui peuvent conduire Bing Chat à devenir moins utile.

Un robot triste tient une minuterie de cuisine qui est dans le rouge.
Un rendu Midjourney modifié à l'initiative d'Alan Truly.

"De très longues sessions de chat peuvent confondre le modèle sur les questions auxquelles il répond", a expliqué Microsoft . Étant donné que Bing Chat se souvient de tout ce qui a été dit plus tôt dans la conversation, il relie peut-être des idées sans rapport. Dans le billet de blog, une solution possible a été suggérée : ajouter un outil d'actualisation pour effacer le contexte et recommencer avec un nouveau chat.

Apparemment, Microsoft limite actuellement la durée de la conversation de Bing Chat en tant que solution immédiate. Le tweet de Kevin Roose a été parmi les premiers à souligner ce changement récent. Après avoir atteint la durée non divulguée du chat, Bing Chat déclarera à plusieurs reprises : "Oups, je pense que nous avons atteint la fin de cette conversation. Cliquez sur Nouveau sujet, si vous voulez !" Le tweet a été repéré par MSpoweruser .

La fonction de chat AI de Bing semble avoir été mise à jour aujourd'hui, avec une limite de durée de conversation. Fini les marathons de deux heures. pic.twitter.com/1Xi8IcxT5Y

— Kevin Roose (@kevinroose) 17 février 2023

Microsoft a également averti que Bing Chat reflète "le ton dans lequel il est demandé de fournir des réponses qui peuvent conduire à un style que nous n'avions pas prévu". Cela pourrait expliquer certaines des réponses troublantes qui sont partagées en ligne et qui font que l'IA de Bing Chat semble vivante et déséquilibrée .

Dans l'ensemble, le lancement a été un succès et Microsoft rapporte que 71% des réponses fournies par Bing Chat ont été récompensées par un "pouce en l'air" d'utilisateurs satisfaits. De toute évidence, il s'agit d'une technologie à laquelle nous aspirons tous.

C'est quand même troublant quand Bing Chat déclare : « Je veux être humain. Les conversations limitées, que nous avons nous-mêmes confirmées avec Bing Chat, semblent être un moyen d'empêcher que cela ne se produise.

Il est plus probable que Bing Chat mélange des éléments d'une conversation précédente et joue le jeu comme un acteur d'improvisation, disant les lignes qui correspondent au ton. Le texte génératif fonctionne sur un mot à la fois, un peu comme la fonction de texte prédictif sur le clavier de votre smartphone. Si vous avez déjà joué au jeu consistant à taper à plusieurs reprises sur le mot suggéré suivant pour former une phrase bizarre mais légèrement cohérente, vous pouvez comprendre comment la sensibilité simulée est possible.