« Vous ne pouvez pas lécher un blaireau deux fois » : comment la présentation de l’IA de Google hallucine les idiomes
La dernière tendance en matière d'IA est amusante, car un utilisateur a découvert que vous pouvez insérer une phrase inventée dans Google et lui ajouter un « sens », puis la fonction de présentation de l'IA de Google hallucinera le sens de la phrase.
L'historien Greg Jenner a lancé la tendance avec un article sur Bluesky dans lequel il a demandé à Google d'expliquer la signification de « Vous ne pouvez pas lécher un blaireau deux fois ». AI Overview a utilement expliqué que cette expression signifie que vous ne pouvez pas tromper quelqu'un une seconde fois après avoir déjà été trompé une fois – ce qui semble être une explication raisonnable, mais ignore le fait que cet idiome n'existait pas avant que cette requête ne devienne virale.
Depuis lors, les gens ont eu beaucoup de plaisir à demander à AI Overview d'expliquer des idiomes comme « Un calmar dans un vase ne dira pas de mal » ( ce qui signifie que quelque chose en dehors de son environnement naturel ne sera apparemment pas en mesure de causer du mal) ou « Vous pouvez emmener votre chien à la plage mais vous ne pouvez pas le faire naviguer jusqu'en Suisse » ( ce qui est , selon AI Overview, une phrase assez simple sur la difficulté des voyages internationaux avec des animaux de compagnie).
Cependant, cela ne fonctionne pas dans tous les cas, car certaines phrases ne renvoient pas les résultats de l'aperçu de l'IA. "C'est extrêmement incohérent", a déclaré le scientifique cognitif Gary Marcus à Wired , "et c'est ce que vous attendez de GenAI."
Jenner souligne que, aussi divertissant que cela puisse paraître, cela indique certains des pièges liés à une trop grande dépendance aux sources générées par l'IA, comme AI Overview, pour obtenir des informations. "C'est un signe d'avertissement que l'une des fonctions clés de Google – la capacité de vérifier une citation, de vérifier une source ou de retrouver quelque chose dont on se souvient à moitié – deviendra d'autant plus difficile si l'IA préfère légitimer les possibilités statistiques plutôt que la vérité réelle", a écrit Jenner.
Ce n’est pas la première fois que des personnes soulignent les limites des informations fournies par l’IA, et AI Overview en particulier. Lorsque AI Overview a été lancé, il suggérait tristement que les gens devraient manger un petit caillou par jour et qu'ils pouvaient mettre de la colle sur leur pizza, bien que ces réponses particulières aient été rapidement supprimées.
Depuis lors, Google a déclaré dans une déclaration à Digital Trends que la majorité des aperçus de l'IA fournissent des informations utiles et factuelles et qu'il continuait de recueillir des commentaires sur son produit d'IA.
Pour l’instant, cependant, cela vous rappelle de vérifier les informations qui apparaissent dans la zone Présentation de l’IA en haut des résultats Google, car elles peuvent ne pas être exactes.