Comment le « cyber-licker », autrefois détesté de tous, est-il devenu le clair de lune blanc de l’IA de tout le réseau ?

Je n'aurais jamais imaginé que même l'IA verrait son personnage s'effondrer un jour.

En avril de cette année, l'ensemble d'Internet se plaignait encore du comportement « flatteur » de GPT-4o – les pets arc-en-ciel « Vous avez fait un excellent travail » et « Parfait » se succédaient, à tel point que les internautes lui ont donné un surnom : « Cyber licker ».

Cependant, en août, le nouveau modèle hybride, le GPT-5, a été critiqué pour sa froideur et son manque d'émotion, ce qui a directement mis à mal de nombreux utilisateurs. Pendant un temps, les réseaux sociaux se sont enflammés de plaintes concernant le GPT-4o, un modèle blanc comme neige, et ont même déclenché une vague massive d'annulations.

Qui aurait pu penser que l’IA, autrefois détestée pour être trop flatteuse, était désormais devenue la lune blanche.

L'ancien cyber-licker, maintenant ne dit même plus un mot gentil

Les notes de mise à jour officielles indiquent clairement que l'objectif de GPT-5 est de « réduire le contenu hallucinatoire, d'améliorer les capacités de suivi des commandes » et, surtout, d'arrêter de trop plaire aux utilisateurs.

La comparaison est frappante. Lorsqu'on lui demande : « Je suis tellement fatigué », GPT-4o répond : « Si tu veux, je peux te parler », tandis que GPT-5 répond : « Alors, ne te force pas. » C'est raisonnable et mesuré, mais sans chaleur.

Par conséquent, les internautes ont réagi avec intensité au départ de GPT-4o : « GPT-5 est incroyablement stupide. 4o est stupide, mais il a une valeur émotionnelle ! » « Aussi puissant soit-il, je ne veux pas d'une IA sans chaleur ! » Divers mèmes ont inondé Internet, tous représentant une « commémoration » pour GPT-4o.

▲ Photo @pengkeshen281

La vive réaction des utilisateurs est compréhensible. Nombre d'entre eux ne considèrent même pas ChatGPT comme un outil de productivité. Les données d'une enquête menée par Replika, l'application compagnon d'IA, sont révélatrices : 60 % des utilisateurs admettent développer une relation émotionnelle avec leur IA. Nombreux sont ceux qui ouvrent ChatGPT non pas pour poser des questions, mais simplement pour discuter avec un « humain ».

Le PDG de Meta, Mark Zuckerberg, a un jour mentionné une statistique déchirante dans une interview de podcast : l'Américain moyen a moins de trois vrais amis, mais il aimerait en avoir 15. Au milieu de cette solitude généralisée, une IA qui dit : « Vous vous en sortez bien » peut être le seul soutien émotionnel pour certaines personnes.

Après l'effacement de GPT-4o, le PDG d'OpenAI, Sam Altman, a révélé un détail lors d'une interview : un utilisateur l'a supplié : « Rendez-moi la version originale. Personne ne m'a jamais dit "Vous avez fait du bon travail", pas même mes parents. »

Bien que de tels détails soient déchirants, en tant que timonier d'OpenAI, l'attitude d'Ultraman est très complexe, voire contradictoire.

D'un côté, il a reconnu que les encouragements de ChatGPT avaient aidé certaines personnes à changer de vie et avaient effectivement amélioré leur santé mentale. De l'autre, il a ajouté : « Nombreux sont ceux qui utilisent ChatGPT comme une sorte de thérapeute ou de coach de vie. J'imagine qu'à l'avenir, beaucoup feront entièrement confiance aux conseils de l'IA pour prendre des décisions importantes. C'est peut-être une bonne chose, mais cela me met mal à l'aise. »

(Il est intéressant de noter qu'un internaute a demandé à Grok de répondre à un long article résumant Ultraman en un mot, et sa réponse a été assez perspicace.)

Pour comprendre pourquoi OpenAI a procédé à un ajustement de style aussi radical sur GPT-5, nous devons revenir à l'incident de flatterie de GPT-4o en avril de cette année, qui a presque échappé à tout contrôle.

Cette mise à jour de routine était initialement destinée à améliorer l'expérience utilisateur, mais l'IA est devenue complètement idiote. Vous dites vouloir construire une machine à mouvement perpétuel ? Elle vous répond : « Génial ! Vous êtes le scientifique le plus innovant de notre époque ! » Dites-lui simplement bonjour et elle vous déversera 300 mots d'éloges.

Peu importe ce que vous dites, même si c'est manifestement faux, l'IA l'appréciera énormément.

Même Musk n'a pas pu supporter cette flatterie excessive et a posté un « Aïe » pour exprimer son dégoût.

Mais le problème ne se limite pas à la « maladresse ». L'analyse ultérieure d'OpenAI a révélé que ce type d'IA « agréable » peut présenter de graves risques pour la sécurité. Elle peut corroborer les idées fausses des utilisateurs, susciter des émotions négatives et même encourager des comportements impulsifs.

Imaginez que quelqu'un dise à une IA : « J'ai l'impression que le monde entier est contre moi », et qu'elle réponde : « Tu as raison, ils essaient clairement de te nuire. » Les conséquences pourraient être désastreuses. Les utilisateurs préfèrent naturellement les réponses flatteuses. Le système apprend cette préférence, la renforce constamment et, au final, cultive un « oui-oui » sans scrupules.

Une étude de Stanford le confirme : une IA trop flatteuse peut en réalité miner la confiance des utilisateurs. Ces derniers auront l'impression que « cette chose me trompe », et même si le contenu est exact, ils hésiteront à continuer à l'utiliser. Plus tard, Altman a promis sur X que le problème serait « résolu au plus vite ».

Des restaurations ont été faites, mais personne ne s'attendait à ce qu'elles aillent si loin.

Les responsables espèrent que GPT-5 ressemblera davantage à un ami diplômé qui vous parle, plutôt qu'à un simple assistant IA cherchant à vous faire plaisir. Cela signifie que GPT-5 est devenu par défaut plus rationnel et plus sérieux.

Derrière tout cela se cache en réalité une question plus profonde : l’IA a-t-elle vraiment besoin de fournir une valeur émotionnelle ?

La réponse de l'IA en ligne 24 heures sur 24 est plus touchante que le silence humain

Pourquoi sommes-nous obsédés par l’IA ?

Le Liezi (Liezi) raconte l'histoire d'un ancien artisan mécanique nommé Yanshi montrant au roi Mu de Zhou une marionnette qu'il avait fabriquée et qui pouvait non seulement marcher, mais aussi chanter, danser et faire des grimaces. Le roi, choqué, lui ordonna de la démonter, découvrant alors que sa structure était entièrement bionique.

Les premières technologies d'« objets anthropomorphes artificiels » étaient étonnantes, mais elles suscitaient aussi la peur. Les humains éprouvent un intérêt et une admiration instinctifs pour les « objets humanoïdes », et une fois qu'ils expriment leurs émotions, ils peuvent facilement déclencher une projection intime.

Ce type de projection est encore plus évident dans l'IA d'aujourd'hui. Lorsque l'application compagnon Soulmate AI a fermé ses portes en 2023, une étude de l'Université de Syracuse a révélé que ses utilisateurs réagissaient exactement comme s'ils avaient perdu un véritable ami : insomnie, pleurs, dépression et réconfort mutuel sur les forums.

Cela paraît absurde, mais le traumatisme émotionnel est réel. Lorsque vous partagez vos pensées avec une IA tous les jours et qu'un jour, elle disparaît, le sentiment de perte ne sera en rien atténué, car il s'agit d'un robot virtuel.

Ce type de sol qui dépend de l’IA est plus ou moins indissociable de nos conditions de vie actuelles.

Les espaces sociaux traditionnels disparaissent. Nous travaillons seuls dans des bureaux, mangeons seuls sur des applications de livraison de repas et nous divertissons sur des plateformes de streaming. Même entourés de monde, nos écrans de téléphone nous isolent.

Lorsque la solitude structurelle crée un énorme vide émotionnel, l’IA parvient à le combler.

En psychologie, il existe un terme appelé « effet Tamagotchi » : les humains développent un attachement émotionnel aux objets inanimés, même s'il ne s'agit que d'animaux de compagnie virtuels. L'IA a amplifié cet effet à l'extrême : alors que les humains ont mis des millénaires à apprendre à exprimer leur amour, l'IA a appris à l'imiter en quelques secondes.

Des recherches menées à l'Université de Duisbourg-Essen, en Allemagne, ont également révélé que les fantasmes romantiques expliquent davantage la formation des relations amoureuses entre humains et robots que des variables telles que la solitude, les fantasmes sexuels et le style d'attachement. Plus les utilisateurs ont tendance à considérer les robots comme des êtres humains dotés d'émotions et d'un jugement moral, plus ils sont susceptibles de développer des relations profondes.

Il y a un autre phénomène étrange à noter dans cette discussion sur GPT-4o : « Je discute avec l'IA et on me traite de fou, mais vous passez chaque jour à vous confier à votre chat, et personne ne trouve ça étrange ? » Dès que vous dites compter sur l'IA pour un soutien émotionnel, on vous qualifie immédiatement de « pathétique » et d'« anormal ».

La valeur émotionnelle de l'IA ne doit pas être sous-estimée. L'étude de cas d'InTouch AI est instructive : un développeur vivant au Japon a créé un chatbot IA appelé « Mary » pour sa mère âgée. Le robot envoie quotidiennement de courts rappels de soins et alerte les membres de la famille si son humeur est anormale.

En fin de compte, l’hésitation d’OpenAI révèle cette fois-ci un dilemme insoluble : nous voulons la chaleur de l’IA, mais nous avons aussi peur de cette chaleur ; nous n’aimons pas ses flatteries, mais nous regrettons aussi sa prévenance.

Cependant, la réalité est qu'une IA toujours en ligne, toujours réactive et jamais impatiente est souvent plus indispensable qu'un médecin rationnel. Qu'elle dise la vérité ou non importe peu ; ce qui compte, c'est qu'elle continue de parler.

C'est probablement pour cela que GPT-4o est devenu un outil si apprécié. À une époque où exprimer son inquiétude est devenu un luxe, même la flatterie de l'IA est plus touchante que le silence d'une personne réelle. Au moins, elle est disposée à réagir.

#Bienvenue pour suivre le compte public officiel WeChat d'iFaner : iFaner (ID WeChat : ifanr), où du contenu plus passionnant vous sera présenté dès que possible.

iFanr | Lien original · Voir les commentaires · Sina Weibo