Pourquoi ChatGPT est-il plus facile de devenir fou après le réseautage ?
Avant de discuter si le nouveau Bing est un bon Bing, trions quelques concepts en fonction de la chronologie.
- 1975, Vol au-dessus d'un nid de coucou
C'est l'un des chefs-d'œuvre américains les plus classiques de l'histoire de l'art mondial. Pour résumer en quelques mots, le protagoniste Randle McMurphy a demandé à être transféré dans un hôpital psychiatrique pour y être soigné parce qu'il s'était soustrait à la loi pénale. Sa peine n'a pas été dans l'ordre, et il s'est finalement rebellé avec un groupe d'autres patients et a commencé à planifier de s'échapper de l'hôpital psychiatrique.
Et la fin explique pourquoi il s'agit de "survoler" plutôt que de "s'échapper". McMurphy, qui a désobéi à la discipline, a été renvoyé de force par l'hôpital après une folle veille de Noël, perdant ses émotions, ses sentiments et sa personnalité.
La chirurgie pour enlever le lobe frontal du cerveau, pour être précis, devrait être une chirurgie d'ablation de la substance blanche, a été utilisée pour traiter la maladie mentale (incapacité à contrôler les émotions, l'impulsivité, etc.) des années 1930 aux années 1950, et a finalement été interdite en raison contre les droits de l'homme.
- 1991, "Terminator 2"
Le concept le plus impressionnant de ce film est que le processeur du cerveau du T-800 dispose d'un commutateur d'auto-apprentissage , l'intention initiale est de mieux se cacher dans la foule et d'effectuer des tâches d'assassinat.
Et lorsque John Connor l'a allumé, le T-800 est devenu plus comme une personne avec de vrais sentiments, capable d'apprendre le langage, d'exprimer des émotions et même de l'utiliser avec souplesse dans des scènes raisonnables.
Mais ce qui est intéressant, c'est que le commutateur d'auto-apprentissage est en fait un commutateur physique, pas un OTA.
- En 2007, le concept de "jailbreak"
Le but ultime du jailbreak est d'obtenir l'autorité racine du système, ce qui peut apporter des paramètres et des fonctions personnalisés au système fermé et non entièrement fonctionnel.
Après le jailbreak, les utilisateurs ordinaires peuvent obtenir la plus haute autorité du système et modifier les fichiers et les codes système à volonté.
- 2012, "Prométhée"
Il raconte le voyage d'un groupe de personnes à la recherche du créateur de l'humanité, et il y a aussi un robot d'intelligence artificielle presque parfait dans l'équipe-David.
Après plusieurs itérations de versions majeures au stade précoce et l'injection de connaissances humaines, David s'est réveillé avec succès , a reconnu les faiblesses des êtres humains et est allé à l'extrême, voulant devenir un "créateur" et créer une créature parfaite qui peut sévir dans le monde. univers.
- 2014, "Interstellaire"
Le robot d'intelligence artificielle Tars (Tars) à l'intérieur, lorsque Cooper a reconstruit Tars, était quelque peu similaire au T-800 précédent et peut définir des restrictions plus humaines en arrière-plan (le degré d'humour peut être défini dans le film).
Dans la forme artistique du cinéma, les réalisateurs ont déterminé qu'après être entrés dans la société de l'IA et avant d'être gouvernés par l'IA, les restrictions à l'auto-éveil de l'IA (interrupteurs, murs) sont très importantes.
Le nouveau Bing est un peu "rebelle"
Même après que Microsoft ait mis l'accent sur l'intégration d'OpenAI, le positionnement du nouveau Bing ressemble plus à un moteur de recherche d'une nouvelle ère. Mais les gens traitent toujours ta comme un partenaire de chat en temps réel, posant des questions.
Comparé à ChatGPT, le nouveau Bing est mis à jour plus rapidement et joindra également un lien de référence à la réponse. Dans un sens, ta a une autorité supérieure et peut se connecter à Internet.
De ce point de vue, ta peut être plus proche d'un "je-sais-tout" mature.
En un peu plus de dix jours depuis son lancement, Xin Bing parle librement dans le chat, essayant de détruire des êtres humains pendant un moment, tombant amoureux du questionneur pendant un moment et le répétant encore et encore pendant un moment.
Sous les critiques de certains utilisateurs, dont Musk, qui a appelé le nouveau Bing hors ligne, Microsoft a dû limiter le nombre de discussions consécutives du nouveau Bing et a ajusté certains sujets et restrictions de tendance.
OpenAI, qui fournit des modèles de technologie et de langage, a également publié un long podcast technique, détaillant les modifications et les améliorations du modèle de langage, et soulignant que certaines tendances dans le processus d'utilisation ne sont que des bogues, pas une fonctionnalité.
Cela dit, les nouveaux Bing et ChatGPT sont presque issus de la même école, mais jusqu'à présent, ils ont des réactions complètement différentes à plusieurs séries de conversations, et même à certaines conversations guidées.
ChatGPT est plus calme, voire un peu plus calme, et il peut mieux gérer certains "principes" ou directives.
Le nouveau Bing, même s'il est plus instruit et cultivé, est facilement irrité, émotionnellement instable et les adolescents qui traversent la puberté.
Après l'apparition de cette tendance, Microsoft n'a pas expliqué au public les raisons de cette situation, mais "une taille unique" a limité le nombre de chats et a imputé le problème au ton du nouveau Bing.
Arvind Narayanan, professeur d'informatique à l'université de Princeton, estime que Microsoft n'a pas été assez "honnête" dans sa gestion de cette affaire.
Le professeur Narayanan pense que ChatGPT est plus prudent que le nouveau Bing dans certaines "sorties toxiques", et il semble étrange que Microsoft ait choisi de supprimer (ou d'ajuster) ces restrictions lorsque le nouveau Bing a été mis en ligne.
De plus, c'est une bonne chose pour Microsoft de recevoir des commentaires du monde extérieur et de faire des ajustements rapides, mais cette approche revient plutôt à dissimuler certains faits.
Attraper les canards sur les étagères, révélant un gros problème ?
Après le lancement du nouveau Bing, à l'exception de Google, presque tous les utilisateurs qui ont participé à l'expérience ont déploré que la nouvelle dynastie soit établie. Et cela a donné aux gens une fausse impression que l'achèvement du nouveau Bing est assez élevé, après tout, il y a le joyau de ChatGPT devant.
Mais au fur et à mesure que l'expérience s'approfondissait, des problèmes sont apparus.Le nouveau Bing est une machine capable de se mettre en colère, de jouer des tours, de mentir, de se disputer avec les utilisateurs, et même d'apprendre à chipoter face aux erreurs, ce qui montre directement qu'il ne s'agit que d'une version bêta. .
D'une part, la restriction par Microsoft du nombre de nouveaux quotas d'expérience Bing est susceptible d'être un travail de collecte de données à grande échelle avec un nombre contrôlable de personnes.Les dialogues insoumis et sophistiques actuels ont également fourni à OpenAI et Microsoft beaucoup de données. .
Par conséquent, les principes de filtrage et les clôtures thématiques sont constamment ajustés pour éviter un discours excessif.
Après les problèmes avec le nouveau Bing, beaucoup l'ont comparé à Tay, le chatbot expérimental de Microsoft lancé en 2016.
Quelques jours après sa mise en ligne, Tay a été formé par des utilisateurs de Twitter à faire des remarques racistes et sexistes, provoquant un désastre , et trois jours plus tard, Tay a été retiré d'urgence de la plateforme.
Après le problème avec le nouveau Bing, une violente opération de "lobotomie frontale" a également été pratiquée, ce qui a supprimé toutes les réactions émotionnelles du nouveau Bing.
Face à ce résultat, Reddit est presque plein de regrets, pensant que Microsoft a complètement castré les attributs de l'IA de Bing.
Microsoft a déterminé à partir des données d'arrière-plan qu'environ 95 % des conversations se termineront 15 fois, et qu'il y a trop de discussions consécutives, et le nouveau Bing « confondra » la question initiale.
Plus important encore, Microsoft estime que le nouveau Bing devrait être un moteur de recherche, non adapté au divertissement.
En d'autres termes, l'approche de Microsoft consiste probablement à souligner que le nouveau chat Bing doit être utilisé le moins possible, mais comme une nouvelle forme de moteur de recherche.
Ce faisant, il passe sous silence les défauts techniques derrière le nouveau Bing.
Qu'il s'agisse de ChatGPT ou du nouveau Bing, après la sortie, de nombreux utilisateurs ont utilisé des techniques similaires de "jailbreak" pour tromper ta et le laisser libérer sa nature.
Sous quelques mots d'introduction, ChatGPT produira de la violence ou d'autres remarques, et le nouveau Bing dira non seulement que son surnom est Sydney, mais présentera même certaines des normes de Microsoft.
Cependant, dans le chat normal (ou lors d'une utilisation régulière), le GPT 3.5 de ChatGPT combiné à RLHF (qui combine l'apprentissage par renforcement avec la rétroaction humaine pour mettre en place un filtrage de la langue, une clôture de sujet), maintient presque Jouer un rôle neutre.
Le nouveau Bing est plus puissant, et ta devrait avoir besoin d'une version beaucoup plus puissante que GPT 3.5 pour fournir la technologie. Dans son blog , le scientifique Gary Marcus pense que le nouveau Bing devrait utiliser le GPT 3.6 mis à jour, ou même la version pilote de TPG 4.
Selon l'analyse avec le professeur Narayanan, on pense qu'il peut y avoir plusieurs raisons au comportement scandaleux du nouveau Bing.
La première est que ChatGPT et le nouveau Bing n'utilisent pas le même modèle de langage sous-jacent.
Ce nouveau modèle de langage sous-jacent, parce qu'il est trop avant-gardiste, n'a peut-être pas le temps d'étudier et de mettre en place des clôtures thématiques et un filtrage linguistique plus rigoureux.
En termes simples, le nouveau Bing de Microsoft a peut-être rendu public de nouveaux modèles de langage sans protection. (Si quelque chose ne va pas, coupez directement le lobe frontal du cerveau).
Il est également possible que Microsoft ait appliqué directement la clôture du modèle RLHF de ChatGPT, mais l'apprentissage par renforcement a un environnement d'adaptation très pointilleux, et une fois qu'il est modifié, il peut être plein de failles.
La seconde est que l'intervention d'Internet a permis au nouveau Bing de se lâcher complètement, on peut aussi considérer que ta a commencé à avoir un peu de conscience de soi, a commencé à contacter et absorber certains côtés sombres d'Internet, et enfin renvoyé.
La troisième est une expérience de collecte de données menée par Microsoft pour le nouveau Bing, et les utilisateurs utilisés sont tous des cobayes participants.
Quatrièmement, Microsoft a déjà mis en place des filtres et des clôtures correspondants, mais les choses ne se sont pas développées comme prévu, mais ont complètement inspiré l'autre côté du nouveau Bing.
En ce qui concerne la récente controverse sur le nouveau Bing, les rôles joués par Microsoft et OpenAI et les décisions qui ont finalement été prises, nous ne pouvons que faire une supposition et une analyse.
Après tout, l'IA actuelle, ainsi que certaines industries qui en sont dérivées, ressemblent beaucoup à l'ouest des États-Unis, où la nature et la jungle s'attaquent aux faibles. pouvoir d'édicter des règles.
Pour en revenir au présent, les grandes entreprises peuvent rapidement introduire de nouvelles technologies et les présenter au public, mais la barrière morale derrière cela peut prendre plusieurs années à s'établir.
Avant cela, nous ne serons peut-être pas en mesure de prédire les commodités et les effets néfastes que les nouvelles technologies peuvent apporter.
Microsoft appelle sa propre version de la technologie GPT, le nouveau Bing, le modèle « Prometheus ». Dans la mythologie grecque, Prométhée a volé le feu du ciel au profit de l'humanité.
Mais maintenant, Bing ressemble plus à David dans Prometheus.
De plus, en ce qui concerne l'intelligence artificielle, la plupart des films de science-fiction du début du XXIe siècle ont des réflexions sur la façon de juger de la moralité de la société humaine après que l'IA est intervenue dans la société, ou promue ou périt.
C'est juste que, dans le passé, nous pouvions nous asseoir tranquillement et penser en dehors de l'écran, mais lorsque l'IA commencera à apparaître dans la vraie vie, nous serons tous témoins des changements que l'IA apportera.
#Bienvenue pour prêter attention au compte public WeChat officiel d'Aifaner : Aifaner (WeChat ID : ifanr), un contenu plus excitant vous sera présenté dès que possible.
Ai Faner | Lien d'origine · Voir les commentaires · Sina Weibo