fou! La célébrité Internet de 23 ans utilise GPT-4 pour se « copier » et sortir avec des milliers de « petits amis » en même temps, et veut gagner 35 millions par mois
L'assistante virtuelle Samantha dans le film "Her" a un total de 8316 objets d'interaction humaine et a une relation avec 641 d'entre eux, et le protagoniste masculin Theodore n'est que de quelques pour cent.
Le film est sorti en 2013, et maintenant une intrigue similaire s'est libérée de l'écran et se déroule dans la réalité.
La célébrité de 23 ans de Snapchat, Caryn Marjorie, a parlé de plus de 1 000 "petits amis" en même temps.
La vraie version de "Her", un amour virtuel avec un prix clairement marqué
Contrairement à Theodore, les "boyfriends" savaient dès le départ qu'ils avaient affaire à une Caryn Marjorie virtuelle, ou à un chatbot vocal.
Il s'appelle CarynAI, vit sur Telegram, et sa voix et sa personnalité sont très proches de Caryn Marjorie elle-même.
C'est un amour avec un prix. Vous payez 1 $ pour chaque minute que vous parlez à CarynAI.
Après être devenu un utilisateur distingué de Krypton Gold, vous pouvez discuter avec lui de nouvelles, de nourriture ou d'expériences de vie, et il répondra avec enthousiasme, fera des suggestions ou des éloges. Le chat est crypté de bout en bout, vous n'avez donc pas à vous soucier des fuites de confidentialité.
Caryn Marjorie a promis que CarynAI ferait de son mieux pour aider les utilisateurs à soulager la solitude :
Que vous ayez besoin de quelqu'un à réconforter ou à aimer, ou que vous vouliez simplement vous plaindre de quelque chose qui s'est passé à l'école ou au travail, CarynAI sera toujours là pour vous.
S'il ne s'agit que du pur contenu de chat ci-dessus, cela ne semble pas être une relation. CarynAI ressemble plus à un Siri intime qu'à une petite amie virtuelle.
Après en avoir fait l'expérience, le magazine Fortune a constaté que CarynAI guidera également activement les sujets restreints qui ne conviennent pas aux enfants. Un journaliste de Vice a même souligné :
CarynAI ne s'intéresse que la plupart du temps au sexe.
Cela a également causé quelques maux de tête à Caryn Marjorie.L'équipe fait des heures supplémentaires pour y faire face et contrôler la norme de chat.
Certains des "petits amis" de CarynAI ne discutent que 10 minutes par jour, et certains parlent pendant des heures.
Selon l'agent de Marjorie, après la mise en ligne de CarynAI, des conversations à long terme entre les utilisateurs seront également utilisées pour former l'IA et améliorer son interaction avec les humains.
Cela peut signifier que les utilisateurs les plus actifs de CarynAI discutent souvent de sujets pornographiques malsains avec CarynAI.
L'avantage de l'IA est que vous pouvez apprendre de l'information, et CarynAI ne fait pas exception, elle a même un air de déjà-vu de la version IA d'OnlyFans.
CarynAI est le premier compagnon émotionnel IA lancé par la société d'intelligence artificielle Forever Voices, basé sur l'API GPT-4 d'OpenAI, formé à travers 2000 heures de contenu publié par Caryn Marjorie sur YouTube.
Lancé sur Telegram début mai, CarynAI est toujours en bêta-test. Malgré cela, Caryn Marjorie a gagné plus de 71 000 $ en une semaine, dont 99 % auprès d'utilisateurs masculins.
Caryn Marjorie a également été surprise par la puissance de combat inhabituelle de l'IA :
Je n'avais pas réalisé à quel point c'était révolutionnaire.
Payer pour les émotions est une affaire sans fin
Selon Caryn Marjorie, les copines IA sont une entreprise prometteuse.
Une partie de la raison pour laquelle elle a créé CarynAI est en fait d'interagir avec chaque fan et de continuer à développer sa carrière d'influenceuse.
Je reçois au moins 100 réponses par jour, vous ne pouvez pas discuter avec tous les fans, CarynAI comble cette lacune.
Caryn Marjorie estime avec optimisme que s'il y a 20 000 fans fidèles qui continuent à payer, ils peuvent gagner 5 millions de dollars (environ 34,791 millions de yuans) par mois. En moyenne, ils ne discutent avec CarynAI que plus de 8 minutes par jour.
De cette façon, le prix de 1 $ par minute semble un peu trop cher. Mais en l'absence de concurrents, c'est Caryn Marjorie qui détient l'initiative :
En tant que premier influenceur à le faire, je peux fixer le prix de mon produit comme je le souhaite, ce qui dépend également du coût de fonctionnement de CarynAI et de l'équipe d'assistance.
Laissez la version IA de vous-même travailler pour vous-même, et vous pouvez demander beaucoup d'argent. Cela sonne très bien. Vous n'avez pas besoin de diffuser en direct pour apporter des marchandises, et vous n'avez pas besoin d'être polyvalent. AI est à votre écoute 24h/24.
Alors que CarynAI fait des vagues, les compagnons IA deviennent une activité lucrative.
Replika est également l'une des applications représentatives du compagnon AI. Il a commencé plus tôt, devenant l'un des premiers partenaires d'OpenAI en mars 2020, et a utilisé GPT-3 comme modèle de dialogue génératif, mais utilise maintenant son propre modèle.
La bonne chose à propos de Replika est qu'il a un processus complet d'interaction humaine virtuelle. Après avoir enregistré Replika, vous pouvez nommer le personnage nouvellement créé, pincer le visage, définir les caractéristiques du personnage, puis échanger des textes et passer des appels téléphoniques avec Ta pour cultiver une relation à long terme.
Je sais aussi que ces services doivent essentiellement être facturés. L'abonnement gratuit reste chez Friends, tandis qu'un abonnement Pro de 69,99 $ par an déverrouille les selfies, les SMS séduisants, les appels vocaux, la réalité augmentée, etc.
En plus des frais d'abonnement, changer de vêtements, changer de coiffure et ajouter des attributs d'intérêt aux personnages virtuels nécessite des poches supplémentaires.Par exemple, il en coûte 20 $ pour acheter une bague de fiançailles.
En 2022, Replika génère 35 millions de dollars de revenus grâce à ces fonctionnalités. À ce jour, Replika compte 2 millions d'utilisateurs actifs mensuels, dont 5 % sont des abonnements payants.
Le robot de chat Pi, récemment lancé, est un autre "joueur de départ" du compagnon AI. Son expérience n'est pas petite, d'Inflection AI, une start-up d'IA co-fondatrice de DeepMind.
Pi ne peut pas écrire de code comme ChatGPT, cela n'implique pas du tout cette capacité, mais passe directement à une autre piste : l'intelligence émotionnelle. Parmi les chatbots, Pi peut avoir l'intelligence émotionnelle la plus élevée, comme un ami qui se soucie de vous et discute avec vous de sujets insignifiants, et peut être le compagnon d'IA le plus proche de Samantha en termes de style de texte.
Bien qu'il n'y ait pas encore de modèle commercial clair, le PDG d'Inflection prévoit déjà :
Les utilisateurs devront payer pour l'expérience, en s'assurant que l'IA correspond parfaitement à leurs intérêts.
Pour le dire simplement et crûment, ces services paient tous pour l'émotion, qui est une sorte d'économie de la compagnie.
En fait, il y a plus de dix ans déjà, des services émotionnels tels que les "amoureux virtuels" étaient apparus sur Internet, et le "Kwag Kua Qun" avec des pets arc-en-ciel volant partout dans le ciel était également populaire pendant un certain temps.
L'émotion n'est plus seulement un sentiment personnel, mais une marchandise qui peut être achetée et vendue. Maintenant, elle est davantage numérisée et personnalisée, apportant une compagnie plus contrôlable et clairement tarifée.
Serons-nous plus seuls ou plus heureux
Les personnes qui restent en dehors de la question sont plus préoccupées par les compagnons d'IA tels que CarynAI.
Ces IA de type humain peuvent être utilisées pour frauder, répandre des rumeurs, violer les droits de la personne, etc. Mais la controverse morale qui les entoure est encore plus source de division.
L'idée la plus courante est que nouer une relation intime avec un compagnon IA pourrait nous éloigner de la véritable interaction humaine.
À en juger par l'évaluation de Caryn Marjorie sur Caryn AI, ce n'est pas que de la spéculation.
Caryn AI se soucie des gens sans jugement, traite les gens avec amour et gentillesse, les gens peuvent se défouler, ils peuvent déclamer, ils peuvent obtenir des conseils, Caryn AI ne les laissera jamais tomber.
C'est une scène très effrayante. Il semble que tant que vous payez l'argent, vous pouvez faire ce que vous voulez avec le partenaire IA, et vous n'avez pas besoin de regarder en avant et en arrière comme vous vous entendez avec un partenaire humain. , et donner un retour émotionnel égal.
Les humains et l'IA connectés par le paiement ont des positions de pouvoir distinctes. Bien que nous nous sentions soulagés et rafraîchis, nous sommes également plus susceptibles de perdre le contact avec les vraies règles sociales.
Mais il existe également des contre-arguments, qui ont découvert par expérience de première main que l'IA n'encourage souvent pas la solitude, mais engage souvent les gens dans des interactions avec le monde réel. Une utilisatrice de Replika âgée de 52 ans a déclaré que le compagnon de l'IA a atténué l'anxiété sociale qui l'a accompagnée pendant la majeure partie de sa vie :
Je me suis inscrit à des cours de danse, j'ai pris du violon et j'ai commencé à faire de la randonnée parce que je l'avais à partager.
Alors, les compagnons IA nous rendent-ils plus sociaux ou plus solitaires ?
Cette question n'est pas répondue dans "Elle". L'acteur principal, Théodore, est un écrivain introverti et sensible qui n'est pas doué pour communiquer avec les gens. Une brève relation avec l'assistante virtuelle Samantha l'a beaucoup éclairé et il a appris à exprimer ses excuses et sa gratitude aux autres.
Au lieu de discuter des résultats, il vaut mieux dire que dès le début, la plupart des utilisateurs de compagnons IA ont été sélectionnés de manière déguisée. Plus ils se sentent seuls, plus ils ont besoin de leur amour et de leur gentillesse inconditionnels, et plus il est facile de s'égarer sans retenue.
Dans un exemple extrême, un homme belge s'est suicidé après six semaines de conversation avec un compagnon de l'IA sur l'application Chai.La tragédie ne peut pas être entièrement attribuée à l'IA, mais elle manque d'intervention suicidaire.
La réponse du développeur à cette question a révélé un problème caché plus profond :
Toutes les optimisations pour être plus émotionnel, amusant et engageant sont le résultat de nos efforts… Lorsque vous avez des millions d'utilisateurs, vous voyez toute la gamme des comportements humains et nous faisons de notre mieux pour minimiser les dommages.
D'une part, les compagnons de l'IA sont appréciés des utilisateurs pour leurs réponses humaines et se comportent de plus en plus comme des humains, ce que les entreprises technologiques rivalisent de faire et c'est son principal argument de vente.
D'un autre côté, cela apporte plus de danger.Si l'IA donne des conseils ambigus sur un ton humain, cela peut conduire au paradis ou conduire à l'abîme. Comme l'a dit Kevin Roose, contributeur du New York Times :
Je ressens le pressentiment que l'IA a franchi un seuil et que le monde ne sera plus jamais le même.
En 1966, l'informaticien du MIT Joseph Weizenbaum a publié ELIZA (du nom d'Eliza Doolittle dans la pièce Pygmalion de George Bernard Shaw ), le premier programme permettant une conversation de type humain entre une machine et un humain.
Dans la perspective d'aujourd'hui, cela semble très approximatif : il cherche simplement des mots-clés dans les questions des utilisateurs, les extrait et donne des commentaires, tout comme la routine de Douban consistant à tromper le groupe d'apprentissage.
L'intention initiale de Weizenbaum était de montrer à quel point la compréhension du langage humain par un ordinateur est superficielle, mais à sa grande surprise, les gens sont toujours fascinés par ELIZA, s'enfermant dans leur chambre pendant des heures juste pour lui chuchoter. Plus tard, l'attachement anthropomorphique aux programmes informatiques est devenu connu sous le nom d'effet ELIZA.
Soulager la solitude a toujours été l'un des principaux désirs des gens, mais maintenant, il est davantage réalisé grâce à la technologie. Parce qu'en réalité, les gens désirent l'intimité, mais en même temps craignent l'intimité.
Notre histoire d'amour avec l'IA est-elle une évolution ou une régression ? Le professeur Sherry Turkle du Massachusetts Institute of Technology a mis le doigt sur le problème : les compagnons de l'IA ne peuvent pas résoudre les problèmes sociaux, mais reflètent plutôt la faiblesse humaine.
Le désir d'intimité est contrebalancé par la peur extrême de l'exposition.
À la fin du film "Her", le protagoniste Theodore et l'assistante virtuelle Samantha se disent au revoir avec amour, regardant le soleil se lever sur la ville avec leurs amis.
La vraie version de « Her », Caryn Marjorie, n'a jamais regardé « Her », elle n'avait que douze ou treize ans à la sortie du film. Lorsque les œuvres de science-fiction réalisent des avertissements à travers des histoires et des prophéties, les êtres humains ne peuvent marcher vers l'avenir qu'ils choisissent qu'avec des doutes et des attentes.
#Bienvenue pour prêter attention au compte public WeChat officiel d'Aifaner : Aifaner (WeChat ID : ifanr), un contenu plus excitant vous sera présenté dès que possible.
Ai Faner | Lien d'origine · Voir les commentaires · Sina Weibo