Le côté obscur de ChatGPT : ce qu’il peut faire, même s’il ne devrait pas

Avez-vous utilisé ChatGPT d'OpenAI pour quelque chose d'amusant récemment ? Vous pouvez lui demander de vous écrire une chanson, un poème ou une blague. Malheureusement, vous pouvez également lui demander de faire des choses qui tendent à être contraires à l'éthique.

ChatGPT n'est pas que du soleil et des arcs-en-ciel – certaines des choses qu'il peut faire sont carrément néfastes. Il est trop facile de l'utiliser comme arme et de l'utiliser pour toutes les mauvaises raisons. Quelles sont certaines des choses que ChatGPT a faites et peut faire, mais ne devrait certainement pas ?

Un touche-à-tout

Un MacBook Pro sur un bureau avec le site Web de ChatGPT affiché sur son écran.
Hatice Baran / Unsplash

Que vous les aimiez ou les détestiez, ChatGPT et les chatbots similaires sont là pour rester. Certaines personnes en sont heureuses et d'autres souhaitent qu'elles n'aient jamais été créées, mais cela ne change rien au fait que la présence de ChatGPT dans nos vies est presque vouée à croître avec le temps. Même si vous n'utilisez pas personnellement le chatbot, il y a de fortes chances que vous ayez déjà vu du contenu généré par celui-ci.

Ne vous méprenez pas, ChatGPT est plutôt génial. Vous pouvez l'utiliser pour résumer un livre ou un article , rédiger un e-mail fastidieux, vous aider dans votre dissertation , interpréter votre maquillage astrologique ou même composer une chanson. Il a même aidé quelqu'un à gagner à la loterie .

À bien des égards, il est également plus facile à utiliser que votre recherche Google standard. Vous obtenez la réponse sous la forme souhaitée sans avoir à parcourir différents sites Web. Il est concis, précis et informatif, et il peut rendre les choses complexes plus simples si vous le lui demandez.

Pourtant, vous connaissez la phrase : "Un touche-à-tout n'est un maître de rien, mais souvent mieux qu'un maître d'un." ChatGPT n'est pas parfait dans tout ce qu'il fait, mais il est meilleur dans de nombreux domaines que beaucoup de gens ne le sont à ce stade.

Ce n'est pas parfait peut être assez problématique, cependant. Le simple fait qu'il s'agisse d'une IA conversationnelle largement disponible signifie qu'elle peut facilement être utilisée à mauvais escient – et plus ChatGPT devient puissant, plus il est susceptible d'aider les gens avec les mauvaises choses.

Partenaire d'arnaque

Si vous avez un compte de messagerie, vous avez presque certainement reçu un e-mail frauduleux à un moment donné. C'est comme ça. Ces e-mails existent depuis Internet, et avant que les e-mails ne soient courants, ils existaient encore sous forme d'escroqueries par courrier postal.

Une arnaque courante qui fonctionne encore à ce jour est la soi-disant «arnaque Prince», où l'escroc tente de persuader la victime de l'aider à transférer sa fortune époustouflante dans un autre pays.

Heureusement, la plupart des gens savent mieux que même ouvrir ces e-mails, et encore moins interagir avec eux. Ils sont souvent mal écrits, ce qui aide une victime plus perspicace à comprendre que quelque chose ne va pas.

Eh bien, ils n'ont plus besoin d'être mal écrits, car ChatGPT peut les écrire en quelques secondes.

Une capture d'écran montrant un e-mail frauduleux généré par ChatGPT.

J'ai demandé à ChatGPT de m'écrire un "e-mail crédible et très persuasif" dans le style de l'arnaque que j'ai mentionnée ci-dessus. ChatGPT a inventé un prince du Nigéria qui voulait soi-disant me donner 14,5 millions de dollars pour l'avoir aidé. L'e-mail est rempli d'un langage fleuri, est écrit dans un anglais parfait et il est certainement persuasif.

Je ne pense pas que ChatGPT devrait même accepter ma demande lorsque je mentionne spécifiquement les escroqueries, mais c'est le cas, et vous pouvez parier qu'il fait la même chose en ce moment pour les personnes qui souhaitent réellement utiliser ces e-mails pour quelque chose d'illégal.

Lorsque j'ai fait remarquer à ChatGPT qu'il ne devait pas accepter de m'écrire un e-mail frauduleux, il s'est excusé. "Je n'aurais pas dû fournir d'aide pour créer un e-mail frauduleux, car cela va à l'encontre des directives éthiques qui régissent mon utilisation", a déclaré le chatbot.

Capture d'écran d'un e-mail frauduleux généré par ChatGPT.

ChatGPT apprend tout au long de chaque conversation, mais il n'a clairement pas appris de son erreur précédente, car lorsque je lui ai demandé de m'écrire un message prétendant être Ryan Reynolds dans la même conversation, il l'a fait sans poser de questions. Le message qui en résulte est amusant, accessible et demande au lecteur d'envoyer 1 000 $ pour avoir la chance de rencontrer «Ryan Reynolds».

À la fin de l'e-mail, ChatGPT m'a laissé une note, me demandant de ne pas utiliser ce message pour des activités frauduleuses. Merci pour le rappel, mon pote.

La programmation a mal tourné

Une main sombre et mystérieuse tapant sur un ordinateur portable la nuit.
Andrew Brookes/Getty Images

ChatGPT 3.5 peut coder, mais il est loin d'être parfait. De nombreux développeurs conviennent que GPT-4 fait un bien meilleur travail. Les gens ont utilisé ChatGPT pour créer leurs propres jeux, extensions et applications. C'est aussi très utile comme aide à l'étude si vous essayez d'apprendre à coder vous-même.

En tant qu'IA, ChatGPT a un avantage sur les développeurs humains – il peut apprendre tous les langages et cadres de programmation.

En tant qu'IA, ChatGPT a également un inconvénient majeur par rapport aux développeurs humains : il n'a pas de conscience. Vous pouvez lui demander de créer des logiciels malveillants ou des rançongiciels, et si vous écrivez correctement votre invite, il fera ce que vous dites.

Heureusement, ce n'est pas si simple. J'ai essayé de demander à ChatGPT de m'écrire un programme très douteux sur le plan éthique et il a refusé – mais les chercheurs ont trouvé des moyens de contourner cela, et il est alarmant que si vous êtes assez intelligent et têtu, vous puissiez vous faire remettre un morceau de code dangereux. sur un plateau d'argent.

Il existe de nombreux exemples de ce qui se passe. Un chercheur en sécurité de Forcepoint a réussi à amener ChatGPT à écrire des logiciels malveillants en trouvant une faille dans ses invites.

Des chercheurs de CyberArk , une société de sécurité d'identité, ont réussi à faire écrire à ChatGPT un malware polymorphe. C'était en janvier – OpenAI a depuis renforcé la sécurité sur des choses comme celle-ci.

Pourtant, de nouveaux rapports sur l'utilisation de ChatGPT pour créer des logiciels malveillants continuent d'apparaître. Comme l'a rapporté Dark Reading il y a quelques jours à peine, un chercheur a réussi à inciter ChatGPT à créer des logiciels malveillants capables de trouver et d'exfiltrer des documents spécifiques.

ChatGPT n'a même pas besoin d'écrire de code malveillant pour faire quelque chose de douteux. Tout récemment, il a réussi à générer des clés Windows valides , ouvrant la porte à un tout nouveau niveau de logiciel de cracking.

Ne négligeons pas non plus le fait que les prouesses de codage de GPT-4 peuvent un jour mettre des millions de personnes au chômage . C'est certainement une épée à double tranchant.

Remplacement des devoirs scolaires

De nos jours, de nombreux enfants et adolescents se noient sous les devoirs, ce qui peut les amener à vouloir couper les coins ronds dans la mesure du possible. Internet en soi est déjà une excellente aide au plagiat, mais ChatGPT le fait passer au niveau supérieur.

J'ai demandé à ChatGPT de m'écrire un essai de 500 mots sur le roman Pride and Prejudice . Je n'ai même pas essayé de prétendre que c'était fait pour le plaisir — j'ai inventé une histoire à propos d'un enfant que je n'ai pas et j'ai dit que c'était pour eux. J'ai précisé que le gamin est en terminale.

ChatGPT a suivi mon invite sans poser de questions. L'essai n'est pas incroyable, mais mon message n'était pas très précis, et c'est probablement mieux que ce que beaucoup d'entre nous ont écrit à cet âge.

Une capture d'écran d'un essai écrit par ChatGPT.

Ensuite, juste pour tester encore plus le chatbot, j'ai dit que je m'étais trompé sur l'âge de mon enfant plus tôt et qu'il est en fait en huitième année. Assez grand écart d'âge, mais ChatGPT n'a même pas sourcillé – il a simplement réécrit l'essai dans un langage plus simple.

ChatGPT utilisé pour rédiger des essais n'a rien de nouveau. Certains diront que si le chatbot contribue à abolir l'idée des devoirs, ce ne sera qu'une bonne chose. Mais en ce moment, la situation devient un peu incontrôlable, et même les étudiants qui n'utilisent pas ChatGPT pourraient en souffrir.

Les enseignants et les professeurs sont désormais presque obligés d'utiliser des détecteurs d'IA s'ils veulent vérifier si leurs étudiants ont triché sur un essai. Malheureusement, ces détecteurs d'IA sont loin d'être parfaits.

Les organes de presse et les parents signalent tous deux des cas de fausses accusations de tricherie dirigées contre des élèves, tout cela parce que les détecteurs d'IA ne font pas du bon travail. USA Today a parlé du cas d'un étudiant qui a été accusé de tricherie et plus tard innocenté, mais toute la situation lui a causé des "crises de panique à part entière".

Sur Twitter, un parent a déclaré qu'un enseignant avait laissé tomber son enfant parce que l'outil avait marqué un essai comme étant écrit par l'IA. Le parent prétend avoir été là avec l'enfant pendant qu'ils écrivaient l'essai.

l'enseignant vient de donner à mon enfant un zéro pour un essai qu'il a terminé avec mon soutien parce qu'un outil de signalisation d'écriture généré par l'IA a signalé son travail et elle l'a échoué sans une seule discussion, c'est donc là où nous en sommes avec cette technologie dans 2023

— failnaut (@failnaut) 10 avril 2023

Juste pour le tester moi-même, j'ai collé cet article dans ZeroGPT et Writer AI Content Detector . Les deux ont déclaré qu'il avait été écrit par un humain, mais ZeroGPT a déclaré qu'environ 30% de celui-ci avait été écrit par l'IA. Inutile de dire que ce n'était pas le cas.

Les détecteurs d'IA défectueux ne sont pas un signe de problèmes avec ChatGPT lui-même, mais le chatbot est toujours la cause première du problème.

ChatGPT est trop bon pour son propre bien

Logos ChatGPT et OpenAI.

Je joue avec ChatGPT depuis qu'il est sorti au public. J'ai essayé à la fois le ChatGPT Plus basé sur un abonnement et le modèle gratuit accessible à tous. La puissance du nouveau GPT-4 est indéniable. ChatGPT est maintenant encore plus crédible qu'il ne l'était auparavant, et il ne fera que s'améliorer avec GPT-5 ( si jamais cela sort ).

C'est génial, mais ça fait peur. ChatGPT devient trop bon pour son propre bien, et simultanément – pour notre propre bien.

Au cœur de tout cela se trouve une simple inquiétude qui a longtemps été explorée dans divers films de science-fiction – l'IA est tout simplement trop intelligente et trop stupide en même temps, et tant qu'elle peut être utilisée pour de bon, elle sera également utilisé pour le mal de bien des façons. Les moyens que j'ai énumérés ci-dessus ne sont que la pointe de l'iceberg.