81 % pensent que ChatGPT est un risque pour la sécurité, selon une enquête
ChatGPT a été une invention polarisante, avec des réponses au chatbot d'intelligence artificielle (IA) oscillant entre l'excitation et la peur. Maintenant, une nouvelle enquête montre que la désillusion avec ChatGPT pourrait atteindre de nouveaux sommets.
Selon une enquête de la société de sécurité Malwarebytes , 81% de ses répondants s'inquiètent des risques de sécurité et de sûreté posés par ChatGPT. C'est une découverte remarquable et suggère que les gens sont de plus en plus préoccupés par les actes néfastes que le chatbot d'OpenAI est apparemment capable de réaliser.
Malwarebytes a demandé à ses abonnés à la newsletter de répondre à la phrase "Je suis préoccupé par les éventuels risques de sécurité et/ou de sûreté posés par ChatGPT", un sentiment avec lequel 81 % étaient d'accord. De plus, 51 % n'étaient pas d'accord avec l'affirmation "ChatGPT et d'autres outils d'IA amélioreront la sécurité sur Internet", tandis que seulement 7 % étaient d'accord, ce qui suggère qu'il existe une inquiétude généralisée quant à l'impact que ChatGPT aura sur la sécurité en ligne.
Le mécontentement envers les chatbots IA ne se limitait pas aux problèmes de sécurité. Seuls 12 % des personnes interrogées étaient d'accord avec la phrase "Les informations produites par ChatGPT sont exactes", tandis que 55 % des personnes n'étaient pas d'accord. Jusqu'à 63 % des personnes ne faisaient pas confiance aux réponses de ChatGPT, et à peine 10 % les trouvaient fiables.
Génération de logiciels malveillants
Ce type de réponse n'est pas tout à fait surprenant, étant donné la série d'actes malveillants très médiatisés pour lesquels ChatGPT a été utilisé ces derniers mois. Nous avons vu des cas où il était déployé pour toutes sortes d'actes douteux, de l'écriture de logiciels malveillants à la présentation aux utilisateurs de clés Windows 11 gratuites .
En mai 2023, nous avons parlé à divers experts en sécurité des menaces posées par ChatGPT . Selon Martin Zugec, directeur des solutions techniques chez Bitdefender, "la qualité du code malveillant produit par les chatbots a tendance à être faible, ce qui en fait une option moins attrayante pour les auteurs de logiciels malveillants expérimentés qui peuvent trouver de meilleurs exemples dans les référentiels de code publics".
Pourtant, cela n'a pas endigué l'inquiétude du public quant à ce que ChatGPT pourrait être utilisé pour faire. Il est clair que les gens craignent que même les auteurs de logiciels malveillants novices puissent charger les chatbots d'IA d'imaginer un virus dévastateur ou un rançongiciel incassable, même si certains experts en sécurité estiment que c'est peu probable.
Pause sur le développement
Alors qu'est ce qui peut être fait? Lorsque Malwarebytes a demandé à ses lecteurs ce qu'ils pensaient de la déclaration "Le travail sur ChatGPT et d'autres outils d'IA devrait être suspendu jusqu'à ce que la réglementation puisse rattraper son retard", 52 % ont accepté, tandis qu'un peu moins de 24 % n'étaient pas d'accord.
Cet appel du public rejoint plusieurs lettres ouvertes d'éminents leaders technologiques pour suspendre le développement du chatbot IA en raison de ses "risques à grande échelle". Il est peut-être temps que les décideurs commencent à en tenir compte.