Ne laissez pas GPT-4 évoluer à nouveau ! Musk a pris l’initiative de signer une lettre conjointe de milliers de personnes, appelant d’urgence les laboratoires d’IA à suspendre immédiatement la recherche
Jusqu'à présent, nous avons connu de nombreuses révolutions numériques, notamment l'émergence d'interfaces graphiques, la naissance d'Internet et la vulgarisation de l'Internet mobile, mais aucun changement technologique n'a provoqué une panique aussi généralisée que la vague d'IA déclenchée par le GPT. modèle.
D'une part, l'IA a changé la façon dont les gens travaillent et vivent, améliorant considérablement l'efficacité ; d'autre part, le fonctionnement et le développement de l'IA sont pleins d'incertitudes, ce qui déclenche le mécanisme naturel de protection des êtres humains contre des choses inconnues – la peur.
Aujourd'hui, une lettre commune publique sur Internet a explosé, appelant à toutes les expériences d'IA à suspendre immédiatement les recherches sur des modèles d'IA plus avancés que GPT-4 pendant au moins 6 mois, afin de tuer ces terribles fantasmes dans le futur.
La vitesse de progression de l'IA est étonnante, mais les méthodes de supervision et d'audit pertinentes n'ont pas suivi, ce qui signifie que personne ne peut garantir la sécurité des outils d'IA et le processus d'utilisation des outils d'IA.
La lettre conjointe a reçu le soutien de nombreuses personnalités bien connues, dont le lauréat du prix Turing 2018 Yoshua Bengio, Musk, Steve Wozniak, co-fondateur de Skype, co-fondateur de Pinterest, PDG de Stability AI, etc., le nombre de co-signataires a atteint 1125 avant la date limite.
Le texte original de la lettre ouverte est le suivant :
L'intelligence artificielle a l'intelligence de rivaliser avec les êtres humains, ce qui peut entraîner des risques profonds pour la société et les êtres humains, ce qui a été confirmé par un grand nombre d'études [1] et reconnu par les meilleurs laboratoires d'IA [2]. Comme l'indiquent les principes d'Asilomar AI largement reconnus, l'IA avancée pourrait représenter une transformation majeure dans l'histoire de la vie sur Terre et, en tant que telle, devrait être planifiée et gérée avec une attention et des ressources proportionnées.
Malheureusement, même ces derniers mois, les laboratoires d'IA se sont enfermés dans une course effrénée pour développer et déployer des esprits numériques de plus en plus puissants que personne ne peut comprendre, prédire ou contrôler de manière fiable, même s'ils ne pouvaient pas le faire non plus.
Avec les systèmes d'IA modernes désormais compétitifs avec les humains dans les tâches courantes [3], nous devons nous demander :
- Devrions-nous permettre aux machines d'inonder nos canaux d'information, répandant de la propagande et des mensonges ?
- Doit-on automatiser tous les jobs, y compris ceux qui sont satisfaisants ?
- Devrions-nous développer des esprits non humains qui pourraient éventuellement nous dépasser et nous remplacer ?
- Doit-on risquer de déraper la civilisation ?
Ces décisions ne devraient pas être prises par des leaders technologiques non élus. Ce n'est que lorsque nous sommes convaincus que l'impact du système d'IA est positif et que les risques sont gérables que nous pouvons développer des systèmes d'IA puissants. Cette confiance doit être fondée et grandir avec l'impact potentiel du système. La récente déclaration d'OpenAI sur l'intelligence artificielle indique qu'"à un moment donné, il peut être nécessaire d'obtenir un examen indépendant avant de commencer la formation des futurs systèmes, et que les efforts de pointe acceptent de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles." Nous sommes d'accord. C'est maintenant ce moment.
Par conséquent, nous appelons à un moratoire immédiat sur tous les laboratoires d'IA pendant au moins 6 mois à partir de la formation de systèmes d'IA plus puissants que GPT-4. Cette suspension doit être publique et vérifiable, et inclure tous les acteurs clés. Si un tel moratoire ne peut être mis en place rapidement, le gouvernement devrait intervenir et imposer un moratoire.
Les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour travailler ensemble afin de développer et de mettre en œuvre un ensemble partagé de protocoles de sécurité avancés de conception et de développement d'IA qui devraient être rigoureusement examinés et surveillés par des experts externes indépendants.
Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sécurisés au-delà de tout doute raisonnable [4]. Cela ne signifie pas suspendre le développement de l'IA, mais simplement prendre du recul par rapport à la course toujours dangereuse vers des modèles de boîtes noires plus grands et imprévisibles et leurs capacités émergentes.
La recherche et le développement de l'IA devraient se concentrer sur l'amélioration de la précision, de la sécurité, de l'explicabilité, de la transparence, de la robustesse, de l'alignement, de la fiabilité et de la fidélité des systèmes robustes et avancés existants.
Dans le même temps, les développeurs d'IA doivent travailler avec les décideurs politiques pour accélérer considérablement le développement des systèmes de gouvernance de l'IA. Celles-ci doivent au moins inclure :
- Un nouvel organisme de réglementation compétent dédié à l'IA ;
- Supervision et suivi des systèmes d'IA à haute capacité et des grands pools de puissance de calcul ;
- Systèmes de provenance et de filigrane pour distinguer le contenu réel du contenu synthétique, suivre les fuites de modèles ;
- Écosystème d'audit et de certification robuste ; responsabilité pour les dommages causés par l'IA ;
- Financement public adéquat de la recherche technique sur la sécurité de l'IA ;
- Institution vétéran confrontée aux changements économiques et politiques massifs que l'IA entraînera, en particulier les implications pour les démocraties.
L'humanité peut profiter d'un avenir prospère avec l'aide de l'IA. Après avoir réussi à créer de puissants systèmes d'IA, nous pouvons désormais profiter d'un "été de l'IA" au cours duquel nous récoltons les fruits de l'utilisation explicite de ces systèmes pour le bénéfice de tous et donner à la société une chance de s'adapter.
La société a appuyé sur le bouton pause face à d'autres technologies qui pourraient avoir des effets catastrophiques sur la société [5]. Ici, nous pouvons faire la même chose. Profitons d'un long été d'IA au lieu de nous précipiter vers l'automne sans préparation.
Informations de référence:
[1]
Bender, EM, Gebru, T., McMillan-Major, A. et Shmitchell, S. (2021, mars).Sur les dangers des perroquets stochastiques : les modèles de langage peuvent-ils être trop grands ? Dans Actes de la conférence ACM 2021 sur l'équité, la responsabilité et la transparence (pp. 610-623).
Bostrom, N. (2016), Superintelligence, Oxford University Press.
Bucknall, BS, & Dori-Hacohen, S. (2022, juillet). Current and near-term AI as a potential existential risk factor. Dans Actes de la conférence AAAI/ACM 2022 sur l'IA, l'éthique et la société (pp. 119 -129).
Carlsmith, J. (2022), Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). Le problème d'alignement : Apprentissage automatique et valeurs humaines. Norton & Company.
Cohen, M. et al. (2022), Advanced Artificial Agents Intervene in the Provision of Reward, AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al., (2023).Les GPT sont des GPT : un premier aperçu du potentiel d'impact sur le marché du travail des grands modèles linguistiques.
Hendrycks, D., & Mazeika, M. (2022), X-risk Analysis for AI Research, arXiv preprint arXiv:2206.05862.
Ngo, R. (2022).Le problème d'alignement du point de vue de l'apprentissage en profondeur.ArXiv preprint arXiv:2209.00626.
Russell, S. (2019), Compatibilité humaine : l'intelligence artificielle et le problème du contrôle. Viking.
Tegmark, M. (2017).Vie 3.0 : Être humain à l'ère de l'intelligence artificielle. Knopf.
Weidinger, L. et al (2021).Risques éthiques et sociaux de préjudice des modèles linguistiques.prépublication arXiv arXiv:2112.04359.
[2]
Ordonez, V. et al. (16 mars 2023). Le PDG d'OpenAI, Sam Altman, déclare que l'IA va remodeler la société, reconnaît les risques : "Un peu effrayé par cela". ABC News.
Perrigo, B. (12 janvier 2023).Demis Hassabis, PDG de DeepMind, appelle à la prudence sur l'IA.
[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence : Premières expériences avec GPT-4. arXiv : 2303.12712.
OpenAI (2023).Rapport technique GPT-4.arXiv:2303.08774.
[4]
Il existe de nombreux précédents juridiques – par exemple, les principes largement adoptés de l'OCDE sur l'IA exigent que les systèmes d'IA "fonctionnent de manière appropriée et ne présentent pas de risque de sécurité déraisonnable".
[5]
Les exemples incluent le clonage humain, la modification de la lignée germinale humaine, la recherche sur le gain de fonction et l'eugénisme.
Dans cette lettre ouverte, le formulaire de signature ci-joint peut être plus excitant que le contenu de la lettre elle-même. Vous pouvez trouver ici de nombreux noms familiers, et chaque signature exprime le fort scepticisme du signataire envers l'IA.
Cependant, certains internautes ont trouvé que ces signatures n'étaient peut-être pas totalement crédibles, car les noms du PDG d'OpenAI Sam Altman (je me suis scellé ?) et de l'acteur John Wick du film "Quick Chase" figuraient dans la liste. être étudiée.
L'adresse de cette lettre conjointe est jointe ci-dessous, et les amis intéressés peuvent également signer leur nom.
Mettre en pause les expériences d'IA géantes : une lettre ouverte
#Bienvenue pour prêter attention au compte public WeChat officiel d'Aifaner : Aifaner (WeChat ID : ifanr), un contenu plus excitant vous sera présenté dès que possible.
Ai Faner | Lien d'origine · Voir les commentaires · Sina Weibo