L’IA doit-elle être traitée comme des humains ?

L'intelligence artificielle (IA) n'a pas encore atteint le niveau humain. Mais avec la technologie qui comble de plus en plus l'écart chaque année, de nombreux problèmes éthiques sont apparus.

Une question importante est : dans quelle mesure l'intelligence artificielle sera-t-elle similaire aux êtres humains ? Vont-ils penser par eux-mêmes ou avoir des désirs et des émotions ? Devraient-ils avoir des droits légaux comme les humains ? Devraient-ils être forcés de travailler ou être tenus responsables en cas de problème ?

Nous allons approfondir ces questions et plus encore dans cet article.

Éthique de l'IA : pourquoi il est important d'y penser

L'IA et l'éthique des machines sont deux domaines connexes qui gagnent en popularité. Ils se rapportent à plusieurs aspects importants de la technologie, y compris la façon dont nous concevons, utilisons et traitons les machines. La plupart de ces problèmes sont liés aux problèmes de sécurité des êtres humains.

Cependant, l'éthique de l'IA commence à dépasser ces problèmes fondamentaux et à entrer dans un territoire plus controversé. Imaginez qu'au cours des prochaines décennies, une IA super-intelligente se développe, qui soit potentiellement consciente et exprime des désirs, des sentiments ou puisse ressentir de la souffrance. Puisque nous ne savons même pas ce qu'est la conscience humaine ou comment elle surgit, ce n'est pas une proposition aussi farfelue qu'elle le paraît à l'origine.

Comment définirions-nous et traiterions-nous une telle IA ? Et quels sont certains des problèmes éthiques auxquels nous sommes confrontés en ce moment avec notre niveau actuel d'IA ?

Jetons un coup d'œil à quelques-uns des dilemmes éthiques auxquels nous sommes confrontés.

L'IA doit-elle recevoir la citoyenneté ?

En 2017, le gouvernement saoudien a accordé la pleine citoyenneté à Sophia : l'un des robots pilotés par l'IA les plus réalistes au monde. Sophia peut prendre part à une conversation et est capable d'imiter 62 expressions faciales humaines. Sophia est la première non-humaine à avoir un passeport, et la première à posséder une carte de crédit.

La décision de faire de Sophia une citoyenne a été controversée. Certains y voient un pas en avant. Ils pensent qu'il est important que les gens et les organismes de réglementation commencent à prêter plus d'attention aux problèmes dans ce domaine. D'autres le considèrent comme un affront à la dignité humaine, déclarant que l'IA n'est pas encore proche de l'être humain et que la société dans son ensemble n'est pas prête pour les citoyens robots.

Le débat s'échauffe en raison des droits et des devoirs accordés aux citoyens. Il s'agit notamment de pouvoir voter, payer des impôts, se marier et avoir des enfants. Si Sophia est autorisée à voter, qui vote réellement ? Avec l'état actuel de l'IA, serait-ce plutôt son créateur qui vote ? Une autre critique poignante est que Sophia a obtenu plus de droits que les femmes et les travailleurs migrants d'Arabie saoudite.

IA et propriété intellectuelle : devraient-ils détenir les droits sur ce qu'ils créent ?

Les discussions concernant la propriété intellectuelle (IP) et les problèmes de confidentialité ont atteint un niveau record, et il y a maintenant une autre préoccupation. L'IA est de plus en plus utilisée pour développer du contenu, produire des idées et effectuer d'autres actions soumises aux lois sur la propriété intellectuelle. Par exemple, le Washington Post a publié Heliograf en 2016 ; un journaliste d'IA qui a développé près d'un millier d'articles au cours de sa première année. Plusieurs industries utilisent également l'IA pour parcourir d'énormes quantités de données et développer de nouveaux produits, comme l'industrie pharmaceutique.

Actuellement, l'IA est considérée comme un outil ; tous les droits de propriété intellectuelle et droits légaux sont accordés à son propriétaire. Mais l'UE avait auparavant envisagé de créer une troisième entité, une « personnalité électronique », qui deviendrait une entité juridique aux yeux des lois sur la propriété intellectuelle.

Certains prétendent que si la propriété intellectuelle n'est pas accordée au propriétaire de la machine, il y aura un manque d'incitation à créer une IA « créative ». Si l'IP allait à l'IA, pourquoi les développerait-on ? Et, à cause de cela, ils croient qu'il y aura un manque d'innovation.

L'IA et l'avenir du travail

Le rôle de l'IA dans le travail est un peu une énigme. Ces dernières années, nous avons vu l'utilisation controversée de l'IA dans les algorithmes d'embauche et de licenciement où l'IA était involontairement biaisée en faveur de certaines données démographiques . L'IA remplace également progressivement des niveaux de plus en plus élevés de travail humain – d'abord le travail manuel, et maintenant le travail mental d'ordre supérieur.

Que faut-il faire à ce sujet ? Et que se passe-t-il si une forme d'IA consciente est développée ? Faut-il le forcer à travailler ? Rémunéré pour son travail ? Droits accordés sur le lieu de travail ? Etc.

Dans un épisode de Black Mirror (une émission connue pour jouer avec nos têtes ), une fille appelée Greta crée un clone numérique de sa conscience. On dit au clone que son but est d'accomplir des tâches pour la vie de Greta. Mais, avec la conscience de Greta, le clone se considère comme Greta. Ainsi, lorsque le clone refuse d'être un esclave, ses créateurs le torturent jusqu'à ce qu'il se soumette. Enfin, le clone se met au travail pour Greta.

Devrions-nous accorder à titre préventif certains droits à l'IA dans le cas où elle se croit humaine ou souffre ?

Pour aller plus loin, examinons si l'IA doit être librement désactivée ou mise hors service. Actuellement, lorsque quelque chose ne va pas, nous pouvons simplement débrancher la prise et désactiver l'IA. Mais, si l'IA avait des droits légaux et que ce n'était plus possible, qu'est-ce qui serait possible ?

Le célèbre exemple d'IA super-intelligente qui a mal tourné est le maximiseur de trombone. Il s'agit d'une IA qui a été conçue pour créer le maximum de trombones possible. Étant donné que l'IA est suffisamment puissante, il est concevable qu'elle puisse décider de convertir les êtres humains, puis tout, en trombones.

L'IA doit-elle être tenue pour responsable ?

L'IA est déjà responsable de nombreuses décisions qui affectent des vies humaines. En fait, l'IA est déjà utilisée dans de nombreux domaines qui affectent directement les droits de l'homme, ce qui est inquiétant compte tenu du caractère biaisé de nombreux algorithmes d'IA.

Par exemple, l'IA est utilisée par les grandes entreprises pour décider qui doit être embauché pour un travail. Il est également utilisé dans certains pays pour déterminer qui devrait recevoir l'aide sociale. Plus inquiétant encore, il est utilisé par la police et les tribunaux pour déterminer la peine des accusés. Et ce n'est pas tout.

Que se passe-t-il lorsque l'IA fait des erreurs ? Qui est rendu responsable – ceux qui l'utilisent ? Les créateurs Sinon, l'IA elle-même devrait-elle être punie (et si oui, comment cela fonctionnerait-il) ?

IA et humanité

L'IA ne sera jamais humaine. Mais il peut être conscient, ressentir de la souffrance ou avoir des désirs et des désirs. Si une IA comme celle-ci était développée, serait-il contraire à l'éthique de la forcer à fonctionner, de la mettre hors service librement ou de lui faire subir des souffrances ?

Bien que l'IA en soit encore à ses balbutiements, elle est déjà utilisée pour des choses qui affectent directement les vies humaines, parfois de manière drastique. Des décisions doivent être prises sur la façon de réglementer le logiciel qui convient le mieux aux vies humaines, et les vies de l'IA devraient-elles se produire.