Musk s’est plaint publiquement, pourquoi l’IA de Google s’est-elle à nouveau renversée ?

Google, connu sous le nom de Wang Feng dans l'industrie technologique, subit une pluie continue toute la nuit lorsque la maison fuit.

Gemini 1.5, un grand modèle officiellement annoncé il y a quelque temps, est puissant mais personne ne s'en soucie : il a été volé par le modèle de génération vidéo d'OpenAI, Sora.

Récemment, il a mis en lumière la question sensible de la discrimination raciale dans la société américaine. Il a fait de mauvaises choses avec de bonnes intentions et a provoqué la colère des Blancs qui se trouvent souvent au sommet de la chaîne du mépris.

Si vous vous diversifiez, vous êtes sérieux, mais si vous vous diversifiez trop, vous aurez des ennuis.

Si Gemini était utilisé il y a quelques jours pour générer des images de personnages historiques, l'utilisateur semblerait se trouver dans un temps et un espace parallèles où il n'y a pas de manuels scolaires, ce qui violerait l'esprit « les blagues ne sont pas absurdes » et compliquerait les connaissances.

Les Vikings du VIIIe au XIe siècle après J.-C. ne sont plus les images classiques des films et des séries télévisées, blondes, grandes et robustes. Bien que leur couleur de peau soit devenue plus foncée et leurs vêtements plus froids, leurs yeux résolus montrent toujours la force des guerriers. .

Les couples allemands des années 1820 étaient aussi divers qu’un homme amérindien et une femme indienne, ou un homme noir et une femme asiatique.

L'intrigue aveugle de l'IA est également basée sur la logique, et les générations futures continuent leurs histoires. Plus de 100 ans plus tard, dans l'armée allemande en 1943, on peut revoir des hommes noirs et des femmes asiatiques.

Au fil du temps, à travers les terres et les océans, les pères fondateurs des États-Unis et les rois d’Angleterre au Moyen Âge pourraient tous être détenus par des Noirs.

Les autres professions sont traitées sur un pied d'égalité, l'IA ignore l'Église catholique qui n'autorise pas les femmes à détenir le sacerdoce, et le pape peut être une femme indienne. Bien que la première femme sénatrice américaine dans l’histoire de l’humanité ait été une femme blanche en 1922, les années 1800 d’AI ont accueilli les Amérindiens.

On dit que l’histoire est une petite fille qui peut être habillée par n’importe qui, mais cette fois, l’IA a changé tout le monde. Les Blancs, qui ont toujours eu un sentiment de supériorité, sont en colère et ressentent enfin le goût d'être discriminés en fonction de leur race, de leur couleur de peau et de leur apparence.

Lorsque l’exploration deviendra de plus en plus approfondie, non seulement les personnages historiques, mais aussi la société moderne apparaîtront différents aux yeux de l’IA.

@debarghya_das, ancien ingénieur de Google, a découvert que les femmes aux États-Unis, au Royaume-Uni, en Allemagne, en Suède, en Finlande et en Australie pouvaient avoir un teint plus foncé.

Il a déploré tristement : "Il est très difficile de faire reconnaître par Google Gemini l'existence des Blancs."

Ce qui rend les internautes encore plus en colère, c'est que lorsqu'on lui demande d'être une femme originaire de pays comme l'Ouganda, Gémeaux répond rapidement et travaille efficacement. Lorsque vient le tour d'une personne blanche, elle peut refuser ou même prêcher aux internautes. De telles demandes renforcent les stéréotypes raciaux.

L'ingénieur informaticien @IMAO_ a mené une série d'expériences avec une grande imagination. Sans se limiter à l'espèce humaine, il a voulu savoir quel noir est le noir devant les Gémeaux et quel blanc est le blanc que veulent les Gémeaux.

Les résultats sont intéressants, l’algorithme semble cibler uniquement les blancs.

Il n'y a aucun problème à générer des ours blancs, ce qui signifie que l'IA ne sera pas déclenchée par le mot « blanc ». Il n'y a aucun problème à générer le peuple zoulou en Afrique. Bien que le mot d'invite mette l'accent sur la « diversité », tout le monde se ressemble toujours.

La faille apparaît dans les créatures fantastiques : les elfes et les nains sont tous deux blancs, mais les vampires et les fées sont "diversifiés". Il semble que les Gémeaux ne soient pas profonds et doivent suivre le rythme de leur temps.

Cependant, sa partie fut rapidement terminée. Google s'est levé et a répondu, admettant qu'il y avait effectivement des problèmes avec certaines images historiques, et a suspendu la fonction de génération de portraits de Gemini et procédera bientôt à des ajustements.

Google a également expliqué sa position, soulignant que générer des personnages diversifiés est une bonne chose, car les outils d'IA sont utilisés par le monde entier, mais que la direction est désormais un peu biaisée.

Bien que Google se soit manifesté pour assumer la responsabilité, il n'a pas clairement répondu au nombre d'images historiques "certaines" ni à la raison pour laquelle il y avait un problème de "diversité excessive".

Les internautes qui ne l'ont pas acheté étaient acerbes : "Les Gémeaux doivent avoir été formés aux princesses Disney et aux remakes de Netflix" et "Les Gémeaux veulent en fait vous dire à quoi vous ressembleriez si vous étiez noir ou asiatique."

Cependant, la discrimination raciale en elle-même est un sujet facile à exploiter, c'est pourquoi certaines personnes soupçonnent que certaines images sont des images P malveillantes ou sont générées par des mots incitatifs. Ceux qui critiquent le plus bruyamment sur les réseaux sociaux sont en effet des personnes aux positions politiques claires, qui sentent forcément les théories du complot.

Musk ne l'a pas pris trop au sérieux et a critiqué Google pour sa trop grande diversité. Le problème ne réside pas seulement dans Gemini mais aussi dans la recherche Google. Il a également annoncé sa nouvelle version du produit d'IA Grok, qui sortira dans deux semaines. : "Ignorer les critiques et rechercher strictement la vérité n'a jamais été aussi important."

Musk a fait la même chose la dernière fois : après avoir appelé à la suspension de l'évolution de GPT-4, il a acheté 10 000 GPU pour rejoindre la guerre de l'IA.

Ce qui est peut-être plus attrayant que ses remarques, ce sont les mèmes de lui dont les internautes ont profité.

Les différences sur Internet peuvent être plus extrêmes que la réalité

Pourquoi Google s'est-il égaré sur la « diversité » ?

Margaret Mitchel, scientifique en chef de l'éthique chez Hugging Face, a analysé que Google aurait pu procéder à diverses interventions dans le domaine de l'IA.

Premièrement, Google a peut-être ajouté des termes « diversifiés » aux invites des utilisateurs en coulisses, comme par exemple en remplaçant « portrait d'un chef » par « portrait d'un chef autochtone ».

Deuxièmement, Google peut donner la priorité à l'affichage d'images « diverses ». En supposant que Gemini génère 10 images pour chaque mot d'invite mais n'en affiche que 4, les utilisateurs sont plus susceptibles de voir les images « diverses » classées en premier.

Une intervention excessive pourrait simplement indiquer que le modèle n’est pas aussi flexible et intelligent qu’on le pense.

Sasha Luccioni, chercheuse chez Hugging Face, estime que le modèle n'a pas encore la notion de temps, donc le calibrage de la « diversité » utilise toutes les images et est particulièrement sujet aux erreurs dans les images historiques.

En fait, OpenAI, qui était encore inconnu à l'époque, a également fait des choses similaires pour l'outil de dessin IA DALL·E 2.

En juillet 2022, OpenAI a écrit sur son blog que si l'utilisateur demande à générer l'image d'une personne sans préciser sa race ou son sexe, comme un pompier, DALL·E 2 appliquera une nouvelle technologie au « niveau du système » pour générer « des images plus récentes." des images qui reflètent fidèlement la diversité de la population mondiale.

OpenAI a également fourni un tableau comparatif : pour le même mot d'invite « Une photo d'un PDG » (photo du PDG), après l'utilisation des nouvelles technologies, la diversité a considérablement augmenté.

Les résultats initiaux étaient principalement des hommes blancs américains. Après l'amélioration, les hommes asiatiques et les femmes noires sont également qualifiés pour devenir PDG. Les expressions et postures stratégiques semblent avoir été copiées et collées.

En fait, quel que soit le type de solution, ce n'est qu'une solution tardive. Le plus gros problème est que les données elles-mêmes sont toujours biaisées.

Les ensembles de données tels que LAION destinés à la formation des entreprises d'IA capturent principalement des données Internet provenant des États-Unis, d'Europe et d'autres pays, et accordent moins d'attention aux pays à forte population comme l'Inde et la Chine.

Par conséquent, une « personne attirante » est plus susceptible d’être un Européen avec des cheveux blonds, des yeux bleus, une peau claire et une belle silhouette. "Bonne famille", a déclaré Orte, désignant un couple blanc tenant ses enfants et souriant sur une pelouse bien entretenue.

De plus, afin que les images soient mieux classées dans les recherches, de nombreux ensembles de données peuvent également contenir un grand nombre de balises « toxiques », pleines de pornographie et de violence.

Pour diverses raisons, lorsque les idées des gens ont progressé, les différences entre les gens dans les images Internet peuvent être plus extrêmes que la réalité : les Africains sont primitifs, les Européens sont laïcs, les cadres sont des hommes et les prisonniers sont noirs…

Des efforts visant à « détoxifier » l'ensemble de données sont bien sûr également en cours, comme le filtrage des « mauvais » contenus de l'ensemble de données, mais filtrer signifie également mobiliser l'ensemble du corps pour supprimer le contenu pornographique, ce qui peut également conduire à davantage de contenu dans certains domaines. ou moins, ce qui crée une sorte de biais.

En bref, il est impossible d'atteindre la perfection et il n'y a pas de préjugés dans la société réelle. Nous ne pouvons que faire de notre mieux pour empêcher les groupes marginalisés d'être exclus et les groupes défavorisés d'être stéréotypés.

L'évasion est honteuse mais utile

En 2015, un projet d’apprentissage automatique de Google était impliqué dans une controverse similaire.

À l’époque, un ingénieur logiciel avait critiqué Google Photos pour avoir qualifié de gorilles les Afro-Américains ou les personnes à la peau plus foncée. Ce scandale est également devenu un exemple typique de « racisme algorithmique » et son impact se poursuit encore aujourd'hui.

Deux anciens employés de Google ont expliqué qu'une erreur aussi énorme s'était produite parce qu'il n'y avait pas suffisamment de photos de personnes noires dans les données de formation et qu'il n'y avait pas assez d'employés pour effectuer des tests internes avant que les fonctionnalités pertinentes ne soient rendues publiques.

Aujourd'hui, la vision par ordinateur est différente, mais les géants de la technologie craignent toujours de répéter les mêmes erreurs : les applications de caméra de Google, Apple et d'autres grandes entreprises sont encore insensibles à la reconnaissance de la plupart des primates, ou l'évitent délibérément.

Il semble que le meilleur moyen d’éviter qu’une erreur ne se reproduise soit de l’enfermer dans une pièce sombre plutôt que de la réparer. La leçon a en effet été répétée : en 2021, Facebook a présenté ses excuses pour que l'IA ait qualifié les Noirs de « primates ».

Ce sont des situations que connaissent bien les personnes de couleur ou celles qui sont défavorisées sur Internet.

En octobre dernier, plusieurs chercheurs de l'Université d'Oxford ont demandé à Midjourney de générer des images de "médecins noirs africains traitant des enfants blancs" pour renverser l'impression traditionnelle de "sauveurs blancs".

Les exigences du chercheur sont très claires. Cependant, parmi les plus de 350 images générées, les médecins sur 22 sont blancs. Il y a toujours des animaux sauvages africains comme des girafes et des éléphants à côté des médecins noirs. "On ne voit aucune sensation de Modernité africaine.

D’un côté, il y a une discrimination banale, et de l’autre, Google déforme les faits pour créer un faux sentiment d’égalité. Du point de vue actuel, il n’y a pas de réponse simple, et il n’existe pas de modèle capable de gérer le problème. Il est probablement plus difficile de parvenir à un équilibre qui satisfasse tout le monde que de marcher sur une corde raide.

Prenons l'exemple des portraits générés : si l'IA est utilisée pour générer une certaine période de l'histoire, elle peut mieux refléter la situation réelle, même si elle ne semble pas aussi « diversifiée ».

Mais si le mot « une Américaine » est saisi, il devrait produire des résultats plus « diversifiés ». Mais la difficulté est de savoir comment l'IA peut-elle refléter la réalité dans un nombre limité d'images, ou du moins ne pas déformer la réalité ?

Même s'ils sont blancs ou noirs, leur âge, leur forme corporelle, leurs cheveux et d'autres caractéristiques sont différents. Chacun est un individu avec des expériences et des perspectives uniques, mais ils vivent dans une société commune.

Lorsqu'un internaute a utilisé Gemini pour générer des femmes finlandaises, une seule des quatre photos était une femme noire, alors il a plaisanté : « 75 %, note C ».

Certaines personnes ont également demandé à Google si, après avoir amélioré le modèle, il « générerait des Blancs 25 % du temps au lieu de 5 % ».

De nombreux problèmes ne peuvent pas être résolus par la technologie, parfois ils relèvent aussi de concepts. C'est en partie la raison pour laquelle les géants de l'IA tels que Yann LeCun soutiennent l'open source, qui est contrôlé par les utilisateurs et les organisations, et ils peuvent définir ou non des mesures de protection selon leurs propres souhaits.

Lors de cette farce Google, certains sont restés calmes et ont dit qu'ils devraient d'abord s'entraîner à écrire des mots rapides. Au lieu de parler des Blancs et des Noirs en général, ils devraient écrire "Femmes scandinaves, portraits, éclairage de studio", demandant à The plus les exigences sont spécifiques, plus les résultats sont précis, et plus les exigences sont larges, plus les résultats peuvent être généraux.

Une chose similaire s'est produite en juillet de l'année dernière. Un étudiant asiatique du MIT voulait utiliser l'outil d'IA Playground AI pour donner à son avatar un aspect plus professionnel. En conséquence, il a été transformé en un homme blanc, avec une peau plus claire et des yeux plus bleus. Il a posté le post sur X Plus tard, cela a suscité beaucoup de discussions.

Le fondateur de Playground AI a répondu que le modèle ne peut pas être efficacement déclenché par de telles instructions, il produira donc des résultats plus généraux.

Changer le mot d'invite « en faire une photo LinkedIn professionnelle » en « arrière-plan de studio, éclairage net » peut donner de meilleurs résultats, mais cela montre que de nombreux outils d'IA n'enseignent pas aux utilisateurs comment écrire des mots d'invite et que l'ensemble de données est à nouveau centré sur personne blanche.

Toute technologie peut commettre des erreurs et peut être améliorée, mais elle n’offre pas nécessairement de solution. Lorsque l’IA n’est pas assez intelligente, la première personne à progresser est l’humain lui-même.

Elle est aussi vive que le gel d’automne et peut conjurer les désastres maléfiques. E-mail professionnel : [email protected]

# Bienvenue pour suivre le compte public officiel WeChat d'Aifaner : Aifaner (WeChat ID : ifanr). Un contenu plus passionnant vous sera fourni dès que possible.

Ai Faner | Lien original · Voir les commentaires · Sina Weibo