ChatGPT pourrait bientôt modérer les contenus illégaux sur des sites comme Facebook

GPT-4 – le grand modèle de langage (LLM) qui alimente ChatGPT Plus – pourrait bientôt jouer un nouveau rôle en tant que modérateur en ligne, surveillant les forums et les réseaux sociaux pour le contenu néfaste qui ne devrait pas voir le jour. C'est selon unnouveau billet de blog du développeur ChatGPT OpenAI, qui dit que cela pourrait offrir "une vision plus positive de l'avenir des plateformes numériques".

En faisant appel à l'intelligence artificielle (IA) au lieu de modérateurs humains, OpenAI affirme que GPT-4 peut adopter "une itération beaucoup plus rapide sur les changements de politique, réduisant le cycle de mois à heures". En plus de cela, "GPT-4 est également capable d'interpréter les règles et les nuances dans la longue documentation de la politique de contenu et de s'adapter instantanément aux mises à jour de la politique, ce qui se traduit par un étiquetage plus cohérent", affirme OpenAI.

Un écran d'ordinateur portable affiche la page d'accueil de ChatGPT, le chatbot d'intelligence artificielle d'OpenAI.
Rolf van Root / Unsplash

Par exemple, le billet de blog explique que les équipes de modération pourraient attribuer des étiquettes au contenu pour expliquer s'il relève ou non des règles d'une plateforme donnée. GPT-4 pourrait alors prendre le même ensemble de données et attribuer ses propres étiquettes, sans connaître les réponses au préalable.

Les modérateurs pourraient ensuite comparer les deux ensembles d'étiquettes et utiliser toute divergence pour réduire la confusion et clarifier leurs règles. En d'autres termes, GPT-4 pourrait agir comme un utilisateur de tous les jours et évaluer si les règles ont du sens.

Le bilan humain

Le grand modèle de langage GPT-4 d'OpenAI tente de modérer un contenu. Le résultat est comparé à une analyse humaine du contenu.
OpenAI

À l'heure actuelle, la modération de contenu sur divers sites Web est effectuée par des humains, ce qui les expose régulièrement à des contenus potentiellement illégaux, violents ou autrement nuisibles. Nous avons vu à plusieurs reprises le terrible tribut que la modération de contenu peut faire peser sur les gens, Facebook payant 52 millions de dollars aux modérateurs qui souffraient de SSPT en raison des traumatismes de leur travail.

Réduire le fardeau des modérateurs humains pourrait aider à améliorer leurs conditions de travail, et puisque les IA comme GPT-4 sont immunisées contre le type de stress mental que les humains ressentent lorsqu'ils traitent du contenu gênant, ils pourraient être déployés sans se soucier de l'épuisement professionnel et du SSPT.

Cependant, cela soulève la question de savoir si l'utilisation de l'IA de cette manière entraînerait des pertes d'emplois . La modération de contenu n'est pas toujours un travail amusant, mais c'est néanmoins un travail, et si GPT-4 prend le relais des humains dans ce domaine, il y aura probablement des inquiétudes quant au fait que les anciens modérateurs de contenu seront simplement licenciés plutôt que réaffectés à d'autres rôles.

OpenAI ne mentionne pas cette possibilité dans son article de blog, et c'est vraiment quelque chose que les plateformes de contenu doivent décider. Mais cela pourrait ne pas faire grand-chose pour apaiser les craintes que l'IA ne soit déployée par les grandes entreprises simplement comme mesure d'économie, sans se soucier des conséquences.

Pourtant, si l'IA peut réduire ou éliminer la dévastation mentale à laquelle sont confrontées les équipes surmenées et sous-estimées qui modèrent le contenu des sites Web utilisés par des milliards de personnes chaque jour, il pourrait y avoir du bon dans tout cela. Il reste à voir si cela sera tempéré par des licenciements tout aussi dévastateurs.