Le rival ChatGPT de Google est un gâchis éthique, disent les propres employés de Google
Google a lancé Bard , son rival ChatGPT, malgré les inquiétudes internes selon lesquelles il était un « menteur pathologique » et produisait des résultats « loufoques », selon un nouveau rapport. Les travailleurs disent que ces inquiétudes ont apparemment été ignorées dans une tentative effrénée de rattraper ChatGPT et d'éviter la menace qu'il pourrait représenter pour l'activité de recherche de Google .
Les révélations proviennent d'un rapport de Bloomberg qui a approfondi Google Bard et les problèmes soulevés par les employés qui ont travaillé sur le projet. C'est un récit révélateur de la façon dont le chatbot a apparemment déraillé et des appréhensions que ces incidents ont suscitées parmi les travailleurs concernés.
Par exemple, Bloomberg cite un employé anonyme qui a demandé à Bard des instructions sur la façon d'atterrir un avion, puis a été horrifié de voir que la description de Bard conduirait à un accident. Un autre travailleur a déclaré que les conseils de plongée sous-marine de Bard "entraîneraient probablement des blessures graves ou la mort".
Ces problèmes ont apparemment été soulevés peu de temps avant le lancement de Bard, selon Google, mais Google a fait avancer la date de mise en service, tel était son désir de suivre le rythme tracé par ChatGPT . Mais il l'a fait au mépris de ses propres engagements éthiques, ce qui a non seulement donné lieu à des conseils dangereux, mais également à la propagation potentielle de fausses informations.
Se précipiter pour se lancer
En 2021, Google s'est engagé à doubler son équipe d'employés étudiant les conséquences éthiques de l'intelligence artificielle (IA) et à investir davantage dans la détermination des dommages potentiels. Pourtant, cette équipe est désormais "impuissance et démoralisée", affirme le rapport Bloomberg. Pire encore, les membres de l'équipe ont reçu l'ordre de "ne pas gêner ou d'essayer de tuer l'un des outils d'IA générative en développement", ce qui remet en question l'engagement de Google envers l'éthique de l'IA.
Cela a été vu en action juste avant le lancement de Bard. En février, un employé de Google a envoyé un message à un groupe interne pour dire : "Bard est pire qu'inutile : s'il vous plaît, ne le lancez pas", avec des dizaines d'autres employés qui ont accepté. Le mois suivant, Jen Gennai, responsable de la gouvernance de l'IA chez Google, a annulé une évaluation des risques selon laquelle Bard pouvait causer des dommages et n'était pas prêt à être lancé, poursuivant la première version publique du chatbot.
Le rapport de Bloomberg dresse le portrait d'une entreprise méfiante à l'égard des préoccupations éthiques qui, selon elle, pourraient nuire à la rentabilité de ses propres produits. Par exemple, un travailleur a demandé à travailler sur l'équité dans l'apprentissage automatique, mais a été découragé à plusieurs reprises, au point que cela a affecté son évaluation des performances. Les gestionnaires se sont plaints que les préoccupations éthiques entravaient leur «vrai travail», a déclaré l'employé.
C'est une position préoccupante, d'autant plus que nous avons déjà vu de nombreux exemples d' inconduite de chatbot IA qui ont produit des informations offensantes, trompeuses ou carrément fausses. Si le rapport Bloomberg a raison sur l'approche apparemment hostile de Google face aux préoccupations éthiques, cela pourrait n'être que le début en ce qui concerne les problèmes causés par l'IA.