Alphabet, parent de Google, dit aux travailleurs de se méfier des chatbots IA
Alphabet a dit à ses employés de ne pas saisir d'informations confidentielles dans Bard, le chatbot à IA générative créé et exploité par Google, dont Alphabet est propriétaire.
L'avertissement de la société s'étend également à d'autres chatbots, tels que ChatGPT soutenu par Microsoft d'OpenAI, a rapporté Reuters jeudi.
Les chatbots alimentés par l'IA ont suscité un énorme intérêt ces derniers mois en raison de leur capacité impressionnante à converser de manière humaine, à rédiger des essais et des rapports, et même à réussir des tests académiques.
Mais Alphabet craint que ses employés ne divulguent par inadvertance des données internes via les outils.
Dans le cadre des travaux en cours visant à affiner et à améliorer la technologie avancée de l'IA, les réviseurs humains peuvent lire les conversations que les utilisateurs ont avec les chatbots, ce qui présente un risque pour la vie privée et également l'exposition potentielle de secrets commerciaux, ce dernier dont Alphabet semble être particulièrement préoccupé. à propos de.
De plus, les chatbots sont en partie formés à l'aide des échanges de texte des utilisateurs, de sorte qu'avec certaines invites, l'outil pourrait potentiellement répéter les informations confidentielles qu'il reçoit dans ces conversations aux membres du public.
Comme ChatGPT , Bard est maintenant disponible gratuitement pour tout le monde. Sur sa page Web, il avertit les utilisateurs : "Veuillez ne pas inclure d'informations pouvant être utilisées pour vous identifier ou identifier d'autres personnes dans vos conversations avec Bard."
Il ajoute que Google collecte "les conversations Bard, les informations d'utilisation des produits connexes, les informations sur votre emplacement et vos commentaires" et utilise les données pour améliorer les produits et services Google qui incluent Bard.
Google dit qu'il stocke l'activité de Bard jusqu'à 18 mois, bien qu'un utilisateur puisse changer cela à 3 ou 36 mois dans son compte Google.
Il ajoute que, par mesure de confidentialité, les conversations Bard sont déconnectées d'un compte Google avant qu'un examinateur humain ne les voie.
Reuters a déclaré que bien que l'avertissement d'Alphabet soit en place depuis un certain temps, il l'a récemment élargi, disant à ses employés d'éviter d'utiliser un code informatique précis généré par des chatbots. La société a déclaré au média que Bard peut parfois faire des "suggestions de code indésirables", bien que l'itération actuelle de l'outil soit toujours considérée comme une aide à la programmation viable.
Alphabet n'est pas la seule entreprise à avertir ses employés des risques de confidentialité et de sécurité liés à l'utilisation des chatbots. Samsung a récemment publié une instruction similaire à ses employés après qu'un certain nombre d'entre eux aient introduit des données sensibles liées aux semi-conducteurs dans ChatGPT, et Apple et Amazon, entre autres, auraient également adopté une politique interne similaire.