Microsoft : l’IA ne remplace pas l’expertise humaine

Microsoft Copilot vous permet de poser des questions à un assistant IA dans les applications Office.
Microsoft

Microsoft a mis à jour les conditions d'utilisation qui entreront en vigueur fin septembre et précise que ses services Copilot AI ne doivent pas être utilisés pour remplacer les conseils de vrais humains.

Les agents basés sur l'IA font leur apparition dans tous les secteurs, car les chatbots sont de plus en plus utilisés pour les appels de service client, les applications de santé et de bien-être et même pour la distribution de conseils juridiques . Cependant, Microsoft rappelle une fois de plus à ses clients que les réponses de ses chatbots ne doivent pas être considérées comme un évangile. "Les services d'IA ne sont pas conçus, destinés ou destinés à être utilisés comme substituts à des conseils professionnels", indique le contrat de service mis à jour .

L’entreprise a spécifiquement cité ses robots de santé comme exemple. Les robots « ne sont pas conçus ou destinés à remplacer un avis médical professionnel ou à être utilisés pour le diagnostic, la guérison, l’atténuation, la prévention ou le traitement d’une maladie ou d’autres conditions », expliquent les nouveaux termes. "Microsoft n'est pas responsable des décisions que vous prenez sur la base des informations que vous recevez des robots de santé."

Le contrat de service révisé détaille également des pratiques d’IA supplémentaires qui ne sont explicitement plus autorisées. Les utilisateurs, par exemple, ne peuvent pas utiliser ses services d’IA pour extraire des données. "Sauf autorisation explicite, vous ne pouvez pas utiliser de méthodes de web scraping, de récolte de données Web ou d'extraction de données Web pour extraire des données des services d'IA", indique l'accord. La société interdit également les tentatives d'ingénierie inverse visant à révéler les poids du modèle ou à utiliser ses données « pour créer, former ou améliorer (directement ou indirectement) tout autre service d'IA ».

"Vous ne pouvez pas utiliser les services d'IA pour découvrir des composants sous-jacents aux modèles, algorithmes et systèmes", indiquent les nouveaux termes. "Par exemple, vous ne pouvez pas essayer de déterminer et de supprimer le poids des modèles ou d'extraire des parties des services d'IA de votre appareil."

Microsoft dénonce depuis longtemps les dangers potentiels d’une utilisation abusive de l’IA générative. Avec ces nouvelles conditions de service, Microsoft semble se garantir une couverture juridique à mesure que ses produits d’IA deviennent omniprésents.