Quand l’assurance-vie vous offre l’IA, devriez-vous faire de la limonade ?

Une tendance croissante concerne les compagnies d'assurance utilisant l'intelligence artificielle dans leurs opérations. Les publicités sur ces méthodes mentionnent souvent comment les clients peuvent souscrire à des politiques plus rapidement, déposer des réclamations plus efficacement et obtenir une assistance 24h/24 et 7j/7, tout cela grâce à l'IA.

Cependant, un récent fil Twitter de Lemonade – une marque d'assurance qui utilise l'IA – met en lumière les problèmes potentiels de cette pratique. Les gens l'ont vu, puis ont décidé que l'approche Lemonade AI met en évidence comment la technologie peut nuire et aider, en fonction de son application.

La transparence de Twitter sonne l'alarme

De nombreuses entreprises ne divulguent pas de détails sur la façon dont elles utilisent l'IA. L'idée est que garder l'IA entourée de mystère donne l'impression d'une offre futuriste tout en protégeant la technologie propriétaire d'une entreprise.

Lorsque Lemonade s'est tourné vers Twitter pour donner aux gens un aperçu du fonctionnement de son IA, les communications ont commencé par expliquer comment elle utilise les informations. Par exemple, un tweet de Lemonade a confirmé qu'il collecte environ 100 fois plus de données que les compagnies d'assurance traditionnelles.

Le fil s'est poursuivi en expliquant comment le chatbot AI de l'entreprise pose 13 questions aux clients. Ce faisant, il rassemble plus de 1 600 points de données. C'est comparé aux 20 à 40 autres assureurs, poursuit le tweet. La société utilise ces informations pour évaluer le risque associé à un client, ce qui aide Lemonade à réduire ses coûts d'exploitation et son taux de perte.

Le quatrième tweet de la chaîne de sept messages est entré dans un territoire encore plus ahurissant, suggérant que les analyses de Lemonade AI détectent les indices non verbaux associés aux réclamations frauduleuses. Le processus de l'entreprise implique que les clients utilisent leur téléphone pour filmer des vidéos expliquant ce qui s'est passé.

Les utilisateurs de Twitter ont remis en question l'éthique de cette approche, soulignant les problèmes liés aux ordinateurs non responsables qui prennent des décisions concernant les réclamations qui changent la vie, telles que celles concernant les maisons incendiées. L'un d'eux a qualifié la pratique de "version encore plus ouvertement pseudoscientifique d'un test traditionnel au détecteur de mensonges".

L'IA fait aussi des erreurs

La détection de fraude s'étend au-delà des méthodes d'IA d'assurance pour trouver des signes et des modèles suspects . Par exemple, de nombreuses banques l'utilisent pour signaler des frais étranges. Cependant, la technologie pourrait mal percevoir les situations – et c'est le cas. Même les programmeurs les plus qualifiés ne peuvent pas accomplir un travail impeccable.

La plupart des gens sont parfois confrontés à la situation embarrassante d'essayer d'acheter un article et d'entendre le caissier leur dire que la transaction a échoué, même s'ils avaient beaucoup d'argent sur leur compte. Résoudre la situation est généralement aussi simple que le titulaire de la carte contacte l'émetteur pour expliquer la situation et approuver les frais.

Cependant, on peut soutenir que la situation devient plus grave lorsqu'il s'agit d'une réclamation pour la propriété essentielle de quelqu'un. Que se passe-t-il si l'IA se trompe en qualifiant la catastrophe légitime d'un assuré de frauduleuse ? Quelqu'un qui paie fidèlement ses frais d'assurance, s'attendant à ce que la couverture lui procure une tranquillité d'esprit après des situations catastrophiques, pourrait finalement se retrouver sans protection. Une erreur d'origine humaine lors de la programmation peut entraîner un mauvais résultat pour un client d'une compagnie d'assurance AI.

Lemonade permet aux clients d'annuler à tout moment et de recevoir des remboursements pour toute période payée restante sur une politique. Une fois que les gens ont lu son fil Twitter offensant, beaucoup ont publiquement indiqué vouloir changer de fournisseur. Il est trop tôt pour dire combien pourraient suivre.

Profiter aux dépens des clients ?

Une autre partie de la chaîne de tweets de Lemonade mentionnait que la société avait enregistré une perte de profit de 368 % au premier trimestre 2017. Cependant, au premier trimestre 2021, elle n'était que de 71 %. La compagnie d'assurance n'est pas la seule à augmenter son investissement dans l'IA pour augmenter ses profits.

Les mesures prises par les dirigeants d'entreprise pour mettre en œuvre l'IA ont un impact sur les résultats. Une étude de BDO a montré une croissance moyenne des revenus de 16% tout en investissant davantage dans l'informatique lors de la mise en œuvre de l'IA. Cependant, l'augmentation moyenne n'était que de 5 % sans consacrer plus de ressources à l'informatique.

Quelles que soient les mesures spécifiques prises par un chef d'entreprise lorsqu'il utilise l'intelligence artificielle, le fiasco de Lemonade a suscité des inquiétudes compréhensibles de la part du public. L'un des principaux inconvénients de l'IA est que les algorithmes ne peuvent souvent pas expliquer les facteurs qui les ont poussés à conclure quelque chose.

Même les professionnels de la technologie qui les construisent ne peuvent pas confirmer les divers aspects qui amènent un outil d'IA à prendre une certaine décision par rapport à une autre. C'est une réalité inquiétante pour les produits d'IA d'assurance et toutes les autres industries qui utilisent l'intelligence artificielle pour prendre des décisions critiques. Certains analystes de l'IA, dans HDSR , plaident à juste titre contre l'utilisation inutile de modèles de boîte noire.

Le site Web de Lemonade mentionne comment AI prend un pourcentage important de ses décisions en matière de réclamations en quelques secondes. C'est une bonne nouvelle si le résultat est en faveur du client. Cependant, vous pouvez imaginer la pression supplémentaire exercée sur un assuré déjà stressé si l'IA met moins d'une minute pour refuser une réclamation valide. La limonade et d'autres assureurs axés sur l'IA peuvent ne pas s'inquiéter si ce système les aide à tirer profit, mais les clients le feront si la technologie de l'entreprise donne des jugements injustes.

Rétropédalages de limonade

Les représentants de Lemonade ont rapidement supprimé sa chaîne de tweet controversée, l'échangeant contre des excuses. Le message disait que Lemonade AI ne nie jamais automatiquement les allégations et ne les évalue pas en fonction de caractéristiques telles que le sexe ou l'apparence d'une personne.

Les utilisateurs ont rapidement souligné que le tweet original de l'entreprise mentionnait l'utilisation de l'IA pour évaluer les indices non verbaux. La situation est devenue encore plus douteuse lorsqu'un article de blog sur Lemonade a affirmé que la société n'utilisait pas l'IA pour rejeter les réclamations basées sur des caractéristiques physiques ou personnelles.

Le message a expliqué comment Lemonade utilise la reconnaissance faciale pour signaler les cas où la même personne fait des réclamations sous plusieurs identités. Cependant, le tweet initial mentionnait des indices non verbaux, qui semblent différents de l'étude du visage d'une personne pour authentifier qui elle est.

Dire quelque chose comme "Lemonade AI utilise la reconnaissance faciale pour la vérification d'identité pendant le processus de réclamation" empêcherait de nombreuses personnes de tirer des conclusions effrayantes. Le blog a également évoqué la façon dont la recherche comportementale suggère que les individus mentent moins souvent s'ils se regardent parler, comme via la caméra selfie d'un téléphone. Il indique que l'approche permet de payer "les réclamations légitimes plus rapidement tout en réduisant les coûts". Cependant, d'autres compagnies d'assurance utilisent probablement l'intelligence artificielle différemment.

Une préoccupation potentielle de tout outil d'assurance de l'IA est que les personnes qui l'utilisent peuvent présenter des caractéristiques de stress qui reflètent celles d'individus menteurs. Un assuré peut bégayer, parler rapidement, se répéter ou jeter un coup d'œil autour de lui tout en créant une vidéo de réclamation. Ils pourraient montrer ces signes en raison d'une grande détresse – pas nécessairement de la malhonnêteté. Le secteur des ressources humaines utilise également l'IA lors des entretiens. Un risque associé est que toute personne sous pression se comporte souvent différemment d'elle-même.

Utilisation de l'IA et potentiel de violation de données

Les performances de l'algorithme d'IA s'améliorent généralement à mesure qu'un outil accède à plus d'informations. Les tweets originaux de Lemonade revendiquaient un processus de collecte de plus de 1 600 points de données par client. Ce simple montant soulève des inquiétudes.

Tout d'abord, vous pourriez vous demander ce que l'algorithme sait et s'il a tiré des conclusions incorrectes. Une autre inquiétude découle de la question de savoir si Lemonade et d'autres compagnies d'assurance IA protègent adéquatement les données.

Connexe: Les meilleurs services de protection et de surveillance contre le vol d'identité

Les cybercriminels visent à causer les pires dégâts possibles lorsqu'ils ciblent les victimes. Cela signifie souvent tenter d'infiltrer les réseaux et les outils avec le plus de données disponibles. Les criminels en ligne savent également à quel point l'IA a besoin de beaucoup d'informations pour bien fonctionner. De même, ils aiment voler des données pour les vendre plus tard sur le dark web.

Lors d'un incident en février 2020, une société de reconnaissance faciale appelée Clearview AI a subi une violation de données. Le CPO signale que des parties non autorisées ont accédé à sa liste complète de clients et à des informations sur les activités de ces entités. L'entreprise comptait parmi ses clients des organismes d'application de la loi et des agences fédérales, dont le FBI et le Department of Homeland Security.

Les violations de données nuisent aux clients en érodant leur confiance et en les mettant en danger d'usurpation d'identité. Étant donné que les incidents de données volées ou mal gérées se produisent si fréquemment, de nombreuses personnes peuvent hésiter à laisser un outil d'assurance IA recueillir des informations à leur sujet en arrière-plan. C'est particulièrement vrai si une entreprise omet de spécifier ses politiques de protection des données et de cybersécurité.

Commodité associée à l'inquiétude

L'IA utilisée dans le secteur des assurances présente de nombreux aspects utiles. Beaucoup de gens aiment taper des requêtes sur des chatbots et obtenir des réponses quasi instantanées plutôt que de passer un temps précieux au téléphone pour joindre un agent.

Si un outil de réclamation d'assurance IA tire les bonnes conclusions et que les représentants de l'entreprise protègent les données, des avantages évidents existent. Cependant, cet aperçu rappelle aux gens que l'IA n'est pas une solution infaillible et que les entreprises peuvent l'utiliser à mauvais escient pour augmenter leurs profits. Alors que de plus en plus d'assureurs explorent l'IA, les analystes technologiques et les consommateurs doivent garder ces entités honnêtes et éthiques en évoquant leurs hésitations valables. Cela contribuera à garantir que les données des utilisateurs sont protégées contre la cybercriminalité.