Magazine Finances

Lemonade : IA mais pas trop

Publié le 29 mai 2021 par Patriceb @cestpasmonidee
LemonadeUne polémique déclenchée sur Twitter par une tentative de Lemonade d'expliquer comment l'intelligence artificielle l'aide à optimiser sa gestion des sinistres nous procure une occasion de découvrir les limites de la technologie, sur deux plans complémentaires : la perception du grand public et les frontières éthiques infranchissables.
Ce n'est pas un secret. Depuis l'origine, la jeune pousse déploie de puissants algorithmes d'analyse au sein de ses processus de manière à, notamment, renforcer son efficacité opérationnelle, améliorer son expérience utilisateur et réduire la fraude. Sa déclaration de sinistre, en particulier, adopte une méthode originale puisqu'elle se déroule en vidéo, dans le but de simultanément capter automatiquement toutes les informations nécessaires – pour une indemnisation immédiate – et repérer les tentatives d'abus.
Malheureusement, évoquer ces méthodes publiquement éveille fatalement les soupçons d'une fraction de la population, probablement peu nombreuse mais, comme toujours avec les médias sociaux, capable de capter une visibilité importante en quelques échanges. Il est vrai que la description de sa faculté de déchiffrer des « indices non verbaux » au sein des conversations enregistrées n'était peut-être pas une idée très heureuse tant elle est sujette à interprétations et source de confusions possibles.
Les phantasmes ont rapidement pris une dimension invraisemblable, jusqu'à des références à la phrénologie et la physiognomonie, portant la croyance d'une exploitation des caractéristiques physiques du demandeur dans le cadre de l'évaluation de son dossier. Tel est le risque auquel s'expose une entreprise qui promeut une transparence totale… mais n'est pas exempte d'erreurs de communication, dans un domaine perçu par le citoyen lambda comme mystérieux et, par conséquent, propice aux pires excès.
En effet, dévoiler les dessous des technologies mises en œuvre ne suffira jamais à conquérir les consommateurs si l'ignorance (normale) de ces derniers n'est pas prise en compte. En l'occurrence, Lemonade touche à deux sujets sensibles et méconnus : l'intelligence artificielle, d'une part, et l'assurance, d'autre part. Oui, l'assurance, dont les principes statistiques sont généralement nébuleux pour le non spécialiste et dont les problématiques sont totalement ignorées, en particulier en matière de fraude.
Lemonade – Automatisation dans la gestion de sinistre
Face au mini-scandale suscité par ses propos, la startup a remis les pendules à l'heure. Elle rejette les accusations dont elle fait l'objet et affirme clairement ne pas utiliser les traits ou les expressions du visage (y compris l'analyse de sentiment) dans ses algorithmes de détection de fraude. Elle se contente, dit-elle, de vérifier qu'une même personne ne se présente pas sous des identités multiples, tandis qu'elle considère que le simple fait de décrire le sinistre en vidéo réduit la propension de ses clients à mentir.
Surtout, Lemonade clame sa conviction que des biais affectent inévitablement les résultats obtenus par logiciel et que, pour cette raison, elle estime impossible de concevoir un système déterministe capable de remplacer l'humain. Elle enfonce alors le clou en indiquant qu'un agent est obligatoirement impliqué lors d'une décision de rejet d'une demande (ce qui est vraisemblablement une exigence légale, par ailleurs, sans même aborder les questions d'éthique sous-jacentes) et… qu'il en sera toujours ainsi.
Notons au passage que ce raisonnement qui prétendrait donner à un individu le libre arbitre ultime afin d'éviter l'abus de pouvoir des machines reflète une parfaite illusion. Que fera donc ce quidam des conclusions et recommandations restituées par les algorithmes ? N'aura-t-il pas tendance à les accepter sans exercer son esprit critique, que ce soit par facilité (paresse) ou par excès de confiance ? N'oublions pas que l'être humain aussi est victime de biais, souvent encore plus incontrôlables que ceux des logiciels.
Son discours permettra certainement à la jeune pousse de surmonter cette crise mais il ne répond en rien aux enjeux soulevés. Toutes les organisations adeptes de l'intelligence artificielle au service de leurs usagers seront confrontées à ce même dilemme de la transparence auprès d'une population qui n'est pas en mesure d'appréhender la teneur de l'information qui lui est fournie. Ce n'est pas un motif pour abandonner ni la technologie ni le désir de pédagogie. Mais d'autres incidents de parcours surviendront.

Retour à La Une de Logo Paperblog

A propos de l’auteur


Patriceb 8194 partages Voir son profil
Voir son blog

Magazine