Magazine Finances

L'IA pour lutter contre les biais de l'IA ?

Publié le 07 octobre 2018 par Patriceb @cestpasmonidee
IBM Alors que des embryons d'intelligence artificielle s'infiltrent doucement dans une multitude de situations de notre vie quotidienne, les biais susceptibles d'entacher les décisions ainsi automatisées commencent à soulever de sérieuses inquiétudes. IBM, parmi d'autres, travaille sur des solutions possible… elles-mêmes à base d'intelligence artificielle.
Les applications qui mettent en œuvre aujourd'hui des techniques d'apprentissage automatique (machine learning, deep learning…) et qui évolueront demain vers des approches toujours plus sophistiquées s'exposent à l'introduction de défauts de « raisonnement », notamment par le simple fait de l'imperfection des informations qui les alimentent, par exemple quand la reconnaissance faciale est plus efficace sur les visages d'hommes blancs parce qu'ils composent l'essentiel de l'échantillon d'entraînement.
À l'extrême, comme l'a montré la désormais fameuse expérience Tay de Microsoft, des personnes malintentionnées peuvent manipuler le fonctionnement des algorithmes dans le but d'introduire volontairement de tels biais. En combinant ces risques à l'opacité des mécanismes par lesquels elle produit un résultat, l'intelligence artificielle est menacée de rejet pour subjectivité incontrôlable, ce qui pourrait également, dans certains domaines tels que la banque et l'assurance, constituer un enjeu réglementaire.
Logiquement, le problème déclenche l'appétit des fournisseurs technologiques et les premières velléités d'offrir des solutions ont commencé à émerger, chez Microsoft (à qui on peut reconnaître d'être sensibilisée !), Facebook, Accenture… et IBM, donc. Cette dernière propose dès maintenant une boîte à outils relativement complète, open source, accompagnée de divers matériels pédagogiques, destinés à aider les utilisateurs à appréhender le sujet, et de 3 démonstrateurs, dont un sur le risque de crédit.
L'IA est-elle la solution aux biais de l'IA@nbsp;?
Comme, semble-t-il, toutes les tentatives du genre à ce stade, la priorité pour AI Fairness 360 (AIF360) est de cibler les biais liés aux personnes, sur des critères de catégories démographiques (âge, genre…), de profils sociologiques (revenus…) ou autres. IBM indique avoir déjà mis au point plus de 30 modèles différents (reposant sur autant d'indicateurs et exploitant une large variété de kits techniques de programmation) pour détecter les défauts des jeux de données qui sont soumis à son analyse.
Plus intéressant, l'éditeur distribue en outre 9 algorithmes correctifs (intervenant, selon les cas, sur les informations sources, sur les méthodes de classification, sur les prédictions…) qui, une fois les biais identifiés, permettent de tester des stratégies visant à les réduire. D'autre part, le logiciel restitue quelques explications sur les décisions prises, sur leur niveau de confiance, sur les facteurs les ayant motivées… qui constitueront peut-être les fondations de la conformité aux futures réglementations.
Le défi des biais algorithmiques est extrêmement réel et il exige des réponses concrètes avant que l'intelligence artificielle ne prenne le contrôle de nos vies. Faut-il pour autant faire reposer la solution sur ce qui, en pratique, est le problème d'origine ? L'idée d'utiliser encore plus d'IA pour détecter et corriger ses propres défauts ressemble furieusement à une fuite en avant, démultipliant implicitement l'opacité et l'incertitude, malgré une apparence rassurante, derrière une complexité qui croît exponentiellement…

Vous pourriez être intéressé par :

Retour à La Une de Logo Paperblog

Ces articles peuvent vous intéresser :

A propos de l’auteur


Patriceb 8194 partages Voir son profil
Voir son blog

Magazine