Pourquoi l'IA peine à sortir des laboratoires

Publié le 08 août 2018 par Patriceb @cestpasmonidee
Toutes les grandes entreprises, notamment dans le secteur financier, s'intéressent depuis plusieurs années aux applications possibles des technologies d'intelligence artificielle. Pourtant, si les expérimentations continuent à se multiplier, les déploiements en production restent exceptionnels. Les explications de ce blocage sont multiples.
Un article de la Sloan Review (MIT) en proposait récemment quelques-unes, mais elles me semblent incomplètes, peut-être même jusqu'à sous-estimer l'une des raisons les plus importantes (mais aussi les plus difficiles à combattre) pour lesquelles l'intelligence artificielle se trouve généralement cantonnée au laboratoire et a peu de chances d'en sortir. Quand la majorité des décideurs affirment vouloir l'intégrer dans leurs stratégies et y consacrent des investissements conséquents, ces facteurs ne peuvent être ignorés.
Les premiers motifs de non transformation des expérimentations sont génériques, dans le sens où ils sont identiques dans tous les domaines d'innovation. En synthèse, ils tiennent globalement à un manque de préparation, qu'ils se traduisent par des difficultés d'intégration technique avec les systèmes existants, par les réticences des personnes (clients ou collaborateurs) dont les habitudes sont affectées, par la découverte tardive d'obstacles incontournables à une généralisation (dont, souvent, des surcoûts)…
Pour ceux-là, la solution est simple à identifier, sinon à implémenter. Il s'agit, et ce devrait être un des rôles des responsables de l'innovation, d'organiser et de structurer les initiatives afin de maximiser leur efficacité. En particulier, une telle discipline implique, préalablement au lancement de toute action, d'une part, de connaître et maîtriser l'ensemble des conditions à réunir pour mener un test à bien et, d'autre part, de définir les critères objectifs de succès et les modalités de l'éventuelle mise en production.
Il n'est pas nécessaire de prendre en compte dès le début toutes les contraintes imposées par la direction juridique et de la conformité, par les équipes de sécurité, par le département informatique… En revanche, il est absolument indispensable d'appréhender par avance les étapes qu'il faudra franchir pour s'assurer qu'elles pourront être absorbées le moment venu, c'est-à-dire avant le déploiement final. Elles font partie intégrante de la planification d'un projet qui ne veut pas rester qu'un pilote.
Une autre exigence à anticiper, d'autant plus critique avec les innovations de rupture, est l'accompagnement des parties prenantes. Cependant, si on pense facilement aux formations des collaborateurs et aux contenus didactiques destinés aux clients, l'angoisse des décideurs est rarement prise en considération, alors qu'elle représente probablement une cause majeure d'abandon des tentatives de transformation, qui s'exprime avec encore plus de puissance face aux promesses de l'intelligence artificielle.
Le dilemme de l'innovateur – la paralysie qu'induit l'idée que la nouveauté risque de rendre obsolète un modèle existant, alors qu'il semble toujours performant – en est une manifestation connue. Introduisons maintenant l'hypothèse d'un système qui prend des décisions de manière plus ou moins autonome grâce à des algorithmes d'apprentissage automatique : il y a là de quoi faire définitivement hésiter à passer à l'acte, sauf dans les applications les plus triviales ou dans les cas où l'apport de l'IA reste minime.
L'appréhension est aujourd'hui à son comble, car jamais auparavant n'a-t-il pu être envisagé de confier les commandes des processus d'entreprise à des logiciels. À ce jour, les progrès de l'informatisation ont en effet été consacrés (presque) exclusivement à l'automatisation de tâches, en maintenant le pilotage entre les mains d'un humain. Or l'intelligence artificielle porte en elle le bouleversement ce principe, en dépit du mythe rassurant, ressassé à l'envi, de la machine aidant l'homme dans son travail.
Voilà pourquoi les initiatives qui aboutissent mettent en œuvre des approches relativement peu ambitieuses, avec des technologies largement éprouvées, dans des domaines où l'analyse de données est déjà en vigueur depuis longtemps (la détection de fraude ou le calcul de scores de crédit, par exemple). Mais s'il est question d'utiliser une solution émergente pour changer radicalement les méthodes habituelles de l'entreprise (surtout vis-à-vis des clients), la peur de casser ce qui fonctionne prend le dessus.
Une illustration des effets de réflexes de ce genre est apparue dans l'actualité il y a quelques jours, quand des critiques se sont manifestés en réaction à une proposition de loi américaine en faveur de l'utilisation de nouvelles solutions pour évaluer la fiabilité financière des consommateurs écartés du système. Leur argument principal (en excluant des motivations qui seraient moins avouables) est typique de l'horreur de l'inconnu, puisqu'il fantasme des risques de régression pour ceux qui pourraient en bénéficier !
C'est donc une autre catégorie de préparation qu'il faut inclure dans les démarches d'innovation à fort potentiel disruptif, dont celles qui recourent à l'intelligence artificielle : la sensibilisation des responsables et des dirigeants à la possibilité de devoir accepter la remise en cause du statu quo. Et celle-ci doit être conduite de façon extensive, avant d'entamer la moindre expérimentation un tant soit peu ambitieuse. À défaut, il se trouvera toujours une voix quelque part (avec un poids suffisant) pour stopper la mise en production, quels que soient les résultats obtenus et les perspectives de bénéfices.