Il faut accepter les hallucinations de l'IA

Publié le 29 octobre 2023 par Patriceb @cestpasmonidee
Derrière la question cruciale de savoir si l'intelligence artificielle est définitivement condamnée à parfois produire des hallucinations, cet article de TechCrunch aborde le sujet sous plusieurs angles périphériques essentiels : pourquoi les modèles ne sont-ils pas parfaits, est-il possible de se protéger de leurs erreurs et, si oui, comment…?
Aujourd'hui, après presque un an de frénésie ininterrompue autour de ChatGPT, tout le monde a entendu parler de ces occurrences d'énormités et autres absurdités énoncées par la plate-forme (et ses équivalentes) en réponses à des demandes triviales. Aussi rares soient-elles, ces anomalies constituent une des raisons pour lesquelles les entreprises, surtout dans le secteur financier, où l'aversion aux incertitudes est enracinée, sont réticentes à basculer de l'expérimentation au déploiement en production.
Il leur faudra pourtant outrepasser leurs craintes si elles veulent profiter des opportunités de la technologie, car aucune solution parfaite ne semble envisageable à moyen terme afin d'éradiquer le problème. Mais commençons par analyser les origines de ce dernier, de manière à identifier, malgré tout, quelques moyens de limiter au maximum le risque qu'il survienne ou, à tout le moins, d'en contenir les conséquences. Ce qui donnera à comprendre, au passage, pourquoi il faut apprendre à composer avec l'imprévisible.
Deux facteurs distincts conduisent l'IA à dérailler occasionnellement, combinés à une réalité commune qu'il ne faut jamais perdre de vue : ce qu'on qualifie d'intelligence n'en relève pas véritablement, il est uniquement question d'analyses statistiques. D'une part, les « raisonnements » de la machine reposant exclusivement sur son entraînement préalable, les données utilisées en entrée sont critiques et l'introduction de sources douteuses lors de l'apprentissage engendre inexorablement une perte de qualité.
D'autre part, les conditions d'exploitation des outils, par exemple comment un individu interroge un agent conversationnel, constitue un deuxième point de faiblesse majeur. En effet, si les algorithmes fonctionnent correctement lorsqu'ils sont mis à contribution sur des sujets sur lesquels ils ont été copieusement nourris, ils n'hésiteront toutefois pas, à défaut de savoir admettre leur ignorance, à proposer un résultat, forcément suspect, sur une thématique pour laquelle il n'ont pas été « formés » (ou pas de façon extensive).
Dans les deux cas, le seul recours, à ce jour, pour éviter le désastre est un contrôle (intelligent) humain, qu'il s'agisse de vérifier manuellement les contenus ingérés par les modèles de langage afin de s'assurer de leur pertinence et de leur fiabilité, d'appréhender le périmètre de « compétences » acceptable, et éviter d'attendre de l'IA ce qu'elle est incapable de fournir, ou encore de repérer les dérives et les défaillances quand elles surgissent et de renforcer l'entraînement initial à travers les réactions observées.
En résumé, l'intelligence artificielle n'a de valeur que si elle est mise en œuvre à bon escient, en conservant en permanence un œil critique sur ce qu'elle produit. Peut-être verra-t-on bientôt des moteurs capables de répondre « je ne sais pas » avant de s'aventurer sur un terrain inconnu. Les démarches d'apprentissage sur les données internes des entreprises réduisent le danger d'alimentation déviante. Mais des aberrations continueront à émerger pendant longtemps et il convient d'anticiper les protocoles de mitigation à implémenter dans ces circonstances. Ou abandonner tout projet d'IA.