Pour beaucoup d'entreprises, en particulier dans le secteur financier à la prudence légendaire, l'irruption de ChatGPT a plus généré d'inquiétude que suscité l'enthousiasme pour ses opportunités, jusqu'à son interdiction pure et simple dans des institutions de premier plan. Face aux risques – réels – identifiés, le cabinet Gartner entrevoit une solution pour une adoption raisonnée de la technologie sous-jacente.
Au-delà des restrictions à l'accès libre des collaborateurs aux outils grand public, dont les motivations ne sont pas toujours très claires (le danger est-il vraiment plus important qu'avec les moteurs de recherche conventionnels ?), les grands groupes sont généralement prêts à expérimenter les produits d'IA générative que leur proposent désormais non seulement des jeunes pousses telles qu'OpenAI mais également leurs fournisseurs historiques, dont Microsoft ou, dans une moindre mesure, Google.
En revanche, la plupart d'entre eux ont de sérieuses réticences à les déployer, même auprès de leurs employés, sans précautions préalables car quelques questions critiques restent sans réponses avec ces plates-formes génériques connectées à leurs sources de données internes. Comment s'assurer que les informations présentées à un utilisateur entrent bien dans le périmètre de ses habilitations ? Comment garantir la qualité des résultats et, notamment, éviter les « hallucinations » toujours possibles ? Etc.
Selon Gartner, le salut viendra des « micro-apps génératives », c'est-à-dire des interfaces spécialisées qui se placent en intermédiaire des moteurs standards, endossant un rôle de contrôleur des interactions. La personne n'interroge plus librement l'intelligence artificielle par tchat, elle se voit uniquement proposer des « invites » (« prompts » en anglais) prédéfinies, dont la pertinence et la sécurité ont été vérifiées et dont les réponses, qui restent dynamiques, peuvent en outre être filtrées en cas de dérive.
Certes, le principe, tel qu'il est décrit, remplit parfaitement son office de protection contre les menaces anticipées… mais à quel prix ? En limitant les possibilités de sollicitations, ces « micro-apps » se comportent finalement comme de moteurs de recherche bridés, dotés tout au plus d'une capacité supplémentaire de restitution en langage naturel. C'est d'ailleurs l'exemple donné par l'analyste de Gartner, d'un auteur (lui-même ?) ayant une vaste librairie de référence à sa disposition en support de l'article qu'il rédige.
Cette approche porte un défaut majeur : elle ignore la valeur intrinsèque de la créativité de l'individu dans la manière dont il aborde son échange avec l'IA. La faille est d'autant plus notable qu'elle révèle une contradiction, quand Nader Henein explique, en quelque sorte, qu'il faut réduire le champ de compétences de l'automate afin de pouvoir justifier de l'apport de l'intelligence humaine. Pourquoi diable celle-ci serait-elle acceptable pour traiter le problème soumis et non pour s'enquérir de l'avis d'un robot ?
En résumé, j'estime que les « micro-apps génératives » constituent peut-être une option dégradée de court terme mais elle ne vaudront jamais un usage autonome et sans entraves des plates-formes d'IA. La seule voie possible pour les organisations qui souhaitent véritablement capitaliser sur leur potentiel, en maîtrisant les risques correspondants, consistera nécessairement à former leurs salariés… puis à faire confiance à leur faculté de discernement dans leur mise en œuvre au quotidien.