Magazine Gadgets

L’intelligence artificielle et la société de la désinformation qui se profile

Publié le 19 décembre 2022 par Mycamer

ChatGPT, un nouvel outil d’intelligence artificielle (IA) de OpenAIa causé beaucoup stupéfaction et appréhension. Un exemple d’IA générative, ChatGPT combine de puissantes capacités de génération de texte et une IA conversationnelle de pointe, pour un effet surprenant. Ceci est rendu possible par les progrès de l’IA tels que le traitement du langage, les réseaux de neurones transformateurs et l’apprentissage par renforcement. ChatGPT a été formé sur des ensembles de données contenant environ 500 milliards de mots de texte. A titre de comparaison, Wikipédia en anglais, l’une des sources sur lesquelles il a été formé, totalise environ 4 milliards de mots. Le résultat final est le plus proche d’un cerveau de ruche collectif que nous ayons, et est apparemment capable de “demandez-moi n’importe quoi” sur pratiquement n’importe quel sujet. Vous n’avez pas à nous croire sur parole ; essayez-le par vous-même.

ChatGPT a captivé l’imagination du grand public pour sa polyvalence et facilité d’utilisation. Il n’est pas nécessaire d’être un codeur ou de posséder des compétences techniques pour utiliser l’outil. Tapez une question et hop, il peut produire des essais scolaires et collégiaux, proposer des recettes de cuisine et des programmes d’entraînement, réussir des examens de pratique du barreau, écrire un code logiciel fonctionnel, composer de la poésie, définir des questions d’examen, résoudre des problèmes de mathématiques au lycée, expliquer des concepts scientifiques, et plus. Il peut même modifier tout ce qui précède en fonction des commentaires des utilisateurs. La liste des choses qu’il peut générer en un tournemain semble vraiment interminable, limitée uniquement par l’imagination. ChatGPT semble si impressionnant que certains experts spéculer que cela pourrait mettre fin au règne de Google en tant que roi de la recherche.

Certes, pour un tel outil, il existe plusieurs applications potentielles dans l’apprentissage assisté par l’IA, les affaires, la recherche et plus encore. Cependant, il y a un côté sombre à considérer. L’un est le manque d’exactitude factuelle dans le texte généré, qui est reconnu par OpenAI lui-même. La prochaine utilisation néfaste potentielle est la génération de contenu offensant. Même si les fabricants d’outils d’IA peuvent installer des garde-corps comme OpenAI a tenté de le faire, il est relativement facile de les contourner. Un autre inconvénient est la désinformation, un fléau qui a pris des proportions pandémiques à travers le monde. Des outils comme ChatGPT deviendront-ils des armes de tromperie massive ?

Nous nous inquiétons des vidéos et des images profondément fausses, mais maintenant nous devons également faire face à des textes profondément faux. Nous essayons toujours de trouver des solutions satisfaisantes pour arrêter la propagation de la désinformation sur les réseaux sociaux, mais nous devrons maintenant faire face à un problème potentiellement plus important. Dans les médias sociaux existants, les propagandistes disposent de moyens de distribution et de diffusion de (dés)informations. Ajoutant de l’huile sur le feu, l’IA met entre leurs mains un moyen de production efficace pour accélérer leurs méfaits. Le résultat pourrait bien être malarkey à grande échelle.

Ce qui complique les choses, c’est que le contenu généré par l’IA mêlera réalité et fiction, et le résultat final semblera souvent assez crédible. Comment saurons-nous si la sortie écrite par l’IA est exacte ? Certaines parties du contenu ont du sens et d’autres non. Il n’est pas toujours clair qui est qui. Des utilisateurs bien intentionnés peuvent en fait finir par croire à des mensonges et diffuser involontairement des informations erronées. Des experts en la matière peuvent être nécessaires pour repérer les erreurs logiques et factuelles cachées dans le contenu désinvolte de l’IA.

Comment faire face à un flot de désinformation intentionnelle ? La vérification des faits est lente et coûteuse. L’effort impliqué est d’un ordre de grandeur supérieur à la propagation d’un mensonge, mais maintenant nos sociétés peuvent être davantage mises à l’épreuve. En bref, lorsque la désinformation est créée par des machines qui peuvent fournir des «réponses» automatisées, il y a de graves implications pour notre politique, qui est basée sur un accord commun sur les faits.

Une refonte de la sécurité des aéroports est attendue depuis longtemps

La réalité de l’oxygénothérapie en 2022

Et comment nos institutions gèrent-elles les puissances étrangères pas si amicales qui déploient ces outils plus intelligents pour influencer l’opinion publique ? Avec des pays rivaux développant leurs propres outils d’IA générative, les risques de désinformation peuvent se multiplier. Si nous nous noyons dans la désinformation, quels refuges le public peut-il rechercher ? Y aura-t-il une « fuite vers la qualité » et une confiance renouvelée dans les médias et les plateformes traditionnels réputés pour leur objectivité ?

Qu’on le veuille ou non, le génie est sorti de la bouteille. Nos institutions ne peuvent pas réglementer leur sortie de cela. Des règles générales pour les outils d’IA générative peuvent ne pas être réalisables en raison de la protection de la liberté d’expression, de la limitation des préoccupations commerciales, des politiques industrielles nationales, des juridictions permissives concurrentes et d’autres facteurs. Au lieu de cela, nous devons concevoir des solutions créatives et technologiques, individuelles et institutionnelles, pour faire face au tsunami de désinformation imminent qui se dirige vers nous.

Kashyap Kompella, CFA, est PDG de RPA2AI Research et professeur invité à l’Institute of Directors. James Cooper est professeur de droit à la California Western School of Law à San Diego et chercheur à l’Université des sciences sociales de Singapour.



ChatGPT, un nouvel outil d’intelligence artificielle (IA) de OpenAIa causé beaucoup stupéfaction et appréhension. Un exemple d’IA générative, ChatGPT combine de puissantes capacités de génération de texte et une IA conversationnelle de pointe, pour un effet surprenant. Ceci est rendu possible par les progrès de l’IA tels que le traitement du langage, les réseaux de neurones transformateurs et l’apprentissage par renforcement. ChatGPT a été formé sur des ensembles de données contenant environ 500 milliards de mots de texte. A titre de comparaison, Wikipédia en anglais, l’une des sources sur lesquelles il a été formé, totalise environ 4 milliards de mots. Le résultat final est le plus proche d’un cerveau de ruche collectif que nous ayons, et est apparemment capable de “demandez-moi n’importe quoi” sur pratiquement n’importe quel sujet. Vous n’avez pas à nous croire sur parole ; essayez-le par vous-même.

ChatGPT a captivé l’imagination du grand public pour sa polyvalence et facilité d’utilisation. Il n’est pas nécessaire d’être un codeur ou de posséder des compétences techniques pour utiliser l’outil. Tapez une question et hop, il peut produire des essais scolaires et collégiaux, proposer des recettes de cuisine et des programmes d’entraînement, réussir des examens de pratique du barreau, écrire un code logiciel fonctionnel, composer de la poésie, définir des questions d’examen, résoudre des problèmes de mathématiques au lycée, expliquer des concepts scientifiques, et plus. Il peut même modifier tout ce qui précède en fonction des commentaires des utilisateurs. La liste des choses qu’il peut générer en un tournemain semble vraiment interminable, limitée uniquement par l’imagination. ChatGPT semble si impressionnant que certains experts spéculer que cela pourrait mettre fin au règne de Google en tant que roi de la recherche.

Certes, pour un tel outil, il existe plusieurs applications potentielles dans l’apprentissage assisté par l’IA, les affaires, la recherche et plus encore. Cependant, il y a un côté sombre à considérer. L’un est le manque d’exactitude factuelle dans le texte généré, qui est reconnu par OpenAI lui-même. La prochaine utilisation néfaste potentielle est la génération de contenu offensant. Même si les fabricants d’outils d’IA peuvent installer des garde-corps comme OpenAI a tenté de le faire, il est relativement facile de les contourner. Un autre inconvénient est la désinformation, un fléau qui a pris des proportions pandémiques à travers le monde. Des outils comme ChatGPT deviendront-ils des armes de tromperie massive ?

Nous nous inquiétons des vidéos et des images profondément fausses, mais maintenant nous devons également faire face à des textes profondément faux. Nous essayons toujours de trouver des solutions satisfaisantes pour arrêter la propagation de la désinformation sur les réseaux sociaux, mais nous devrons maintenant faire face à un problème potentiellement plus important. Dans les médias sociaux existants, les propagandistes disposent de moyens de distribution et de diffusion de (dés)informations. Ajoutant de l’huile sur le feu, l’IA met entre leurs mains un moyen de production efficace pour accélérer leurs méfaits. Le résultat pourrait bien être malarkey à grande échelle.

Ce qui complique les choses, c’est que le contenu généré par l’IA mêlera réalité et fiction, et le résultat final semblera souvent assez crédible. Comment saurons-nous si la sortie écrite par l’IA est exacte ? Certaines parties du contenu ont du sens et d’autres non. Il n’est pas toujours clair qui est qui. Des utilisateurs bien intentionnés peuvent en fait finir par croire à des mensonges et diffuser involontairement des informations erronées. Des experts en la matière peuvent être nécessaires pour repérer les erreurs logiques et factuelles cachées dans le contenu désinvolte de l’IA.

Comment faire face à un flot de désinformation intentionnelle ? La vérification des faits est lente et coûteuse. L’effort impliqué est d’un ordre de grandeur supérieur à la propagation d’un mensonge, mais maintenant nos sociétés peuvent être davantage mises à l’épreuve. En bref, lorsque la désinformation est créée par des machines qui peuvent fournir des «réponses» automatisées, il y a de graves implications pour notre politique, qui est basée sur un accord commun sur les faits.

Une refonte de la sécurité des aéroports est attendue depuis longtemps

La réalité de l’oxygénothérapie en 2022

Et comment nos institutions gèrent-elles les puissances étrangères pas si amicales qui déploient ces outils plus intelligents pour influencer l’opinion publique ? Avec des pays rivaux développant leurs propres outils d’IA générative, les risques de désinformation peuvent se multiplier. Si nous nous noyons dans la désinformation, quels refuges le public peut-il rechercher ? Y aura-t-il une « fuite vers la qualité » et une confiance renouvelée dans les médias et les plateformes traditionnels réputés pour leur objectivité ?

Qu’on le veuille ou non, le génie est sorti de la bouteille. Nos institutions ne peuvent pas réglementer leur sortie de cela. Des règles générales pour les outils d’IA générative peuvent ne pas être réalisables en raison de la protection de la liberté d’expression, de la limitation des préoccupations commerciales, des politiques industrielles nationales, des juridictions permissives concurrentes et d’autres facteurs. Au lieu de cela, nous devons concevoir des solutions créatives et technologiques, individuelles et institutionnelles, pour faire face au tsunami de désinformation imminent qui se dirige vers nous.

Kashyap Kompella, CFA, est PDG de RPA2AI Research et professeur invité à l’Institute of Directors. James Cooper est professeur de droit à la California Western School of Law à San Diego et chercheur à l’Université des sciences sociales de Singapour.

— to news.google.com


Retour à La Une de Logo Paperblog

A propos de l’auteur


Mycamer Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte

Magazines