Ce que disent les leaders de l’IA sur la réglementation de la technologie

Publié le 09 juin 2023 par Mycamer
Les dirigeants de l’IA n’ont pas trouvé de consensus sur la manière de réglementer la technologie. Getty Images

La communauté technologique discute depuis un certain temps de la possibilité que l’intelligence artificielle soit plus intelligente que les êtres humains. Un sujet tout aussi vivement débattu est de savoir si les humains devraient intervenir pour réglementer la technologie en évolution rapide avant qu’il ne soit trop tard.

Aucun pays n’a encore établi de cadre juridique complet autour de l’IA Aux États-Unis, les législateurs sollicitent l’avis des acteurs de l’industrie en organisant des audiences publiques et des réunions privées avec des dirigeants de la technologie comme Sam Altman, PDG d’OpenAI et Sundar Pichai, PDG de Google.

Les leaders technologiques sont divisés sur la manière dont l’IA devrait être réglementée, le cas échéant. Alors que certains soutiennent l’idée d’avoir une agence gouvernementale dédiée à l’octroi de licences pour les nouveaux produits d’IA, d’autres disent que la technologie ne devrait en aucun cas être restreinte. Et il y a ceux du milieu qui pensent que la réglementation ne devrait s’appliquer qu’aux grandes entreprises, mais pas aux nouvelles entreprises.

Voici ce que les PDG, les investisseurs et les vétérans de l’industrie les plus influents ont dit à ce sujet.

Sam Altman, PDG d’OpenAI : “La réglementation de l’IA est essentielle”

Le OpenAI Le PDG est tout à fait pour réglementer l’IA Lors d’une audience du Congrès en mai, Altman a exhorté les législateurs à contrôler la technologie émergente pour “atténuer les risques de modèles de plus en plus puissants”.

Altman a recommandé que le gouvernement crée une nouvelle agence pour tester et autoriser de nouveaux modèles d’IA. Il a proposé d’établir un ensemble de normes de sécurité et de faire tester les nouveaux modèles par des auditeurs indépendants avant qu’ils ne soient autorisés à être déployés.

Cependant, Altman pense que la réglementation ne devrait s’appliquer qu’aux grandes entreprises d’IA comme la sienne. « Nous avons dit explicitement il ne devrait y avoir aucune réglementation sur les petites entreprises. La seule réglementation que nous avons réclamée concerne nous-mêmes et les gens plus grands », a-t-il déclaré lors d’un événement en Inde hier (7 juin).

Sundar Pichai, PDG de Google : “L’IA est trop importante pour ne pas être réglementée.”

Alors que Google voit OpenAI (et son investisseur Microsoft (MSFT)) en tant que plus grand concurrent de l’IA, son PDG Sundar Pichai est du même côté qu’Altman en matière de réglementation. Le mois dernier, Pichai et Altman faisaient partie des dirigeants de la technologie invités à la Maison Blanche pour discuter de la sécurité de l’IA avec de hauts responsables de l’administration Biden.

Dans un éditorial pour le Financial Times le 22 mai, Pichai a appelé AI “la technologie la plus profonde l’humanité travaille aujourd’hui.

“L’IA doit être réglementée de manière à équilibrer l’innovation et les dommages potentiels”, a-t-il écrit. “Je crois toujours que l’IA est trop importante pour ne pas être réglementée, et trop importante pour ne pas être bien réglementée.”

Pichai a souligné l’importance de la coopération internationale, ajoutant que les États-Unis et l’Europe doivent travailler ensemble sur la future réglementation dans l’espace de l’IA.

Marc Andreessen, cofondateur d’a16z : les entreprises devraient “construire l’IA aussi rapidement et agressivement que possible”.

Contrairement à Altman et Pichai, le capital-risqueur Marc Andreessen pense que la réglementation pourrait éventuellement nuire à l’innovation et à la concurrence. Dans un article de blog le 6 juin, le co-fondateur de la centrale de capital-risque Andreessen Horowitz a fait valoir que les entreprises d’IA devraient être autorisées à construire “aussi rapidement et agressivement que possible” sans restrictions ni aide d’aucun gouvernement.

“Cela maximisera les retombées technologiques et sociétales des incroyables capacités de ces entreprises, qui sont des joyaux du capitalisme moderne”, a écrit Andreessen.

Elon Musk : “Les développeurs d’IA doivent travailler avec les décideurs.”

Elon Musk a cofondé OpenAI avec Sam Altman en 2015. Le milliardaire technologique plaide également pour une intervention gouvernementale avant que l’IA ne devienne trop avancée pour être réglementée.

En mars, Musk et plus de 1 000 leaders technologiques ont signé une lettre ouverte appelant à une pause de six mois dans le développement de l’IA. “Les développeurs d’IA doivent travailler avec les décideurs politiques pour accélérer considérablement le développement de systèmes de gouvernance d’IA robustes”, indique la lettre. “Celles-ci devraient au minimum inclure de nouvelles autorités de réglementation compétentes dédiées à l’IA”

Le président de Microsoft, Brad Smith : « Le gouvernement devrait s’assurer que les modèles d’IA « sont développés en toute sécurité » et « protégés contre les menaces de sécurité ».

Brad Smith ne pense pas qu’une pause de six mois dans le développement de l’IA soit réaliste, mais il soutient l’idée de créer une agence gouvernementale pour réglementer l’IA

“Quelque chose qui garantirait non seulement que ces modèles sont développés en toute sécurité, mais qu’ils sont déployés dans de grands centres de données où ils peuvent être protégés contre la cybersécurité, la sécurité physique et les menaces à la sécurité nationale”, a déclaré Smith sur “Face the Nation” de CBS sur 28 mai.

Forgeron a proposé un décret obligeant le gouvernement américain à n’acheter des services d’IA qu’à des entreprises ayant mis en place des protocoles de sécurité. Microsoft est le plus grand bailleur de fonds d’OpenAI et intègre le modèle de langage GPT d’OpenAI dans son moteur de recherche Bing.

Bill Gates : “Les IA doivent être testées très soigneusement et correctement réglementées.”

Le cofondateur retraité de Microsoft a récemment cosigné une déclaration par le Center for AI Safety à but non lucratif avertissant du risque d’extinction de l’IA si la technologie n’est pas correctement réglementée.

Dans un article de blog en mars, Gates a écrit: «Les IA doivent être testées très soigneusement et correctement réglementées», faisant référence aux applications d’IA dans des domaines à fort impact comme les soins de santé, «ce qui signifie qu’il faudra plus de temps pour qu’elles soient adoptées que dans autres endroits.”

Dans le long message, Gates a déclaré que l’IA est la technologie la plus révolutionnaire qu’il ait vue depuis les percées des ordinateurs personnels dans les années 1980.



to observer.com


Abonnez-vous à notre page Facebook: https://www.facebook.com/mycamer.net
Pour recevoir l’actualité sur vos téléphones à partir de l’application Telegram cliquez ici: https://t.me/+KMdLTc0qS6ZkMGI0
Nous ecrire par Whatsapp : Whatsapp +44 7476844931