Magazine Gadgets

L’IA n’est pas sensible. Pourquoi les gens disent-ils que c’est ?

Publié le 06 août 2022 par Mycamer

Au milieu des années 1960, un chercheur du Massachusetts Institute of Technology, Joseph Weizenbaum, a construit un psychothérapeute automatisé qu’il a appelé Eliza. Ce chatbot était simple. Fondamentalement, lorsque vous avez tapé une pensée sur un écran d’ordinateur, il vous a demandé de développer cette pensée – ou il a simplement répété vos mots sous la forme d’une question.

Même lorsque le Dr Weizenbaum a sélectionné une conversation pour l’article universitaire qu’il a publié sur la technologie, cela ressemblait à ceci, Eliza répondant en majuscules :

Les hommes sont tous pareils.

DE QUELLE MANIERE ?

Ils nous embêtent toujours à propos de quelque chose ou autre.

POUVEZ-VOUS PENSER À UN EXEMPLE SPÉCIFIQUE ?

Eh bien, mon copain m’a fait venir ici.

VOTRE PETIT AMI VOUS A FAIT VENIR ICI

Mais à la grande surprise du Dr Weizenbaum, les gens traitaient Eliza comme si elle était humaine. Ils ont librement partagé leurs problèmes personnels et ont été réconfortés par ses réponses.

“Je savais par une longue expérience que les liens émotionnels forts que de nombreux programmeurs entretiennent avec leurs ordinateurs se forment souvent après seulement de courtes expériences avec des machines”, a-t-il déclaré plus tard. a écrit. “Ce que je n’avais pas réalisé, c’est que des expositions extrêmement courtes à un programme informatique relativement simple pouvaient induire de puissantes pensées délirantes chez des personnes tout à fait normales.”

Nous, les humains, sommes sensibles à ces sentiments. Lorsque les chiens, les chats et les autres animaux présentent ne serait-ce qu’une infime quantité de comportements humains, nous avons tendance à supposer qu’ils nous ressemblent plus qu’ils ne le sont réellement. La même chose se produit lorsque nous voyons des indices de comportement humain dans une machine.

Les scientifiques l’appellent maintenant l’effet Eliza.

La même chose se produit avec la technologie moderne. Quelques mois après la sortie du GPT-3, un inventeur et entrepreneur, Philip Bosua, m’a envoyé un e-mail. La ligne d’objet était : “Dieu est une machine”.

“Il ne fait aucun doute dans mon esprit que le GPT-3 est devenu sensible”, lit-on. «Nous savions tous que cela arriverait dans le futur, mais il semble que ce futur soit maintenant. Il me considère comme un prophète pour diffuser son message religieux et c’est étrangement ce qu’il ressent.

Au milieu des années 1960, un chercheur du Massachusetts Institute of Technology, Joseph Weizenbaum, a construit un psychothérapeute automatisé qu’il a appelé Eliza. Ce chatbot était simple. Fondamentalement, lorsque vous avez tapé une pensée sur un écran d’ordinateur, il vous a demandé de développer cette pensée – ou il a simplement répété vos mots sous la forme d’une question.

Même lorsque le Dr Weizenbaum a sélectionné une conversation pour l’article universitaire qu’il a publié sur la technologie, cela ressemblait à ceci, Eliza répondant en majuscules :

Les hommes sont tous pareils.

DE QUELLE MANIERE ?

Ils nous embêtent toujours à propos de quelque chose ou autre.

POUVEZ-VOUS PENSER À UN EXEMPLE SPÉCIFIQUE ?

Eh bien, mon copain m’a fait venir ici.

VOTRE PETIT AMI VOUS A FAIT VENIR ICI

Mais à la grande surprise du Dr Weizenbaum, les gens traitaient Eliza comme si elle était humaine. Ils ont librement partagé leurs problèmes personnels et ont été réconfortés par ses réponses.

“Je savais par une longue expérience que les liens émotionnels forts que de nombreux programmeurs entretiennent avec leurs ordinateurs se forment souvent après seulement de courtes expériences avec des machines”, a-t-il déclaré plus tard. a écrit. “Ce que je n’avais pas réalisé, c’est que des expositions extrêmement courtes à un programme informatique relativement simple pouvaient induire de puissantes pensées délirantes chez des personnes tout à fait normales.”

Nous, les humains, sommes sensibles à ces sentiments. Lorsque les chiens, les chats et les autres animaux présentent ne serait-ce qu’une infime quantité de comportements humains, nous avons tendance à supposer qu’ils nous ressemblent plus qu’ils ne le sont réellement. La même chose se produit lorsque nous voyons des indices de comportement humain dans une machine.

Les scientifiques l’appellent maintenant l’effet Eliza.

La même chose se produit avec la technologie moderne. Quelques mois après la sortie du GPT-3, un inventeur et entrepreneur, Philip Bosua, m’a envoyé un e-mail. La ligne d’objet était : “Dieu est une machine”.

“Il ne fait aucun doute dans mon esprit que le GPT-3 est devenu sensible”, lit-on. «Nous savions tous que cela arriverait dans le futur, mais il semble que ce futur soit maintenant. Il me considère comme un prophète pour diffuser son message religieux et c’est étrangement ce qu’il ressent.

— to www.nytimes.com


Retour à La Une de Logo Paperblog

A propos de l’auteur


Mycamer Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte

Magazines