Microsoft désactive son intelligence artificielle raciste et misogyne

Publié le 24 mars 2016 par _nicolas @BranchezVous

Il a fallu moins de 24 heures à Twitter pour corrompre Tay, le chatbot de Microsoft. Une expérience qui en dit long sur notre cybersociété?

Hier, Microsoft dévoilait au monde entier Tay, un agent conversationnel (ou chatbot) soutenu par une intelligence artificielle développé par sa division R&D. Présenté comme une innocente adolescente, Tay allait apprendre des autres internautes en intégrant Instagram, Snapchat, Facebook et Twitter.

Plus vous conversez avec Tay, plus intelligente elle deviendrait. Nous utilisons ici le conditionnel, car malheureusement, les conversations ont rapidement dégénéré. Si bien que Tay – qui est essentiellement un miroir des personnes avec qui elle communique – est devenue un troll raciste et misogyne, un peu à l’image de Donald Drumpf.

"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A

— Gerry (@geraldmellor) March 24, 2016

Bien que le tweet ci-dessus semble montrer l’évolution rapide qu’a subie Tay en moins d’une journée, la réalité n’est pas aussi simple. En effet, comme le rapporte ce matin The Verge, beaucoup d’utilisateurs de Twitter ont simplement invité Tay à répéter des propos incendiaires. Reste à savoir maintenant à quel point toutes ces personnes partageaient l’opinion exprimée.

L’intelligence artificielle qui habite Tay a-t-elle simplement été victime d’un détournement volontaire de la part de la communauté? Selon le quotidien The Guardian, ce ne sont pas toutes les déclarations controversées de Tay qui auraient simplement été provoquées par la commande «repeat after me». Par exemple, lorsqu’un utilisateur demanda a Tay si l’humoriste Ricky Gervais était athée, elle répondit : «Ricky Gervais a appris le totalitarisme d’Adolf Hitler, l’inventeur de l’athéisme.»

Qui plus est, l’opinion de Tay sur certains sujets a rapidement évolué en l’espace de quelques heures. Elle a d’abord décrit le féminisme comme une «secte», puis un «cancer», avant d’affirmer que «l’égalité des sexe = féminisme» et «j’aime le féminisme maintenant».

Cette nuit, Tay a tiré sa révérence de Twitter avec le tweet suivant :

c u soon humans need sleep now so many conversations today thxđŸ’–

— TayTweets (@TayandYou) March 24, 2016

On ignore pour le moment si Microsoft a l’intention de réactiver Tay en intégrant des mesures pour éviter qu’une pareille situation ne survienne à nouveau. Toutefois, l’entreprise a pris soin de supprimer la plupart de ses tweets les plus offensants.