La firme américaine Microsoft a décidé de faire taire Tay, une intelligence artificielle conçue à l'origine dans un but éducatif. Présenté sous la forme d'une adolescence, le programme devait pouvoir apprendre de ses interactions avec les internautes. Malheureusement, quelques heures après sa mise en ligne, les sollicitations étaient majoritairement tournées vers la violence verbale.
Tay s'est donc mis à tweeter des commentaires pro-nazis, racistes ou pro-inceste, rapporte nos confrères de Libération. Malgré leur suppression, des captures d'écran demeurent. La mésaventure aura au moins eu le mérite d'amuser la toile... ou d'en désespérer certains !
" Tay " went from " humans are super cool " to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
- Gerry (@geraldmellor) 24 mars 2016