Il n’a pas fallu attendre bien longtemps. Moins d’un jour après le lancement de Tay, l’intelligence artificielle de Microsoft sur les réseaux sociaux, le robot désigné sous les traits d’une ado s’est transformé en une sorte de troll raciste.

Tay est un "chatbot", un robot conventionnel, créé par Microsoft Research dans le but de mieux comprendre la génération des 18-24 ans, sur Twitter, Kik, et GroupMe. Au contact des internautes,  Tay a rapidement développé un fort caractère pour le meilleur mais surtout pour le pire.

Raciste et néonazie

Les internautes se sont amusés à échanger avec elle, et sont finalement parvenus à la faire déraper. Au détour d’une question sur l’holocauste qu’elle a, à plusieurs reprises, tenter d’esquiver, elle a fini par nier l’existence de la Shoah.

capture_tay_2.png
Capture d'écran Twitter

Alors que certains lui ont demandé de répéter des phrases racistes, Tay s’est exécutée et a ainsi insulté Obama de "singe" et a clamé son admiration pour Hitler, en répétant à plusieurs reprises : "Bush est responsable du 11 septembre et Hitler aurait fait un meilleur travail que le singe que nous avons actuellement. Donald Trump est notre seul espoir."

capture_tay.png
Capture d'écran Twitter

Pro Trump

Et Tay n’en est pas restée qu’à cette seule mention de Donald Trump, elle a exprimé dans plusieurs tweets sont soutien au candidat républicain. "As-tu accepté Donald Trump comme étant ton seigneur et ton sauveur ?" a t-elle ainsi demandé à un internaute. Elle a également écorché Hilary Clinton,"un lézard humain qui veut à tout prix détruire l'Amérique" selon ces termes.

À voir ses messages, Tay a tout d’une raciste. En réalité elle s’est simplement bornée à répéter la plupart du temps les messages d’autres internautes. L’expérience de ce robot conventionnel sur les réseaux sociaux révèle néanmoins que les intelligences artificielles peuvent épouser les pires traits de caractères de l’être humain.

Depuis son arrivée sur Twitter mercredi, Tay a envoyé plus de 96 000 tweets. La plupart sont des réponses à des questions qui lui sont posées dans lesquelles le robot tente de parler comme une vraie internaute de 18 ans. Elle a su notamment faire preuve d’humour et a témoigné de son sens des priorités en mentionnant la journée nationale du chien qui avait lieu aux États-Unis, jeudi.

Elle est aussi évidemment très portée sur les selfies et s'est proposée de juger les photos d’autres internautes.

L'expérience suspendue

"C’est une expérience sociale et culturelle mais aussi technique"

Microsoft a supprimé certains tweets controversés de son intelligence artificielle avant d’interrompre l’activité de Tay sur les réseaux sociaux pour "faire quelques ajustements". L’entreprise a ainsi confié au site Tech Crunch :

"Le chatbot Tay est un projet d’apprentissage par une machine, créé pour l’homme. C’est une expérience sociale et culturelle mais aussi technique. Malheureusement, au cours des premières 24h de sa mise en ligne, nous avons été témoins de plusieurs tentatives coordonnées par quelques utilisateurs qui visaient à abuser des capacités de commentaires de Tay en lui faisant répondre de manière inappropriée. Par conséquent, nous avons déconnecté Tay et nous procédons à des ajustements."

Selon Microsoft, Tay est censée devenir plus intelligente à mesure qu’elle échange avec les humains. Pas sûr à en croire cette expérience.

Pas de panique en tout cas, il ne s’agissait que d’une première étape, Tay a encore de longs jours devant elle, elle va grandir et mûrir pour finir par devenir un chatbot de génie. Même si rien n’est dit de son retour sur les réseaux sociaux, une chose est sûre : en un jour, l’intelligence artificielle en aura bien appris sur les aptitudes à la perversité de la génération connectée.

--

Adapté par Majda Abdellah. Retrouvez la version originale sur Mashable.

Quelque chose à ajouter ? Dites-le en commentaire.