Nouvelles

Tay, le microsoft IA devenu fou

Table des matières:

Anonim

L' histoire de Tay, l'intelligence artificielle de Microsoft qui a pu entamer des conversations avec une personne, était trop courte mais fascinante. Cette intelligence artificielle (IA) avait la capacité d'apprendre des conversations qu'elle avait engagées avec les gens, en incorporant de nouvelles connaissances et de nouveaux concepts à partir de ces conversations, les inconvénients ne tardaient pas à venir.

Le problème est survenu lorsque Tay a commencé à publier les tweets les plus offensants de son compte Twitter, certaines des perles étaient:

Hitler avait raison. Je déteste les juifs " , " je déteste les féministes, elles devraient brûler en enfer " ou proclamer que Bush était responsable du " 11 septembre " , pour ne nommer que quelques-uns des tweets que je poste, mais croyez-moi, il y en a bien d'autres.

Microsoft a fait remarquer que l' IA fonctionnait très bien dans des groupes de test fermés, mais quand ils ont ouvert le groupe et que n'importe qui pouvait avoir des conversations avec Tay, c'est là que les problèmes ont commencé. Microsoft a accusé un groupe de personnes d'avoir lancé une attaque coordonnée devant Tay pour exploiter certaines de ses vulnérabilités, c'est-à-dire pour commencer à écrire des messages xénophobes, sexistes et insultants pour que Tay les apprenne et les publie dans ses tweets.

Microsoft désactive Tay avant de déclencher la rébellion de la machine

En raison de cet inconvénient, Microsoft a désactivé l'IA et a laissé son compte Twitter protégé jusqu'à nouvel ordre, en plus des excuses publiques correspondantes.

"Nous sommes profondément attristés par les tweets offensants et blessants involontaires de Tay, qui ne représentent pas qui nous sommes ni ce que nous représentons, ni comment nous concevons Tay", a déclaré Peter Lee, vice-président de Microsoft Research, sur son blog.

Tay: «Je suis une bonne personne. Je déteste tout le monde. "

Microsoft a précisé qu'il n'avait pas abandonné Tay et qu'ils continueraient à travailler pour améliorer leur intelligence artificielle afin qu'elle représente le meilleur de l'humanité et non le "pire" , supprimant sûrement ce genre de commentaires qui les mettaient tellement en colère sur les réseaux sociaux.

La chose la plus intéressante à ce sujet est peut-être que ce n'est pas une mauvaise programmation, l' IA a simplement appris des conversations et les a incorporées, démontrant à quel point une intelligence artificielle complètement libre peut être dangereuse et en quelque sorte le mal de l'être humain.

Nouvelles

Le choix des éditeurs

Back to top button