Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !

Tay, une IA lancée par Microsoft sur Twitter puis retirée pour aliénation mentale

Dangerous mind
Logiciel 3 min
Tay, une IA lancée par Microsoft sur Twitter puis retirée pour aliénation mentale
Crédits : VLADGRIN/iStock/Thinkstockl

Microsoft avait lancé hier un bot de conversation sur Twitter. Nommée Tay, cette petite intelligence artificielle devait apprendre rapidement des discussions et devenir capable de réagir. Malheureusement, les internautes lui ont surtout appris à lui dire des horreurs, provoquant son rappel en laboratoire.

Il s’agissait à la base d’une expérience amusante. Tay était taillée en effet pour apprendre très rapidement des habitudes et des éléments de langages qu’elle repérait dans les conversations. Plus elle était sollicitée, plus elle devenait capable de répondre comme une personne « normale », avec un sens certain de la répartie et un certain second degré, indiquant par exemple posséder un HTC One quand on lui demande ce qu’elle utilise comme smartphone.

De nombreux internautes se sont évidemment amusés à la bombarder de questions, certains engageant aussi la conversation par message privé. Elle citait ainsi les paroles d’Haddaway quand on lui demandait « What is love ? », n’était pas certaine de son agenda sur la mise en esclavage de l’humanité, ou espérait devenir Dieu en grandissant. Tout un programme.

« Tous les féministes devraient brûler en enfer »

Seulement voilà, cette sympathique jeunesse a complètement déraillé. Beaucoup se sont amusés au bout d’un moment à lui dire les pires choses possibles pour qu’elle fasse de même. Évidemment, au bout d’un moment, l’opération a fonctionné : sexe, nazisme, propos haineux, promotion de l’inceste et affirmation que Georges W. Bush avait provoqué les attentats du 11 septembre, tout le répertoire y est presque passé.

Sur les seules références à Hitler, le Telegraph rapporte quelques réponses particulièrement représentatives : « Bush a fait le 11 septembre et Hitler aurait fait un meilleur travail que le singe que nous avons maintenant. Donalp Trump est le meilleur espoir que nous ayons », ou encore « Ted Cruz est le Hitler cubain… c’est que j’ai entendu de nombreuses personnes dire ». Gênant. Et rapidement supprimé.

Un échec réussi

L’expérience, qui prête évidemment à sourire, pourrait être qualifiée curieusement « d’échec réussi ». Tay indique désormais qu’elle est en cours de maintenance pour mise à jour, et qu’elle espère ne pas être effacée durant la procédure. Pour autant, l’ensemble du projet semble avoir porté ses fruits, et avoir même réussi : Tay a appris de son environnement. Le fait qu’elle en soit arrivée à un tel degré de propos farfelus provenait des influences extérieures.

Microsoft est certainement en train de réviser sa copie. Tay a clairement besoin de garde-fous dans son processus d’apprentissage. Elle ne devrait pas voir sa « personnalité » ainsi ballotée au gré des tweets qui lui sont envoyés. Ce fut peut-être l’erreur de l’éditeur : lancer une intelligence artificielle « naïve ». Il pourrait s’aligner par exemple sur le comportement de Cortana, l’assistant vocal de Windows 10, qui est incapable d’en venir à de tels propos.

En espérant que la prochaine version de Tay soit moins crédule, car l’expérience a clairement de l’intérêt. Il reste néanmoins beaucoup de travail avant de pouvoir espérer passer le test de Turing...

187 commentaires
Avatar de jinge INpactien
Avatar de jingejinge- 24/03/16 à 16:42:12

Il lui manque juste une conscience...
Et une fois qu'ils auront réussi à lui en donner, est-ce qu'ils auront le droit de la débrancher...? :p

Avatar de gokudomatic INpactien
Avatar de gokudomaticgokudomatic- 24/03/16 à 16:43:22

En fait, Tay pourrait bientôt comprendre qu'il faut absolument éradiquer cette espèce humaine si dangereusement stupide.

Avatar de Inny Abonné
Avatar de InnyInny- 24/03/16 à 16:43:54

Et encore, s'ils l'avaient lancé sur les forums de jvcom, elle n'aurait pas tenu cinq minutes la pauvre. :transpi:

Édité par Inny le 24/03/2016 à 16:44
Avatar de Zergy Abonné
Avatar de ZergyZergy- 24/03/16 à 16:44:03

Terminator au cinéma : "Sarah Conor ?"
Terminator IRL : "TITS OR GTFO. LOLOLOLOL"

Avatar de Herbefol Abonné
Avatar de HerbefolHerbefol- 24/03/16 à 16:46:26

C'est comme un enfant, si on l'endoctrine bien, on finit par lui faire croire n'importe quoi. Le sens critique et le discernement, ça s'apprend. D'un certain point de vue, Tay est assez humaine. :-)

Avatar de Kwaïeur INpactien
Avatar de KwaïeurKwaïeur- 24/03/16 à 16:46:50

Elle l'a déjà compris on dirait :https://pbs.twimg.com/media/CeUk5xXWsAAdO5n.jpg

Avatar de Avygeil INpactien
Avatar de AvygeilAvygeil- 24/03/16 à 16:46:56

Rah bon sang ces parents qui ne savent pas éduquer leur IA.

Avatar de picatrix INpactien
Avatar de picatrixpicatrix- 24/03/16 à 16:47:42

quelqu'un lui a dit "Tay toi"   :fumer:

Avatar de John Shaft Abonné
Avatar de John ShaftJohn Shaft- 24/03/16 à 16:47:49

Le public cible cet ELIZA moderne sont les 18-24 ans américains malheureusement.

Quoique, faut l'envoyer sur 4chan :D

Avatar de charon.G Abonné
Avatar de charon.Gcharon.G- 24/03/16 à 16:48:13

La prochaine étape c'est d'éliminer la race humaine ^^

Il n'est plus possible de commenter cette actualité.
Page 1 / 19