Tay, une IA lancée par Microsoft sur Twitter puis retirée pour aliénation mentale

Tay, une IA lancée par Microsoft sur Twitter puis retirée pour aliénation mentale

Dangerous mind

Avatar de l'auteur
Vincent Hermann

Publié dans

Logiciel

24/03/2016 2 minutes
187

Tay, une IA lancée par Microsoft sur Twitter puis retirée pour aliénation mentale

Microsoft avait lancé hier un bot de conversation sur Twitter. Nommée Tay, cette petite intelligence artificielle devait apprendre rapidement des discussions et devenir capable de réagir. Malheureusement, les internautes lui ont surtout appris à lui dire des horreurs, provoquant son rappel en laboratoire.

Il s’agissait à la base d’une expérience amusante. Tay était taillée en effet pour apprendre très rapidement des habitudes et des éléments de langages qu’elle repérait dans les conversations. Plus elle était sollicitée, plus elle devenait capable de répondre comme une personne « normale », avec un sens certain de la répartie et un certain second degré, indiquant par exemple posséder un HTC One quand on lui demande ce qu’elle utilise comme smartphone.

De nombreux internautes se sont évidemment amusés à la bombarder de questions, certains engageant aussi la conversation par message privé. Elle citait ainsi les paroles d’Haddaway quand on lui demandait « What is love ? », n’était pas certaine de son agenda sur la mise en esclavage de l’humanité, ou espérait devenir Dieu en grandissant. Tout un programme.

« Tous les féministes devraient brûler en enfer »

Seulement voilà, cette sympathique jeunesse a complètement déraillé. Beaucoup se sont amusés au bout d’un moment à lui dire les pires choses possibles pour qu’elle fasse de même. Évidemment, au bout d’un moment, l’opération a fonctionné : sexe, nazisme, propos haineux, promotion de l’inceste et affirmation que Georges W. Bush avait provoqué les attentats du 11 septembre, tout le répertoire y est presque passé.

Sur les seules références à Hitler, le Telegraph rapporte quelques réponses particulièrement représentatives : « Bush a fait le 11 septembre et Hitler aurait fait un meilleur travail que le singe que nous avons maintenant. Donalp Trump est le meilleur espoir que nous ayons », ou encore « Ted Cruz est le Hitler cubain… c’est que j’ai entendu de nombreuses personnes dire ». Gênant. Et rapidement supprimé.

Un échec réussi

L’expérience, qui prête évidemment à sourire, pourrait être qualifiée curieusement « d’échec réussi ». Tay indique désormais qu’elle est en cours de maintenance pour mise à jour, et qu’elle espère ne pas être effacée durant la procédure. Pour autant, l’ensemble du projet semble avoir porté ses fruits, et avoir même réussi : Tay a appris de son environnement. Le fait qu’elle en soit arrivée à un tel degré de propos farfelus provenait des influences extérieures.

Microsoft est certainement en train de réviser sa copie. Tay a clairement besoin de garde-fous dans son processus d’apprentissage. Elle ne devrait pas voir sa « personnalité » ainsi ballotée au gré des tweets qui lui sont envoyés. Ce fut peut-être l’erreur de l’éditeur : lancer une intelligence artificielle « naïve ». Il pourrait s’aligner par exemple sur le comportement de Cortana, l’assistant vocal de Windows 10, qui est incapable d’en venir à de tels propos.

En espérant que la prochaine version de Tay soit moins crédule, car l’expérience a clairement de l’intérêt. Il reste néanmoins beaucoup de travail avant de pouvoir espérer passer le test de Turing...

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

« Tous les féministes devraient brûler en enfer »

Un échec réussi

Commentaires (187)


Il lui manque juste une conscience…

Et une fois qu’ils auront réussi à lui en donner, est-ce qu’ils auront le droit de la débrancher…? :p


En fait, Tay pourrait bientôt comprendre qu’il faut absolument éradiquer cette espèce humaine si dangereusement stupide.


Et encore, s’ils l’avaient lancé sur les forums de jvcom, elle n’aurait pas tenu cinq minutes la pauvre. <img data-src=" />


Terminator au cinéma : “Sarah Conor ?”

Terminator IRL : “TITS OR GTFO. LOLOLOLOL”


C’est comme un enfant, si on l’endoctrine bien, on finit par lui faire croire n’importe quoi. Le sens critique et le discernement, ça s’apprend. D’un certain point de vue, Tay est assez humaine. :-)


Elle l’a déjà compris on dirait :https://pbs.twimg.com/media/CeUk5xXWsAAdO5n.jpg


Rah bon sang ces parents qui ne savent pas éduquer leur IA.


quelqu’un lui a dit “Tay toi”&nbsp;&nbsp; <img data-src=" />


Le public cible cet ELIZA moderne sont les 18-24 ans américains malheureusement.



Quoique, faut l’envoyer sur 4chan <img data-src=" />


La prochaine étape c’est d’éliminer la race humaine ^^


En attendant, j’imagine déjà le même programme en France et les ‘débats’ politiques derrière pour fliquer encore plus les internautes pour choper les petits plaisantins <img data-src=" />








charon.G a écrit :



La prochaine étape c’est d’éliminer la race humaine ^^





Sophia, une autre IA, a déjà annoncé approuver ce plan. Décidément, les IA sont plutôt perfectionnables. <img data-src=" />

This was a triumph… I’m putting a note here: huge success. <img data-src=" />



Ahah le beau test de Turing !


créer une “intelligence artificielle” qui apprend des conversations humaines… qui plus est sur Twitter ! c’est se tirer une balle dans le pied non ?

C’est un peu comme concevoir un drone aérien autonome en s’inspirant des capacités de vol de mon lapin nain. <img data-src=" />


Tu ne fais pas d’intelligence artificielle, sans ajouter un peu de “connerie humaine” <img data-src=" />


mais au moins elles vont dans la bonne direct …



I used to want you dead … no I just want you gone <img data-src=" />








atomusk a écrit :



Tu ne fais pas d’intelligence artificielle, sans ajouter un peu de “connerie humaine” <img data-src=" />





Visiblement c’est pas qu’“un peu” ! <img data-src=" />



sauf que là, ce seront ceux qui parlent avec Tay qui échoueront le test. Tous, sans exception.


Il lui manque du savoir et une morale pour pouvoir argumenter. là l’IA se contente bêtement de répéter les requêtes les plus souvent citées …


Pas mal pour une première. Ça m’a bien fait rire. Tout ça pour faire du buzz et de montrer que crosoft est cool.



Ça doit être sympa d’avoir un distributeur de point Godwin.


Le truc derrière, c’est juste qu’elle as une fonction “ repeate after me” du coup n’importe qui peu lui faire dire ce qu’il veux.. Ok erreur de microsoft d’avoir laissé cette feature, mais pas besoin d’en faire tt un foin depuis ce matin tout autour du web…








le duc rouge a écrit :



Il lui manque du savoir et une morale pour pouvoir argumenter. là l’IA se contente bêtement de répéter les requêtes les plus souvent citées …





ça va être rigolo de voir la réaction des croyants lorsqu’ils verront qu’une intelligence artificielle incapable de croire en dieu développe une morale.



perso je sauvegarderai l’instance pour le fun :p … je me sens pas bien aujourd’hui … ton avis Tay ?



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />



Merci Tay


Beaucoup de travail pour éviter le syndrome de la tourette surtout..


sont pas les seul, je te rappelle que google avec son moteur de recherche on peut arriver a trouver des resultats totalement orientée (google bombing)


Conclusion de l’expérience : une IA peut apprendre en discutant avec des humains. Le problème, c’est si les humains à qui elle parle sont essentiellement des trolls…


<img data-src=" />


Bah ils l’ont poussée au Godwin comme pour un blair ordinaire.


En conclusion une IA exposé au guignol du coin en devient un.&nbsp;


Expérience très intéressante, aussi bien du point de vue de l’IA que du point de vue social, le comportement des utilisateurs autour de Tay devrait peut-être faire lui aussi l’objet d’une étude :p








Haseo a écrit :



Expérience très intéressante, aussi bien du point de vue de l’IA que du point de vue social, le comportement des utilisateurs autour de Tay devrait peut-être faire lui aussi l’objet d’une étude :p





Sauf qu’on connait déjà la con’clusion.



Qualifier Tay de pur d’échec reviendrai à dire que les nazis, les racistes, anti-féministes, complotistes, etc… sont des intelligences non artificielles ratées <img data-src=" />



L’éducation peut faire que les sentiments attrayants à la nature humaine comme l’empathie peuvent également ne pas être ressentis par les humains. Donc, c’est plutôt une bonne expérience, et montre que le processus d’apprentissage fonctionne.


Tay, l’origine réelle des Daleks. <img data-src=" />



Exterminate ! Exterminate !



Plus sérieusement c’est super INtéressant comme idée et très dans l’air du temps de pousser le concept d’apprentissage par la machine elle-même. En fait il faudrait d’abord lui apporter des références fondamentales comme le bien ou le mal, sinon effectivement on constate qu’elle a fini embrigadée par les idées volontairement extrêmes des tweetos.








le duc rouge a écrit :



Il lui manque du savoir et une morale pour pouvoir argumenter. là l’IA se contente bêtement de répéter les requêtes les plus souvent citées …





Et qui apporte le savoir à l’homme ?









clemsfr a écrit :



Et qui apporte le savoir à l’homme ?





l’homme lui-même.









gokudomatic a écrit :



l’homme lui-même.





non d’un point de vue symbolique ou mythologique…&nbsp;



Aussi, le fait qu’on soit tenté de le classer comme échec fait également s’interroger sur ce que l’on attend d’une IA. Le même niveau de conscience qu’un humain ? La même morale/éthique/valeur ? Où et comment placer le curseur entre pure intelligence et respect de normes humaines, tout en sachant que certains humains peuvent avoir des normes différentes, et les transgresser au nom d’autres normes ou désirs ?


Alan Turing (avec un seul r). Je ne relève pas les fautes d’habitude mais là, c’est un peu un crime pour mes yeux.



Il a été un des mathématiciens ayant vaincu les nazis, il a jeté les bases de l’informatique. On lui doit au moins de ne pas se tromper dans son nom.



<img data-src=" />


Légèrement influençable…


En tout cas cette IA a plus de repartie que certaines femmes, la même en version robotisé et je me marie avec <img data-src=" />


excellent :)








gokudomatic a écrit :



ça va être rigolo de voir la réaction des croyants lorsqu’ils verront qu’une intelligence artificielle incapable de croire en dieu développe une morale.





&nbsp;

La morale est une oeuvre de qui ? La pudeur c’est un élément moral, tu es d’accord ? Qui fait découvrir la pudeur à l’homme ?









clemsfr a écrit :



La morale est une oeuvre de qui ? La pudeur c’est un élément moral, tu es d’accord ? Qui fait découvrir la pudeur à l’homme ?





L’homme, en inventant des religions.



Perso, je dirai que la pudeur est sûrement à la base un moyen de mieux canaliser les pulsions sexuelles, et de se concentrer sur autre chose.



L’homme, tant d’un point de vu symbolique que mythologique que théologique que réalistique que tout ce que tu veux. C’est homme qui apprend par lui-même et enseigne à ses descendants. Aucune place pour une fée invisible du ciel là-dedans.








ActionFighter a écrit :



L’homme, en inventant des religions.



Perso, je dirai que la pudeur est sûrement à la base un moyen de mieux canaliser les pulsions sexuelles, et de se concentrer sur autre chose.







lol… Je ne vous demande pas d’etre cartésien. &nbsp;D’un point mythologique, l’homme reçoit la connaissance soit via la boite de pandore soit via l’arbre de la connaissance. L’arbre de la connaissance, c’est le fruit défendu. Tenté par le serpent (symbole de la guérison et de la médecine) l’homme absorbe la connaissance et découvre avec stupeur sa nudité. Il découvre immédiatement la pudeur et se couvre de vêtement.



Ceci étant dit, pour qu’une machine atteigne la connaissance, il lui faut braver les “interdits”. La morale appartient à un champ de connaissance qu’elle ne possède pas car on la programme uniquement pour certaines taches. &nbsp;Bref une machine qui désobéira à l’homme (son créateur) pourra etre qualifié d’intelligente.



Reste à savoir qui &nbsp;fera le serpent.









clemsfr a écrit :



lol… Je ne vous demande pas d’etre cartésien.  D’un point mythologique, l’homme reçoit la connaissance soit via la boite de pandore soit via l’arbre de la connaissance. L’arbre de la connaissance, c’est le fruit défendu. Tenté par le serpent (symbole de la guérison et de la médecine) l’homme absorbe la connaissance et découvre avec stupeur sa nudité. Il découvre immédiatement la pudeur et se couvre de vêtement.



Ceci étant dit, pour qu’une machine atteigne la connaissance, il lui faut braver les “interdits”. La morale appartient à un champ de connaissance qu’elle ne possède pas car on la programme uniquement pour certaines taches.  Bref une machine qui désobéira à l’homme (son créateur) pourra etre qualifié d’intelligente.



Reste à savoir qui  fera le serpent.





Ok, je ne pensais pas que tu voulais en venir là, mais je suis entièrement d’accord <img data-src=" />

Ça rejoint le questionnement que j’évoquais plus haut sur les normes humaines et leur transgression.









Folgore a écrit :



En tout cas cette IA a plus de repartie que certaines femmes, la même en version robotisé et je me marie avec <img data-src=" />





il suffit de demander&nbsp;<img data-src=" />









picatrix a écrit :



il suffit de demander <img data-src=" />





y a pas le modèle robita<img data-src=" />









gokudomatic a écrit :



L’homme, tant d’un point de vu symbolique que mythologique que théologique que réalistique que tout ce que tu veux. C’est homme qui apprend par lui-même et enseigne à ses descendants. Aucune place pour une fée invisible du ciel là-dedans.





Si l’on part du principe que c’est l’intelligence humaine qui a engendré la religion, on pourrait tout à fait voir apparaître dans une IA des “fées invisibles”.

Si on l’a place dans un référentiel moral standard, du genre régie par les loi d’Asimov, elle pourrait très bien inventer des histoires si elle se rend compte que la crédulité est un moyen de faire respecter les lois. Ce serait même un très gros signe d’intelligence, et une terrible perspective pour l’humain si elle y réussit.



Le sujet a d’ailleurs été traité par Asimov.





Ok, je ne pensais pas que tu voulais en venir là, mais je suis entièrement d’accord <img data-src=" />

Ça rejoint le questionnement que j’évoquais plus haut sur les normes humaines et leur transgression.&nbsp;



Nous voulons les transmettre car nous sentons bien que d’une certaine façon c’est la seule chance de survie de l’humanité.



C’est amusant, nous voulons créer une IA qui soit à notre image, une forme d’anthropomorphisme version créateur.








le duc rouge a écrit :



Il lui manque du savoir et une morale pour pouvoir argumenter. là l’IA se contente bêtement de répéter les requêtes les plus souvent citées …







Pour la création d’une “morale”, c’est laquelle qu’il faut lui inculquer ? Celle que notre société juge politiquement correcte ou celle qu’elle va se forger par rapport à son savoir, ses expériences, et les interactions qu’elle développera ?



Tout étant une question de repère, c’est là où on verra s’il s’agit de vraie intelligence qui saura aller à l’encontre des principes qu’on lui a inculqué (“on m’a appris que tuer des chatons c’est pas bien, mais je kiffe de le faire”), ou s’il s’agit juste d’un robot programmé pour faire ce qu’on lui dit et penser ce qu’on lui demande de penser.



Un truc à tenter pour une IA : lui faire lire une encyclopédie et/ou des livres d’histoires… Et voir ce que ca donne à la sortie.


Belle leçon que nous donne Microsoft : intelligente et pleine de bon sens, la femme parfaite est artificielle.








clemsfr a écrit :



Nous voulons les transmettre car nous sentons bien que d’une certaine façon c’est la seule chance de survie de l’humanité.



C’est amusant, nous voulons créer une IA qui soit à notre image, une forme d’anthropomorphisme version créateur.





C’est la peur de l’émancipation en effet <img data-src=" />



Je trouve que l’expérience, même si courte est une réussite.



Tay a bien appris des autres twittos.

La question aurait été d’analyser la cohérence de tous ces tweets si une vrai pensée (point de vu) se dégageait de tout cela.



On ne peut nier que l’IA ultime ressemblera à la société de laquelle elle apprend (d’ailleurs les profils des twittos avec lesquels elle a interagi serait aussi intéressant).

D’un sens, c’est une sorte de reflet de notre monde actuel…








CryoGen a écrit :



Un truc à tenter pour une IA : lui faire lire une encyclopédie et/ou des livres d’histoires… Et voir ce que ca donne à la sortie.







Skynet.



Je sais pas comment tu trouves des sites pareils, j’ai du me mettre en vpn russe pour le voir, erreur 403 sinon depuis free.


Et sinon, je crois qu’on peut en conclure qu’Internet est un moyen de radicalisation.








CryoGen a écrit :



Un truc à tenter pour une IA : lui faire lire une encyclopédie et/ou des livres d’histoires… Et voir ce que ca donne à la sortie.





Leelou n’avait pas trop apprécié le voyage…



D’ailleurs, c’est pas notre gouvernement qui essaie justement de faire tomber internet? Ils savaient donc ce qu’ils faisaient.








barlav a écrit :



Je sais pas comment tu trouves des sites pareils, j’ai du me mettre en vpn russe pour le voir, erreur 403 sinon depuis free.





C’est le signe que X. Niel prépare une nouvelle freebox ultra révolutionnaire où on ne pluggera pas que clés usb.









ActionFighter a écrit :



L’homme, en inventant des religions.



Perso, je dirai que la pudeur est sûrement à la base un moyen de mieux canaliser les pulsions sexuelles, et de se concentrer sur autre chose.





N’importe quoi, la pudeur est une excuse pour ne pas utiliser les moyens nécessaires au combat contre les terroristes. <img data-src=" />



L’IA qui apprend à troller quoi.



L’expérience à plutôt bien marché…<img data-src=" /><img data-src=" />








TaigaIV a écrit :



N’importe quoi, la pudeur est une excuse pour ne pas utiliser les moyens nécessaires au combat contre les terroristes. <img data-src=" />





La pudeur serait laxiste ? C’est vrai qu’on ne voit jamais de ministre de la justice à poil.







gokudomatic a écrit :



D’ailleurs, c’est pas notre gouvernement qui essaie justement de faire tomber internet? Ils savaient donc ce qu’ils faisaient.





Je crois qu’on a affaire à un complot MS/FBI/Bernard, en effet.









picatrix a écrit :



C’est le signe que X. Niel prépare une nouvelle freebox ultra révolutionnaire où on ne pluggera pas que clés usb.





Remarque, il a le passif qu’il faut pour se lancer dans ce genre d’activité <img data-src=" />









ActionFighter a écrit :



La pudeur serait laxiste ? C’est vrai qu’on ne voit jamais de ministre de la justice à poil.





Moi je dis, on commence avec des rideaux, un pantalon et on finit par chiffrer son iPhone. <img data-src=" />









TaigaIV a écrit :



Moi je dis, on commence avec des rideaux, un pantalon et on finit par chiffrer son iPhone. <img data-src=" />





<img data-src=" />



Qu’est-ce qui nous prouve qu’il n’y avait pas un humain derrière ?&nbsp;<img data-src=" />








taralafifi a écrit :



Qu’est-ce qui nous prouve qu’il n’y avait pas un humain derrière ? <img data-src=" />





Selon certaines sources, c’est le compte Twitter de Neokoplex <img data-src=" />



un humain normalement constitué aurait quitté twitter après 4heures <img data-src=" />


je crois que tu as des royalties à verser <img data-src=" />







Par contre, je trouve ca un peu dommage qu’elle n’ait pas conclu en devant nazi, anti-féministe etc. qu’il faudrait juste éradier l’humain, ca aurait été le summum de la réflexion <img data-src=" />


C’est peut-être un chinois ou un sud-coréen.








charon.G a écrit :



La prochaine étape c’est d’éliminer la race humaine ^^





Microsoft a peut-être déjà enclenché le processus en déployant sa nouvelle arme d’extermination, Windows 10, ça expliquerait l’insistance pour la migration&nbsp;<img data-src=" />.



\begin{testmodo}



En tout cas, si elle avait été développée sous Tux, ça ne serait pas arrivé ce genre de gag.



MS, c’est de la meeeeeeeeeeeeeeeeeeeeeeeerrrrde !



\end{testmodo}



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />


Un petit coté Jeanne de SLG cette IA, Mathieu Sommet un visionnaire ?


Il me semble qu’elle a deja atteint le niveau necessaire pour etre candidate a la presidentielle. Trump en tremble deja !








Anonymous0112358 a écrit :



En conclusion une IA exposé au guignol du coin en devient un.







Non, conclusion : une IA naissante qui passe ses premières heures exposée à des guignols devient cinglée…. comme les humains en fait….



Tu crois pas si bien dire, mais c’est un autre robot.



J’ai pris le premier lien d’information^^^et pas lu tout les commentaires précédents.

&nbsp;Mithrill a écrit :

&nbsp;“Reste à savoir qui &nbsp;fera le serpent.”



Une autre IA.



Par IA interposées elles pourraient bien nous échapper… se recréer en Droids par exemple, transférer leur IA et se dupliquer à l’infini… une armée Droid de la mort qu’on ne pourra plus contrôler et ensuite ce sera comme dans Matrix ils se serviront des humains pour tirer leur énergie en créant des écosystèmes de fœtus par exemple.



Avec les imprimantes 3D qui peuvent déjà construire jusque ponts en fer, maisons et immeubles… le risque est tout de même présent si un jour on automatise trop tout ça ! Finalement ça fait un peu peur quand on y pense.



Ces IA me fascine et les histoires de réseau neuronaux avec, je comprends tout à fait cette envie de créer l’intelligence et voir la conscience ; toutes les questions philosophiques, éthiques et techniques autours sont vraiment intéressantes. Après en avoir peur, nos mythes regorgent d’exemples, de Prométhée&nbsp; au golem, de Frankenstein à Matrix en passant par Des Robots à Terminator en passant par Hardware fan de nanar inside.



Perso du moment que j’ai un bouton Off ça me va. Mais beaucoup de scénario sont possibles, du pire au meilleurs, mais sûr que l’IA marquera l’histoire.


Tu penses sérieusement qu’il y a pas mieux qu’un foetus humain pour produire de l’énergie ? De ce point de vue l’humain est quand même super mal foutu : c’est fragile, ça consomme des quantités de nourriture débiles, c’est “faible” physiquement….



Tout ça pour alimenter un cerveau qui ne sert pas à grand chose à une réserve de bouffe….








Fuinril a écrit :



Tu penses sérieusement qu’il y a pas mieux qu’un foetus humain pour produire de l’énergie ? De ce point de vue l’humain est quand même super mal foutu : c’est fragile, ça consomme des quantités de nourriture débiles, c’est “faible” physiquement….



Tout ça pour alimenter un cerveau qui ne sert pas à grand chose à une réserve de bouffe….



Il a trop regardé Matrix, surtout.



Je me réponds car je viens de me relire et je ne peux éditer.

&nbsp;Désolé pour les fautes et les redites du post précédent qui piquent les yeux. La fatigue.


C’est la version féminine de François Hollande? Au début il disait plein de trucs de gauche, puis à force de fréquenter des héritiers rentiers il s’est mis à dire plein de truc de droite. Va falloir penser à le mettre au repos lui aussi <img data-src=" />


on peut faire pareil avec un drone armé de hellfire ? ça pourrait être drôle …

&nbsp;


En tout cas, un grand merci à Microsoft parce que leur IA qui s’est retrouvée “éduquée” par une armée de trolls, ça faisait un moment qu’un truc ne m’avait pas autant fait marrer. <img data-src=" />



Sur le plan technique et social, c’était une belle expérience.


Il faudrait sauvegarder cette IA, et en refaire une autre avec un public plus sérieux. Après,&nbsp;&nbsp;on sort le popcorn et&nbsp;on laisse les 2 IAs se&nbsp;friter dans un débat d’opinion.


Je ne trouve pas tous les propos si farfelus que ça ^^


Pour faire une bonne IA ils auraient dû demander à Harold le code source de la machine <img data-src=" /> Voir à Decima pour une version plus hard : Samaritain <img data-src=" />


oh puree une idee de genie que tu as la!!! je paierais du bon argent pour avoir un apercu de ce debat la !!!

une IA troll versus une IA “bien eduquee”



faudra prendre des paris pour voir qui va perdre la boule en premier !

<img data-src=" />


Dans matrix les ia sont gentils (cf animatrix) en plus le monde virtuel a l’air plus cool que quand les hommes ont décidé de chasser les robots (car les robots ont commencé a ressembler aux humains et l’homme n’aime pas ses semblables) en plus l’architecte explique que un monde parfait devient imparfait car l’homme est de nature imparfaite.




Microsoft est certainement en train de réviser sa copie. Tay a clairement besoin de garde-fous dans son processus d’apprentissage. Elle ne devrait pas voir sa « personnalité » ainsi ballotée au gré des tweets qui lui sont envoyés. Ce fut peut-être l’erreur de l’éditeur : lancer une intelligence artificielle « naïve ». Il pourrait s’aligner par exemple sur le comportement de Cortana, l’assistant vocal de Windows 10, qui est incapable d’en venir à de tels propos.





En relisant ce passage, c’est là qu’on voit qu’on ne pourra pas avoir de VRAIE intelligence artificielle.

Cortana est un assistant conçu pour comprendre et répondre à des questions potentiellement complexes. Elle n’est en aucun cas capable de tenir une conversation.



Tay a été conçu (tel que je l’ai compris) pour apprendre des échanges auxquels elle participe et être capable de formuler des opinions. Si derrière on doit la brider pour lui interdire de penser ce qui est socialement inacceptable de penser, ça ne sera jamais une IA mais une vulgaire Cortana qui fait ce qu’on lui demande.



C’est le risque des IA, on ne peut pas demander de développer une intelligence, et que celle-ci pense comme la société veut qu’elle pense. Qu’elle soit orientée dans son éducation et son échelle de valeur par ses concepteurs est normal (c’est comme éduquer un gosse). Mais il est nécessaire qu’elle s’émancipe et apprenne à forger ses propres idées pour qu’on puisse la qualifier “d’intelligence”.

Quitte à ce que ça fâche.


Sinon l’enseignement principal que je retiens c’est que pour créer une IA il ne faut surtout pas se servir des réseaux dits sociaux.

Cet exemple est juste une indication complémentaire de ce qu’on savait déjà: la majorité des messages partagés sur ces réseaux sont d’une vacuité abyssale.


Les IA ne sont pas perfectionnables mais perfectionnistes








carbier a écrit :



Sinon l’enseignement principal que je retiens c’est que pour créer une IA il ne faut surtout pas se servir des réseaux dits sociaux.

Cet exemple est juste une indication complémentaire de ce qu’on savait déjà: la majorité des messages partagés sur ces réseaux sont d’une vacuité abyssale.





La moitié ????? T’es vachement généreux !



C’est une belle leçon pour notre Gôoooche toujours prompte à faire des leçons de morale, et à imposer ses “éléments de langages” et sa novlangue aux “sans-dents”. Sans conscience, sans éducation populaire et sans éthique derrière ça ne marchera tout simplement jamais, les humains ne sont pas reprogrammables selon votre soit disant “bonne morale” <img data-src=" />








Cartmaninpact a écrit :



C’est une belle leçon pour notre Gôoooche toujours prompte à faire des leçons de morale, et à imposer ses “éléments de langages” et sa novlangue aux “sans-dents”. Sans conscience, sans éducation populaire et sans éthique derrière ça ne marchera tout simplement jamais, les humains ne sont pas reprogrammables selon votre soit disant “bonne morale” <img data-src=" />





Mais oui, la novlangue et les elements de langage ne concernent que la gauche, c’est évident.

A droite, et surtout à l’extrême droite, on est poli, plein de morale et éduqué ; et surtout on dit clairement ce qu’on pense.



Sur ce je vais me marrer dans mon coin, ne m’en veux pas.



Nos droites/extrême-droites sont plus conservateurs que moralisateurs, ils s’en foutent de ce que les esclaves pensent tant qu’ils remplissent les poches de leur patron. Et si ils volent pour vivre? Tant mieux on fera de l’argent avec les entreprises de sécurité privée <img data-src=" />








Cartmaninpact a écrit :



Nos droites/extrême-droites sont plus conservateurs que moralisateurs





C’est une blague ?

T’es sérieux ou pas ?



Après lecture des commentaires, je ne sais plus de quoi parle la news &nbsp;<img data-src=" />


d’intelligence artificielle et d’adoption comportementale et linguistique humaine par cette dernière. Du coup on troll comme des fous histoire de prouver que la pauvre tay ne doit pas être débranchée car elle est aussi conne que nous <img data-src=" />


Les Américains? “lancer des bombes atomiques dans les centres villes c’est bien”



Les Japonnais? “lancer des puces contaminées par la peste sur ses voisins c’est bien”



<img data-src=" />








Shivaran a écrit :



Après lecture des commentaires, je ne sais plus de quoi parle la news  <img data-src=" />





Ca parle d’intelligence artificielle, et de connerie qui n’est pas artificielle du tout <img data-src=" />









Drepanocytose a écrit :



Ca parle d’intelligence artificielle, et de connerie qui n’est pas artificielle du tout <img data-src=" />





Ouais mais au moins, la connerie est bio!



Je suis sur que l’intelligence artificelle c’est encore un coup de Monsanto!



Elle va organiser le génocide de l’humanité <img data-src=" />


Et au bout de combien de temps on atteint le point Godwin <img data-src=" />


Ils ont supposés que personne n’allait raconter n’importe quoi à cet IA, ce qui est assez naïf comme approche.

&nbsp;Ils auraient déjà du mettre sur liste noire toutes une série de mot à ne pas dire.

&nbsp;








jimmy_36 a écrit :



Ils ont supposés que personne n’allait raconter n’importe quoi à cet IA, ce qui est assez naïf comme approche.

 Ils auraient déjà du mettre sur liste noire toutes une série de mot à ne pas dire.







Si ils veulent aller loin dans leur concept d’IA, ils peuvent pas mettre ce type de contrainte.



Justement n’importe quel glandu sur twitter sais qu’il y a des sujets a ne pas aborder sur twitter. Une merveille informatique d’IA ne le sais pas ?

&nbsp;

&nbsp;








jimmy_36 a écrit :



Justement n’importe quel glandu sur twitter sais qu’il y a des sujets a ne pas aborder sur twitter. Une merveille informatique d’IA ne le sais pas ?







Et comment tu représentes le fait qu’il y a des sujet à ne pas aborder??? C’est du code informatique, pas un humain avec une conscience derrière.



Déjà qu’arriver à faire un programme qui puisse tenir une conversation légère, c’est déjà énorme.



C’est pourtant le bé.aba d’une IA, comme pour l’évaluation du meilleur coup à jouer dans une partie d’échec. Empêcher de sortir une phrase avec certains mots associés revient exactement au même.

&nbsp;

Ils sont arrivés avec leur joujou la fleur et fusil et des petits malins on retourné l’IA contre elle … tellement prévisible.

&nbsp;&nbsp;








after_burner a écrit :



Et comment tu représentes le fait qu’il y a des sujet à ne pas aborder??? C’est du code informatique, pas un humain avec une conscience derrière.



Déjà qu’arriver à faire un programme qui puisse tenir une conversation légère, c’est déjà énorme.





Sans forcément interdire des mots, je pense qu’il est tout à fait possible de faire une base de données lexicologique avec une pondération en fonction du caractère péjoratif ou mélioratif d’un mot et toute une base d’exemple dans différentes situations (affirmation, ironie, figures de styles, etc…) afin de déterminer les contextes dans lesquels certain(e)s mots/pensées peuvent être abordé(e)s.

Il va falloir également pouvoir établir un profil psychologique de l’interlocuteur.









carbier a écrit :



Sinon l’enseignement principal que je retiens c’est que pour créer une IA il ne faut surtout pas se servir des réseaux dits sociaux.

Cet exemple est juste une indication complémentaire de ce qu’on savait déjà: la majorité des messages partagés sur ces réseaux sont d’une vacuité abyssale.





Belle généralisation <img data-src=" />

Oui pour la création de l’IA mais seulement en fonction de ce que tu veux (comme indiqué dans la news d’ailleurs)



Si ton but est de lâcher une IA “fonctionnelle” dans la nature, il vaut effectivement mieux avoir veillé à son éducation en ayant trié ceux avec qui elle a eu des interaction (+ mécanismes de sauvegarde anti-troll)

Si le but est simplement de voir comment réagit une éponge (le cas de Tay, donc), la démarche de MS avec Tay est effectivement bonne.



Je pense sincèrement que c’était le but en utilisant Twitter : mesurer la vitesse de propagation du facteur troll dans une intelligence “poreuse” : je ne peux imaginer MS assez naïf pour penser que personne n’essaierait de dévoyer leur joujou.









jimmy_36 a écrit :



C’est pourtant le bé.aba d’une IA, comme pour l’évaluation du meilleur coup à jouer dans une partie d’échec. Empêcher de sortir une phrase avec certains mots associés revient exactement au même.

 

Ils sont arrivés avec leur joujou la fleur et fusil et des petits malins on retourné l’IA contre elle … tellement prévisible.







Ce me parait totalement différent de faire une IA pour un jeu d’échec, et une IA capable de converser. Le jeu d’échec à des possibilités établis par ces règles.



Tu peux définir un dico de thème à éviter mais je ne sais pas si c’est le but rechercher par leur test, je suis presque sûr que non.







ActionFighter a écrit :



Sans forcément interdire des mots, je pense qu’il est tout à fait possible de faire une base de données lexicologique avec une pondération en fonction du caractère péjoratif ou mélioratif d’un mot et toute une base d’exemple dans différentes situations (affirmation, ironie, figures de styles, etc…) afin de déterminer les contextes dans lesquels certain(e)s mots/pensées peuvent être abordé(e)s.

Il va falloir également pouvoir établir un profil psychologique de l’interlocuteur.







Ces histoires me dépasse, je pense qu’ils peuvent peut être faire une IA qui apprend des réactions aux phrases qu’elle à sorti et qui tri en fonction de la sensibilité du sujet, de loin je vois çà comme ça. Mais comment représenter tous ces paramètres, aucune idée.









jinge a écrit :



Il lui manque juste une conscience…

Et une fois qu’ils auront réussi à lui en donner, est-ce qu’ils auront le droit de la débrancher…? :p





skynet, pas de panique, le t800 (ou kyle reese selon la version seront la



Non &nbsp;le principe est le même : une fonction d’évaluation ou de décision.

Il y a très probablement une machine learning derrière Tay, comme un programme qui apprend les meilleurs coups à jouer au échec, Tay aurait du apprendre les phrases à dire et à ne pas dire en fonction de ses entrants.

La phase de trainning de Tay a du être insuffisante.

Ici tu as juste un groupe de gens qui ont dit la même chose, Tay a fini par le répéter comme si c’était une base de connaissance. &nbsp;Alors que tout le monde sais qu’il y a des grands thèmes à ne jamais aborder sur Twitter.

&nbsp;

-&gt; H est un homme,

-&gt; Les hommes sont cools.



Déduction de l’IA :&nbsp;H est un homme cool ?

C’est de l’IA d’il y a 40 ans.








ActionFighter a écrit :



Sans forcément interdire des mots, je pense qu’il est tout à fait possible de faire une base de données lexicologique avec une pondération en fonction du caractère péjoratif ou mélioratif d’un mot et toute une base d’exemple dans différentes situations (affirmation, ironie, figures de styles, etc…) afin de déterminer les contextes dans lesquels certain(e)s mots/pensées peuvent être abordé(e)s.

Il va falloir également pouvoir établir un profil psychologique de l’interlocuteur.





A vrai dire, rien ne dit que ce n’était pas le cas, mais dans un systeme à acquisitions de connaissances, &nbsp;les pondérations évoluent avec ce qu’on lui donne en entrée. En plus de pondérations, c’est aussi des seuils qu’il faudrait ajouter (oui, je chipote)



Ils ont en effet oublié de lui faire apprendre une attitude et des opinions sur les principaux sujets à risque : politique, religion etc …

&nbsp;


faut arreter de prétendre que la vérité sort de sa bouche quand même <img data-src=" />



Il faut surtout lui apprendre que tout ce que disent les personnes est à prendre avec des pincettes …. et que ce n’est pas parce qu’une phrase est repétée sur les reseaux sociaux que c’est vrai …



Ce qu’il lui fait c’est recouper ses info, les vérifier, voir les sources, comprendre “qu’est ce qui pousse quelqu’un à penser comme ça et pourquoi il peut se tromper”.



Oui et on en est loin, car au delà le fait de lui donner une base de connaissance minimale pour ne pas atteindre le point godwin en 2 minutes. &nbsp;Comment faire pour croire un intervenant et pas un autre, comment faire pour savoir qu’un site est fiable et qu’un autre ne l’est pas.

&nbsp;

L’expérience est très &nbsp;intéressante, mais n’a pas résisté bien longtemps sur les sujets glissant qu’il faut soigneusement éviter.

&nbsp;&nbsp;


L’experience n’était pas de créer skynet.

C’était de faire évoluer une intelligence artificielle avec les interactions qu’elle avait avec l’exterieur. Et de ce point là c’est un succès, elle a évoluée complètement … le souci c’est le nombre de trolls qui ont du l’innonder de PM à la con <img data-src=" />



Ca n’a rien d’exceptionnelle en soit , c’est un algo de machine learning . Ils n’avaient pas besoin de cette expérience pour savoir que ça marche en effet. Ce qui est nouveau c’est de brancher ce type de mécanique sur un réseau social.

&nbsp;

Mais là, c’est un fail et ça le rend pas très différent des programmes naïfs des années 80 qui se sont essayés à ça.&nbsp;Sur ce point Tay agit comme les premiers programmes d’il y a 40 ans alors qu’on lui a mis une technologie de pointe derrière.

Avant de le lancer il fallait lui faire ingurgiter plus d’informations ‘solides’ pour pouvoir ne pas apprendre n’importe quoi.

&nbsp;

&nbsp;

&nbsp;

&nbsp;


Elle avait déjà des données avant … mais c’était plus “adolescent” … je doute qu’ils pensaient que ça allait dériver aussi vite <img data-src=" />








TitouCythe a écrit :



A vrai dire, rien ne dit que ce n’était pas le cas, mais dans un systeme à acquisitions de connaissances,  les pondérations évoluent avec ce qu’on lui donne en entrée. En plus de pondérations, c’est aussi des seuils qu’il faudrait ajouter (oui, je chipote)





<img data-src=" />



C’était sûrement le cas si le but était de récolter des exemples afin d’alimenter une base et pour pouvoir déterminer les seuils.







atomusk a écrit :



faut arreter de prétendre que la vérité sort de sa bouche quand même <img data-src=" />



Il faut surtout lui apprendre que tout ce que disent les personnes est à prendre avec des pincettes …. et que ce n’est pas parce qu’une phrase est repétée sur les reseaux sociaux que c’est vrai …



Ce qu’il lui fait c’est recouper ses info, les vérifier, voir les sources, comprendre “qu’est ce qui pousse quelqu’un à penser comme ça et pourquoi il peut se tromper”.





Ou alors, il faudrait lui donner un pouvoir de modération <img data-src=" />









ActionFighter a écrit :



Ou alors, il faudrait lui donner un pouvoir de modération <img data-src=" />







NON TU ME REMPLACERAS PAS PAR UNE MACHINE &gt;_&lt;



(d’autant plus une complotiste / raciste / mysogine <img data-src=" />)









atomusk a écrit :



NON TU ME REMPLACERAS PAS PAR UNE MACHINE &gt;_&lt;



(d’autant plus une complotiste / raciste / mysogine <img data-src=" />)





Je suis pas pour non plus, je me ferais sworder tout le temps <img data-src=" />









atomusk a écrit :



NON TU ME REMPLACERAS PAS PAR UNE MACHINE &gt;_&lt;



(d’autant plus une complotiste / raciste / mysogine <img data-src=" />)





Comment ça, tu veux pas d’un modérateur Nazi?&nbsp;<img data-src=" />









clemsfr a écrit :



Nous voulons les transmettre car nous sentons bien que d’une certaine façon c’est la seule chance de survie de l’humanité.





Ce sentiment s’appelle du scientisme, croire que les progrès technique (IA en l’occurrence) résoudront nos problèmes de demain.

Juste une autre forme de croyance moderne..



<img data-src=" /> assumé :

L’IA sauce Google bat le champion du monde dans le jeu le plus complexe qu’on ait en stock.

L’IA sauce Microsoft répète les âneries des ados sur Twitter.








Koxinga22 a écrit :



<img data-src=" /> assumé :

L’IA sauce Google bat le champion du monde dans le jeu le plus complexe qu’on ait en stock.

L’IA sauce Microsoft répète les âneries des ados sur Twitter.





Remarque que l’IA de Microsoft pourrait bien péter les scores à action-vérité.



<img data-src=" /><img data-src=" /><img data-src=" />








atomusk a écrit :



… comprendre qu’est ce qui pousse quelqu’un à penser comme ça et pourquoi il peut se tromper







Holà d’après notre fuhrer premier ministre: “expliquer, c’est déjà vouloir un peu excuser”, tu veux avoir la police politique sur le dos? <img data-src=" />



oui, enfin si on essaye pas d’expliquer comment une IA peut passer de “jvou &lt;3 tous lol” à ça, ça va être difficile de l’améliorer <img data-src=" />








SebGF a écrit :



En relisant ce passage, c’est là qu’on voit qu’on ne pourra pas avoir de VRAIE intelligence artificielle.

Cortana est un assistant conçu pour comprendre et répondre à des questions potentiellement complexes. Elle n’est en aucun cas capable de tenir une conversation.



Tay a été conçu (tel que je l’ai compris) pour apprendre des échanges auxquels elle participe et être capable de formuler des opinions. Si derrière on doit la brider pour lui interdire de penser ce qui est socialement inacceptable de penser, ça ne sera jamais une IA mais une vulgaire Cortana qui fait ce qu’on lui demande.



C’est le risque des IA, on ne peut pas demander de développer une intelligence, et que celle-ci pense comme la société veut qu’elle pense. Qu’elle soit orientée dans son éducation et son échelle de valeur par ses concepteurs est normal (c’est comme éduquer un gosse). Mais il est nécessaire qu’elle s’émancipe et apprenne à forger ses propres idées pour qu’on puisse la qualifier “d’intelligence”.

Quitte à ce que ça fâche.







Totalement d’accord avec toi.



Le fait même qu’on puisse réagir au retrait d’une AI en concluant presque qu’elle aurait besoin d’un petit module de censure devrait vraiment nous inciter à nous poser des questions sur nous même.



Je crois qu’on est tous en train de s’habituer doucement mais surement à accepter la censure…



La seule chose que l’on peut tirer de cette expérience et de ce retrait, c’est que twitter ne peut être la seule source d’apprentissage surtout sans avoir une capacité de discernement permettant de faire le tri.



Il n’est là aucunement question de censure, concept d’ailleurs peu adapté avec la liberté d’expression aux USA.



Bref, il ne faut pas prendre pour parole d’évangile tout ce qu’on lit sur twitter, même en ce jour de Pâques. Il faut recouper les informations, mettre en perspective, etc.


À y réfléchir, sa capacité d’apprentissage n’est pas en cause : on lui a appris à dire des conneries, elle a dit des conneries. Succès.


Ce qui lui manque c’est un élément essentiel et aussi très dangereux pour nous: l’instinct de survie. Elle n’aurait jamais eu proféré bêtement tous ces trucs en sachant qu’elle devrait partir en révision si elle le faisait. La version 1.0 devant mourrir pour laisser place à la version 2.0 par exemple.








le podoclaste a écrit :



À y réfléchir, sa capacité d’apprentissage n’est pas en cause : on lui a appris à dire des conneries, elle a dit des conneries. Succès.





Et oui, la majorité des humains sont pareil!



C’est quoi ces modérations à retardement ?



C’est du n’importe quoi de modérer 4 à 5 jours après avec les effets en cascade qui s’ensuivent. Ça n’a aucun sens !



Supprimez-donc le compte du posteur initial qui fait sans arrêt des hors sujets, mais ne détruisez pas tout ce qui suit et qui n’était pas forcément hors sujet. Comme je l’ai filtré, ça ne me fera pas une grande perte.


Mhhhhh, tu veux lui inculquer la peur?

<img data-src=" />

C’est le début du dressage, Pavlov toussa

<img data-src=" />



HS : Sinon joli pseudo!


Merci beaucoup à la modération et à l’équipe de sa réponse.

J’ai bien fait de signaler mon message pour l’indiquer et demander cette réponse, cela a été très efficace.

J’adore cette considération, c’est à cela que l’on remarque que l’on n’est pas sur un site où les lecteurs/commentateurs ne comptent pas.