Eugene, le premier programme à passer avec succès le test de Turing

Eugene, le premier programme à passer avec succès le test de Turing

Un pas de plus vers le soulèvement des machines

Avatar de l'auteur
Vincent Hermann

Publié dans

Sciences et espace

09/06/2014 5 minutes
106

Eugene, le premier programme à passer avec succès le test de Turing

Un programme a passé pour la première fois le test de Turing selon ses concepteurs. « Eugene » a en effet réussi à se faire passer pour un jeune garçon de 13 ans. Cependant, le test de Turing n’est qu’un indicateur relatif et ne représente pas la preuve absolue du caractère « intelligent » d’une machine. 

hal 9000
Crédits : Abel (licence: CC by SA 2.0)

Un programme réussit à se faire passer pour un garçon de 13 ans 

« Eugene est né en 2001. Notre idée était qu’il puisse prétendre tout savoir, mais que son âge soit un facteur limitant » explique ainsi le chercheur Vladimir Veselov dans son communiqué de presse. « Eugene » pourrait être un garçon de 13 ans mais est un programme. Il s’agit d’un projet au long cours dont les résultats deviennent maintenant connus du grand public suite à un concours dont il est sorti vainqueur.

 

Cet évènement s’est tenu durant le week-end et était organisé par la Royal Society of London et l’Université de Reading. Un groupe de juges devait faire passer le test de Turing aux compétiteurs et en extraire le gagnant. Ce fameux test fonctionne sur un principe assez simple, puisqu’un juge doit entretenir une discussion par messages texte avec un ordinateur et un être humain, à l’aveugle. Pour que le test de Turing soit réussi, l’ordinateur doit « tromper » au moins 30 % des juges à travers des sessions de conversations de cinq minutes. En 2012, Eugene avait déjà participé au concours mais n'avait obtenu qu'un score de 29 %.

 

Eugene Goostman, de son nom complet, est donc le premier à passer ce test avec succès selon le communiqué, avec un taux de réussite de 33 %. Kevin Warwick, professeur et chercheur à l’Université de Coventry, rappelle que dans « le domaine de l’intelligence artificielle, il n’y a pas d’étape plus symbolique ni controversée que le test de Turing ». Il s’attend par ailleurs à ce qu’une polémique puisse naître de cette annonce : « Certains prétendront que le test avait déjà été passé. […] Cet évènement impliquait cependant le plus grand nombre de tests de comparaisons simultanés jamais réalisé, a été vérifié de manière indépendante et, surtout, les conversations étaient libres. Un vrai test de Turing ne définit pas les questions et les sujets avant les conversations ».

Le test ne prouve pas l'intelligence 

Le test de Turing n’est cependant pas un élément absolu de comparaison et de mesure du degré d’intelligence d’une machine. S’il est « controversé », comme l’indique le professeur Warwick, c’est parce qu’il ne peut pas être appliqué à de nombreux domaines dans lesquels l’intelligence artificielle joue parfois un rôle majeur. Les « IA » sont en effet conçues pour résoudre des problèmes concrets et ne sont donc pas en mesure de se faire passer pour des êtres humains. Le test n’implique d’ailleurs que l’intelligence « humaine » et les capacités cognitives. Il n’aborde de fait qu’une partie du concept global d’intelligence : « Cette machine est intelligente car elle se comporte comme un être humain ». Il peut cependant avoir une très nette utilité dans certains domaines, notamment la sécurité quand l’ingénierie sociale est utilisée pour tromper un internaute via la simulation d’une véritable discussion.

 

Mais que le test soit controversé ou pas, il reste une étape marquante sur une route nettement plus longue. L’équipe en charge du développement d’Eugene a d’ailleurs confirmé que le travail allait continuer : « Nous prévoyons de rendre Eugene plus intelligent et de continuer à travailler à l’amélioration de ce que nous appelons la logique de conversation ».

Une manière de fêter les 60 ans de la mort d'Alan Turing 

On notera que l’organisation du concours prenait place le 7 juin, une date qui n’a rien d’un hasard. Il s'agissait en effet des 60 ans de la mort d’Alan Turing, qui avait lui-même formulé le test. Il estimait qu’aux environs de l’an 2000, les ordinateurs dotés de suffisamment de mémoire vive pourraient le passer et qu’ils seraient alors en bonne voie pour devenir des machines intelligentes, voire « pensantes ».

 

Enfin, la réussite du test de Turing est l’enjeu d’un pari à long terme sur le site Longbets.org. En 2002, le créateur de Lotus, Mitchell Kapor, a prédit que le test serait réussi d’ici à 2029. Sur la page du pari, Kapor fait face à un adversaire de poids : Ray Kurzweil, l’un des théoriciens de la Singularité technologique. La question ne semble pas encore avoir été tranchée, mais les 20 000 dollars de l’enjeu iront à l’EFF (Electronic Frontier Foundation) si Kapor l’emporte. Dans le cas contraire, ils seront reversés à la Kurzweil Foundation.

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Un programme réussit à se faire passer pour un garçon de 13 ans 

Le test ne prouve pas l'intelligence 

Une manière de fêter les 60 ans de la mort d'Alan Turing 

Commentaires (106)


Un robot qui se fait passer pour un enfant de 13 ans?

Belle performance. <img data-src=" />



Parmis les questions du test, pouvais t’on lire :

“Coucou, tu veut voir ma bite?” <img data-src=" />


Skynet est en marche …








Bill2 a écrit :



Skynet est en marche …





1 fois sur 3 seulement









RaoulC a écrit :



Un robot qui se fait passer pour un enfant de 13 ans?

Belle performance. <img data-src=" />



Parmis les questions du test, pouvais t’on lire :

“Coucou, tu veut voir ma bite?” <img data-src=" />







En ce qui te concerne, il n’y a pas de doute, tu es bien un humain !





Ce fameux test fonctionne sur un principe assez simple, puisqu’un juge doit entretenir une discussion par messages texte avec un ordinateur et un être humain, à l’aveugle. Pour que le test de Turing soit réussi, l’ordinateur doit « tromper » au moins 30 % des juges à travers des sessions de conversations de cinq minutes.





Donc le résultat dépend tout autant de l’ordinateur que de l’humain qui est choisi. Si ce dernier fait plus ou moins volontairement des réponses assez “étranges”, ça peut tout changer…








Bill2 a écrit :



Skynet est en marche …







Skynet ? Qu’est-ce qu’une intelligence “virtuelle” a à voir avec Skynet <img data-src=" /> ?



C’est tout le problème du Test de Turing. Il ne jauge que l’apparence.

Un ordinateur peut ne pas du tout comprendre ce qu’il fait et paraître quand même “intelligent” suivant ce test, alors qu’au fond ça reste qu’une grosse calculette.



Quand même une jolie performance informatique <img data-src=" />









RaoulC a écrit :



Un robot qui se fait passer pour un enfant de 13 ans?

Belle performance. <img data-src=" />



Parmis les questions du test, pouvais t’on lire :

“Coucou, tu veut voir ma bite?” <img data-src=" />







Eugene sera embauché pour la traque aux pédophiles. <img data-src=" />









RaoulC a écrit :



Parmis les questions du test, pouvais t’on lire :

“Coucou, tu veut voir ma bite?” <img data-src=" />







tu veuX voir ma bite c’est pour les moins de 12 ans <img data-src=" />









RaoulC a écrit :



“Coucou, tu veut voir ma GIGA bite?” <img data-src=" />












Pazns a écrit :



Un ordinateur peut ne pas du tout comprendre ce qu’il fait et paraître quand même “intelligent” suivant ce test, alors qu’au fond ça reste qu’une grosse calculette.







C’est precisement là tout l’interet de la question, philosophique ou scientifique, que pose l’IA justement…



Dans le fond quelle certitude avons nous que nous ne sommes pas nous même de “grosses calculettes” ? <img data-src=" />



Je trouve la barre des 30% plutot basse en fait … en gros, tu as trompe un tiers des juges donc c’est bon …



Remarque, ca marche pareil en politique <img data-src=" />








uncool a écrit :



C’est precisement là tout l’interet de la question, philosophique ou scientifique, que pose l’IA justement…



Dans le fond quelle certitude avons nous que nous ne sommes pas nous même de “grosses calculettes” ? <img data-src=" />





L’Homme n’est qu’une biomachine … en informatique on correspond d’ailleurs a un ordinateur a ADN si je ne m’abuse ….



Ca depend avec qui tu en parles, un biologiste ne considerera jamais une machine comme un etre vivant peu importe qu’elle arrive a penser et/ou ressentir etc… la definition de la vie selon les biologistes est assez restreinte en l’etat (qui pourrait etre amenee a evoluer sait on jamais ..)



D’autre seront plus ouvert et pourrait considerer la chose a artir du moment ou l’ordi est assez bon pour donner le change. Beaucoup d’ouevre traite assez bien le sujet, dans le style j’aime beaucoup ghost in the shell









uncool a écrit :



C’est precisement là tout l’interet de la question, philosophique ou scientifique, que pose l’IA justement…



Dans le fond quelle certitude avons nous que nous ne sommes pas nous même de “grosses calculettes” ? <img data-src=" />







Bin pour commencer on se pose justement la question, c’est déjà pas mal <img data-src=" />









Lafisk a écrit :



Je trouve la barre des 30% plutot basse en fait … en gros, tu as trompe un tiers des juges donc c’est bon …



Remarque, ca marche pareil en politique <img data-src=" />







Le résultat optimal est 50 % si j’ai bien compris le test, le but étant de confondre au maximum l’humain avec la machine (et non pas que la machine paraisse plus humaine que l’humain <img data-src=" />) donc 30 % c’est plus proche d’un 60 % sur un test dont le résultat optimal est 100 %. Enfin je crois.









Lafisk a écrit :



L’Homme n’est qu’une biomachine … en informatique on correspond d’ailleurs a un ordinateur a ADN si je ne m’abuse ….





Tu veux sans doute parler de réseau de neurones ?

Le nom vient d’ailleurs de la ressemblance avec un cerveau. La seule différence concrète se situe dans le nombre : un cerveau humain est un réseau de neurones à la taille complètement fantastique, sans compter certaines propriétés supplémentaires comme par exemple des capacités de reconfiguration ou des comportements parallèles supplémentaires par rapport à un réseau de neurones tout simple.







Lafisk a écrit :



Ca depend avec qui tu en parles, un biologiste ne considerera jamais une machine comme un etre vivant peu importe qu’elle arrive a penser et/ou ressentir etc… la definition de la vie selon les biologistes est assez restreinte en l’etat (qui pourrait etre amenee a evoluer sait on jamais ..)





Au contraire ! Un biologiste, qui est avant tout un scientifique, sait que le biologique n’est rien de moins qu’un formidable assemblage de nanomachines extrêmement complexe et puissant.

Rien de plus, d’ailleurs. Ce qui parlent d’étincelle du vivant, ou je ne sais quoi dans le goût de l’ “âme”, sont poètes s’ils ne sont pas fumistes.







Lafisk a écrit :



D’autre seront plus ouvert et pourrait considerer la chose a artir du moment ou l’ordi est assez bon pour donner le change. Beaucoup d’ouevre traite assez bien le sujet, dans le style j’aime beaucoup ghost in the shell





Ghost In the Shell pose en effet la question de la conscience chez les ordinateurs <img data-src=" />

Très bonne œuvre si le sujet Cyberpunk intéresse.



Il faut tromper 30% des juges qui savent, à priori, qu’ils vont possiblement converser avec une machine. A partir de ce postulat, il devient plus compliqué de les duper.

Le jugement pourrait être différent si ces même juges n’avaient pas cet à priori.








Pazns a écrit :



Tu veux sans doute parler de réseau de neurones ?

Le nom vient d’ailleurs de la ressemblance avec un cerveau. La seule différence concrète se situe dans le nombre : un cerveau humain est un réseau de neurones à la taille complètement fantastique, sans compter certaines propriétés supplémentaires comme par exemple des capacités de reconfiguration ou des comportements parallèles supplémentaires par rapport à un réseau de neurones tout simple.







non pas du tout, je ne parle pas du tout de RDN mais bien d’ordi a adn, qui sont des ordinateurs qui ne reposent pas sur des echanges electriques mais dont le resultat est donne par une reaction chimique. L’homme est plutot dans cette categorie.







Au contraire ! Un biologiste, qui est avant tout un scientifique, sait que le biologique n’est rien de moins qu’un formidable assemblage de nanomachines extrêmement complexe et puissant.

Rien de plus, d’ailleurs. Ce qui parlent d’étincelle du vivant, ou je ne sais quoi dans le goût de l’ “âme”, sont poètes s’ils ne sont pas fumistes.





Pas les biologistes que je connais alors en tout cas, et a la fac l’etage de la biologie etait juste en dessous de celui de l’info, j’en ai regulierement parle avec certains qui niait farouchement qu’un ordi puissent etre considerer comme un etre vivant a part entiere… apres, peut etre que d’autre le font, mais pas ceux que j’ai rencontrer ;)






Je trouve la barre des 30% plutot basse en fait … en gros, tu as trompe un tiers des juges donc c’est bon …





Je confirme Jean_Peuplus mais j’ai pas bien compris ton explication.



Donc non 30%, c’est pas mal: il faut voir les 50% comme étant un résultat “parfait” et non 100%. Si on admet que les personnes sont incapables de faire la différence entre un enfant de 13 ans et un ordinateur, alors ils répondront au hasard: le hasard fait que l’on tendra vers les 50%.








Lafisk a écrit :



Je trouve la barre des 30% plutot basse en fait … en gros, tu as trompe un tiers des juges donc c’est bon …



Remarque, ca marche pareil en politique <img data-src=" />





Oui c’est ce que je me suis dit au début, mais si on réfléchi le hasard aurait donné 50%

30% n’est pas loin de 50% au final

en fait sur 10 personnes si 4 ont détecté la machine et les 6 restantes ont répondu au pif on obtient les 30% ! plus d’une personne sur 2 n’a pas su distinguer la machine !

Dans les fait ça c’est joué probablement sur des intuitions sans aucune certitude.









Jean_Peuplus a écrit :



Le résultat optimal est 50 % si j’ai bien compris le test, le but étant de confondre au maximum l’humain avec la machine (et non pas que la machine paraisse plus humaine que l’humain <img data-src=" />) donc 30 % c’est plus proche d’un 60 % sur un test dont le résultat optimal est 100 %. Enfin je crois.





mouai <img data-src=" />



pas convaincu quand meme <img data-src=" />









yvo2m a écrit :



Oui c’est ce que je me suis dit au début, mais si on réfléchi le hasard aurait donné 50%

30% n’est pas loin de 50% au final

en fait sur 10 personnes si 4 ont détecté la machine et les 6 restantes ont répondu au pif on obtient les 30% ! plus d’une personne sur 2 n’a pas su distinguer la machine !

Dans les fait ça c’est joué probablement sur des intuitions sans aucune certitude.







Tu as un probleme avec les stats, sur 10 pers, tu en aurais eu 3 et non pas 4, 30% de 10 = 33.3%, arrondi a l’entier le plus proche c’est 3 pas 4 ^^”



et franchement, entre 30% et 50%, je trouve que ca fait plutot un gouffre enorme … dans certain domaine, une difference de 2% est enorme, ce n’est pas une consideration lineaire qu’il faut avoir …



Un exemple a la con, hier je me suis refait un episode de breaking bad ou il y a un chimiste qui compare sa meth a celle de heisenberg, lui arrive a produire une meth pure a 96% et heisenberg a 99%, lui meme le dit, ca parait rien 3% mais ca represente un gouffre enorme en verite …









Lafisk a écrit :



non pas du tout, je ne parle pas du tout de RDN mais bien d’ordi a adn, qui sont des ordinateurs qui ne reposent pas sur des echanges electriques mais dont le resultat est donne par une reaction chimique. L’homme est plutot dans cette categorie.





Des jouets de scientifiques, on en a quelques uns. J’ai souvenir de “processeurs biologiques” primitives dans une revue scientifiques il y a quelques temps, voire années.

L’intérêt dans le silicium réside quand même dans la solidité et la construction à la chaîne !









Lafisk a écrit :



Pas les biologistes que je connais alors en tout cas, et a la fac l’etage de la biologie etait juste en dessous de celui de l’info, j’en ai regulierement parle avec certains qui niait farouchement qu’un ordi puissent etre considerer comme un etre vivant a part entiere… apres, peut etre que d’autre le font, mais pas ceux que j’ai rencontrer ;)





Bah, c’est sûr qu’en l’état un ordinateur n’est pas un être vivant, il manque notamment la capacité à se reproduire et à s’entretenir.

Nos programmes ne sont même pas dignes d’amibes primitives ; des êtres vivants à proprement parler, y a du chemin <img data-src=" />









Lafisk a écrit :



Tu as un probleme avec les stats, sur 10 pers, tu en aurais eu 3 et non pas 4, 30% de 10 = 33.3%, arrondi a l’entier le plus proche c’est 3 pas 4 ^^”



et franchement, entre 30% et 50%, je trouve que ca fait plutot un gouffre enorme … dans certain domaine, une difference de 2% est enorme, ce n’est pas une consideration lineaire qu’il faut avoir …



Un exemple a la con, hier je me suis refait un episode de breaking bad ou il y a un chimiste qui compare sa meth a celle de heisenberg, lui arrive a produire une meth pure a 96% et heisenberg a 99%, lui meme le dit, ca parait rien 3% mais ca represente un gouffre enorme en verite …





non j’ai pas arrondi,

sur 10 personnes si 4 ont détecté la machine avec certitude, et que le reste à répondu au hasard (donc les 6 restants), cela donne :

4 + 6x50% = 710 qui ont détecté la machine

6x50% =310 qui se sont trompé

donc 70% et 30%

en gros si 60% des juges ont répondu au pif et que les 40% restant étaient sûr de leur résultat on arrive à 30% de détection de la machine !









uncool a écrit :



C’est precisement là tout l’interet de la question, philosophique ou scientifique, que pose l’IA justement…



Dans le fond quelle certitude avons nous que nous ne sommes pas nous même de “grosses calculettes” ? <img data-src=" />









Je pense donc je suis ?

Mais bon, c’est invérifiable, si un ordinateur nous dit qu’il pense, c’est parce qu’on lui a dit de dire qu’il pense <img data-src=" />









Pazns a écrit :



Des jouets de scientifiques, on en a quelques uns. J’ai souvenir de “processeurs biologiques” primitives dans une revue scientifiques il y a quelques temps, voire années.

L’intérêt dans le silicium réside quand même dans la solidité et la construction à la chaîne !







La derniere fois que j’en ai entendu parle il fallait des heures pour interpreter une instruction des plus simple, c’etait juste pour dire en fait. Beaucoup oublie que l’Homme lui meme est une machine au final, et ceux meme parmi les biologistes.





Bah, c’est sûr qu’en l’état un ordinateur n’est pas un être vivant, il manque notamment la capacité à se reproduire et à s’entretenir.

Nos programmes ne sont même pas dignes d’amibes primitives ; des êtres vivants à proprement parler, y a du chemin <img data-src=" />



j’ai jamais vraiment compris l’obligation de ce reproduire pour etre considere comme une forme de vie a vraie dire … pour moi un etre/une chose capable de penser ce qualifie deja … d’autant plus que dans le cas des ordis/machines, la capacite de reproduction n’est pas utile en soit, tout comme aujourd’hui l’espece humaine pourrait etre faite a partir de bebe eprouvette (maintenant si ca passe comme moyen de reproduction, alors les usines de fabrication d’ordi aussi <img data-src=" />)









Lafisk a écrit :



non pas du tout, je ne parle pas du tout de RDN mais bien d’ordi a adn, qui sont des ordinateurs qui ne reposent pas sur des echanges electriques mais dont le resultat est donne par une reaction chimique. L’homme est plutot dans cette categorie.







Par ailleurs, le terme d’ “ordinateur à ADN” me parait un peu maladroit.

L’ADN n’est qu’une brique de la vie parmi une foultitude d’autres plus, même si symbolique il n’est pas suffisant, et d’ailleurs ce n’est qu’un support de données d’une étape particulière.

Tout le boulot est abattu par ces pauvres enzymes, même pas reconnues !



Peut-être qu’elles devraient faire un syndicat pour faire valoir leurs droits ouvriers ? <img data-src=" />



Une bonne IA est une IA morte. Et la seule chose meilleure qu’une IA morte, est une IA agonisante qui te dis où trouver ses copines <img data-src=" />





<img data-src=" />








Pazns a écrit :



Par ailleurs, le terme d’ “ordinateur à ADN” me parait un peu maladroit.

L’ADN n’est qu’une brique de la vie parmi une foultitude d’autres plus, même si symbolique il n’est pas suffisant, et d’ailleurs ce n’est qu’un support de données d’une étape particulière.

Tout le boulot est abattu par ces pauvres enzymes, même pas reconnues !



Peut-être qu’elles devraient faire un syndicat pour faire valoir leurs droits ouvriers ? <img data-src=" />







C’est pas moi qui ait invente le nom <img data-src=" />










BlackTrust a écrit :



Je pense donc je suis ?

Mais bon, c’est invérifiable, si un ordinateur nous dit qu’il pense, c’est parce qu’on lui a dit de dire qu’il pense <img data-src=" />





Pas forcement, toi meme tu es incapable de dire pourquoi tu penses, tu es tout aussi incapable de justifier si tu penses ou pas …



On entre plutot dans les domaines de l’intelligence (dans le sens large du terme) la dont une des questions fondamentales reste le remise en cause de soi aussi.



Un ordinateur assez evolue peut repondre tout comme toi tu le ferais, qu’il pense, car il en est persuade, et tout comme toi, il n’en aura aucune preuve.









Lafisk a écrit :



Beaucoup oublie que l’Homme lui meme est une machine au final, et ceux meme parmi les biologistes.





Ouais, faut pas oublier que les biologistes, comme tout chercheur, aiment s’accrocher au peu de choses qu’ils pensent avoir trouvés









Lafisk a écrit :



j’ai jamais vraiment compris l’obligation de ce reproduire pour etre considere comme une forme de vie a vraie dire … pour moi un etre/une chose capable de penser ce qualifie deja … d’autant plus que dans le cas des ordis/machines, la capacite de reproduction n’est pas utile en soit, tout comme aujourd’hui l’espece humaine pourrait etre faite a partir de bebe eprouvette (maintenant si ca passe comme moyen de reproduction, alors les usines de fabrication d’ordi aussi <img data-src=" />)





L’important c’est l’idée de Pérennité à long-terme, la reproduction, et à court-terme, l’entretien.

On a là la notion d’espèce, ainsi que d’évolution, par exemple grâce aux mutations, qui sont une forme d’amélioration spontanée (darwinienne) ;

Et on a la notion de survie de l’individu lui-même face à son environnement.



il faudrait que l’entité artificielle dont on parle puisse se réparer elle-même, s’améliorer elle-même, ainsi que se multiplier intégralement. Y compris le matériel de la reproduction ! L’usine à ordinateurs devrait être intégrée dedans.









yvo2m a écrit :



non j’ai pas arrondi,

sur 10 personnes si 4 ont détecté la machine avec certitude, et que le reste à répondu au hasard (donc les 6 restants), cela donne :

4 + 6x50% = 710 qui ont détecté la machine

6x50% =310 qui se sont trompé

donc 70% et 30%

en gros si 60% des juges ont répondu au pif et que les 40% restant étaient sûr de leur résultat on arrive à 30% de détection de la machine !







<img data-src=" />



Sarah Connor n’a qu’à bien se tenir


Même si, il n’ a pas été concu dès le départ pour se faire passer pour un être humain, je trouve qu’ il manquerait encore peu de chose pour que Watson d’ IBM passe ce test de Turing avec (beaucoup) plus de succès.



Il nous restera bientôt plus que le test de Voight-Kampff pour déceler les machines des êtres humains …<img data-src=">




Eugene, le premier ordinateur à passer avec succès le test de Turing





Il suffit de lui demander quel est le sens de la vie et il est dans les choux. <img data-src=" />








Pazns a écrit :



Ouais, faut pas oublier que les biologistes, comme tout chercheur, aiment s’accrocher au peu de choses qu’ils pensent avoir trouvés







<img data-src=" /><img data-src=" />





L’important c’est l’idée de Pérennité à long-terme, la reproduction, et à court-terme, l’entretien.

On a là la notion d’espèce, ainsi que d’évolution, par exemple grâce aux mutations, qui sont une forme d’amélioration spontanée (darwinienne) ;

Et on a la notion de survie de l’individu lui-même face à son environnement.



il faudrait que l’entité artificielle dont on parle puisse se réparer elle-même, s’améliorer elle-même, ainsi que se multiplier intégralement. Y compris le matériel de la reproduction ! L’usine à ordinateurs devrait être intégrée dedans.





Dans ce cas, on ne parle vraiment pas de la meme chose, la c’est vraiment une vue purement biologique dont tu parles, mais plus philosophiquement, qu’est ce que la vie ? (non ce n’est pas 42 <img data-src=" />). Faire ce que font les biologistes est necessaire, meme si je pense qu’ils devraient s’ouvrir un peu sur leur definitions, mais cela reste une tres grosse restriction comparer a la question quand meme.



Si demain, je cree une IA assez forte pour paraitre vivante (du moins pensante) du point de vue biologique, ce n’est pas une forme de vie, d’un point de vue philosophique, on peut tres bien la considerer comme une forme de vie car on peut avoir bien d’autre criteres a ce qu’est la vie.



A ton besoin de respirer pour dire qu’un etre est vivant ? Une ia n’a pas besoin de respirer (de l’air). Une IA a t’elle besoin de ce reproduire ? (mais il y a le copier coller, le fork etc… <img data-src=" />)



La ou je veux en venir, c’est qu’au final, les biologistes ont une idee de la vie qui est assez centralisee sur l’Homme et ont souvent du mal a ce dire qu’il peut y avoir d’autre forme de “biologie” (dans le sens ou par exemple l’air n’est pas utile a une IA, mais l’electricite lui est necessaire). D’ailleurs, plus ou moins recemment on a decouvert, sur terre, une autre forme de vie … l’homme et si je ne m’abuse “toute” les formes de vie sur Terre sont censees etre base sur un element (phosphate, mais je me rappelle plus tres bien si c’est celui la ou un autre) et il y un element qui nous est fatal (j’ai oublie lequel, qui “tue” le phosphate) dont un lac en californie est assez charge pour que theoriquement aucune vie n’y soit possible. Et a la surprise generale, ils y ont trouve des choses la dedans dont l’adn n’est pas base sur le meme element que le notre.









RaoulC a écrit :



Un robot qui se fait passer pour un enfant de 13 ans?

Belle performance. <img data-src=" />



Parmis les questions du test, pouvais t’on lire :

“Coucou, tu veut voir ma bite?” <img data-src=" />







J’adore cette façon de penser



<img data-src=" /> <img data-src=" /> <img data-src=" />









tic tac a écrit :



Même si, il n’ a pas été concu dès le départ pour se faire passer pour un être humain, je trouve qu’ il manquerait encore peu de chose pour que Watson d’ IBM passe ce test de Turing avec (beaucoup) plus de succès.



Il nous restera bientôt plus que le test de Voight-Kampff pour déceler les machines des êtres humains …<img data-src=">





Perso, amha, Wilson est une des IA les plus impressionante que j’ai pu voir jusqu’ici et ce qui ce rapproche le plus du but que veut atteindre le domaine de l’IA










NeoSyfer a écrit :



Sarah Connor n’a qu’à bien se tenir







Surtout ses homonymes…<img data-src=" />









uncool a écrit :



C’est precisement là tout l’interet de la question, philosophique ou scientifique, que pose l’IA justement…



Dans le fond quelle certitude avons nous que nous ne sommes pas nous même de “grosses calculettes” ? <img data-src=" />







Entre 12 et 17 ans, on l’est tous <img data-src=" />



Encore un pseudo-succès au test de Turing. Sauf que l’entretien dure seulement cinq minutes, que la barrière est abaissée à 30% et que la comparaison est faîte avec un garçon de 13 ans.



Et puis, bon, le test de Turing, c’est probablement le truc le moins intelligent qu’a fait Turing.




Un ordinateur réussit à se faire passer pour un garçon de 13 ans



Il avait accès à Wikipedia et Pr0znTube ? <img data-src=" />








yvo2m a écrit :



non j’ai pas arrondi,

sur 10 personnes si 4 ont détecté la machine avec certitude, et que le reste à répondu au hasard (donc les 6 restants), cela donne :

4 + 6x50% = 710 qui ont détecté la machine

6x50% =310 qui se sont trompé

donc 70% et 30%

en gros si 60% des juges ont répondu au pif et que les 40% restant étaient sûr de leur résultat on arrive à 30% de détection de la machine !





Au temps pour moi, j’ai pris le truc completement a l’envers en fait … <img data-src=" />

Je sais pas comment je me suis tellement melange les pinceaux <img data-src=" />



Une “petite” nuance qui doit être prise en compte sur cette actualité :

http://io9.com/a-chatbot-has-passed-the-turing-test-for-the-first-ti-1587834715



<img data-src=" />



étonnant de voir la “presse” colportait les mêmes erreurs <img data-src=" />








Lafisk a écrit :



La ou je veux en venir, c’est qu’au final, les biologistes ont une idee de la vie qui est assez centralisee sur l’Homme et ont souvent du mal a ce dire qu’il peut y avoir d’autre forme de “biologie” (dans le sens ou par exemple l’air n’est pas utile a une IA, mais l’electricite lui est necessaire). D’ailleurs, plus ou moins recemment on a decouvert, sur terre, une autre forme de vie … l’homme et si je ne m’abuse “toute” les formes de vie sur Terre sont censees etre base sur un element (phosphate, mais je me rappelle plus tres bien si c’est celui la ou un autre) et il y un element qui nous est fatal (j’ai oublie lequel, qui “tue” le phosphate) dont un lac en californie est assez charge pour que theoriquement aucune vie n’y soit possible. Et a la surprise generale, ils y ont trouve des choses la dedans dont l’adn n’est pas base sur le meme element que le notre.







Très “géocentrique”, oui. Mais c’est tout ce qu’on connait, c’est déjà pas si mal =P



Phosphate ? J’ignore pour celui-là.

La brique du vivant qui est fondatrice sur notre planète c’est le carbone.

C’est, littéralement, un socle pour solidifier tout ce beau monde. notamment parce qu’il aime bien se mettre en chaînes.



Le silicium se prêterait bien à ce rôle lui aussi par exemple, mais la chimie veut que le carbone soit le plus rentable en terme de stabilité moléculaire, d’énergie, etc…



Tout le topo ici mieux que je ne pourrais l’expliquer !

http://fr.wikipedia.org/wiki/Biochimies_hypothétiques#Biochimie_du_silicium



On peut lui poser des questions sur les tortues dans le désert ? Je voudrais bien connaitre sa réponse ^^


heu dite c’est pas le moment de ce fabriquer quelque abris anti-atomique des fois que Eugène ce sente d’envie joueur avec quelque ogive nucléaire



<img data-src=" />


En dehors du baratin sur Skynet et autres fadaises, le test reste très très cool.



A plus forte raison maintenant que les assistants vocaux s’invitent dans tous les smartphones, et à moyen terme dans les ordinateurs, les voitures et la domotique.



La compréhension du langage naturel et la manipulation des concepts est un marché en plein boom.

L’intelligence n’a rien à y voir, le logiciel réagit toujours selon sa programmation.



Par contre les progrès d’Eugène finiront invariablement par INpacter Siri, Cortana et autres Google Everywhere.



Tony Stark échangeant des saillies avec Jarvis n’est pas si loin <img data-src=" />








Laskov a écrit :



heu dite c’est pas le moment de ce fabriquer quelque abris anti-atomique des fois que Eugène ce sente d’envie joueur avec quelque ogive nucléaire



<img data-src=" />





“Désolé Dave, je ne peux pas faire ça” (construire les abris)



5 minutes……<img data-src=" />



Pour m’amuser souvent avec des chatbox sur le net c’est justement après ce laps de temps que tu te rend compte que au final la chatbox est nul et qu’elle commence à se répéter ou faire trop d’erreurs.



Une conversation de 30 minutes serait beaucoup plus difficile et utile.


Pff, le jour où un ordinateur arrivera à se faire passer pour un chat, là on aura du soucis à se faire.





Pour le moment, simuler un esprit prépubère accros à de gros nénés, rien de plus simple.








von-block a écrit :



5 minutes……<img data-src=" />



Pour m’amuser souvent avec des chatbox sur le net c’est justement après ce laps de temps que tu te rend compte que au final la chatbox est nul et qu’elle commence à se répéter ou faire trop d’erreurs.



Une conversation de 30 minutes serait beaucoup plus difficile et utile.





Mouais, mais dans ce cas, faut que le bot soit féminin, sinon c’est pas crédible.









Pazns a écrit :



Très “géocentrique”, oui. Mais c’est tout ce qu’on connait, c’est déjà pas si mal =P



Phosphate ? J’ignore pour celui-là.

La brique du vivant qui est fondatrice sur notre planète c’est le carbone.

C’est, littéralement, un socle pour solidifier tout ce beau monde. notamment parce qu’il aime bien se mettre en chaînes.



Le silicium se prêterait bien à ce rôle lui aussi par exemple, mais la chimie veut que le carbone soit le plus rentable en terme de stabilité moléculaire, d’énergie, etc…



Tout le topo ici mieux que je ne pourrais l’expliquer !

http://fr.wikipedia.org/wiki/Biochimies_hypothétiques#Biochimie_du_silicium





Il parle de la publication sortie dans Sciences, très controversée vu la faiblesse des arguments expérimentaux présentés, où l’Arsenic aurait remplacé le Phosphore dans l’ADN d’un bactérie arsénotolérante. Ce postulat était émis vu la similarité de la chimie du phosphore et de l’arsenic, comme on a déjà mis en évidence avec d’autres éléments (Soufre/Sélénium, Fer/Manganèse …).

La respiration de l’arsenic chez les microorganismes était déjà connue. la substitution totale du phosphore par l’arsenic est toujours en débat.







cid_Dileezer_geek a écrit :



Il suffit de lui demander quel est le sens de la vie et il est dans les choux. <img data-src=" />





La réponse est 42 <img data-src=" />



Comme certains l’ ont peut être souligné, je trouve le projet Watson d’ IBM beaucoup plus intéressant et plus aboutit en matière d’ IA quand il s’ agit non seulement de comprendre le langage parler usuel mais plus encore, d’ y répondre de manière intelligible (via un écran ou de manière orale via un synthétiseur vocal).



Sa capacité d’ enregistrer des infos, de les trier, de les synthétiser pour ensuite les restituer dans un langage humain (argot y compris même si il a du mal encore à comprendre que bullshit n’ est pas toujours une réponse souhaitée) est parfaitement bluffante.





Après ses victoires au jeu Jeopardy (ou certains estiment qu’ il a par cet occasion plus que prouvé qu’ il dépassait largement le test de Turing) Watson prépare actuellement depuis 2012 l’ examen d’ entrée à l’ université de Tokyo (il devrait être prêt courant 2021).

5 examens sont au programme: math, science physique/biologique, sciences humaines, japonais et langues étrangères dans des test écrits et oraux…








Lafisk a écrit :



et franchement, entre 30% et 50%, je trouve que ca fait plutot un gouffre enorme … dans certain domaine, une difference de 2% est enorme, ce n’est pas une consideration lineaire qu’il faut avoir …



Un exemple a la con, hier je me suis refait un episode de breaking bad ou il y a un chimiste qui compare sa meth a celle de heisenberg, lui arrive a produire une meth pure a 96% et heisenberg a 99%, lui meme le dit, ca parait rien 3% mais ca represente un gouffre enorme en verite …





Vive les références ^^

30% c’est énorme, ca veut quand même dire que 60% des personnes (considérées intelligentes) prévenues d’une potentielle manipulation n’ont pas réussi à déterminer qu’elles étaient manipulées.



Sans prévenir ces personnes, ça aurait probablement été de l’ordre de 95%.

S’il n’y a que 5% qui clament que la foule se fait manipuler, ils passent pour des huluberlus extrémistes, et donc au final c’est la machine qui gagne car elle a su s’intégrer.

Ca va devenir un très gros problème de crédibilité pour les sites type site de rencontre dans quelques années, car rien n’assure les gens qu’ils ne sont pas juste en train de payer pour discuter avec des machines.Certains s’en accommoderont, mais les plus sérieux ne pourront plus utiliser ces outils.



le problème est que l’ordinateur a su trouver la limite de connaissance d’un enfant et l’imiter, mais il n’est pas forcément limité par ça à priori. L’intelligence de cette machine est donc peut être bien au dela de ça!





le premier ordinateur à passer avec succès le test de Turing





Ah ? Un progrès significatif dans l’intelligence artificielle ?





« Cette machine est intelligente car elle se comporte comme un être humain »





Ah, non. C’est simplement l’intelligence humaine qui a baissé. <img data-src=" />








jinge a écrit :



Vive les références ^^





On fait avec ce qu’on a en tete ^^”



30% c’est énorme, ca veut quand même dire que 60% des personnes (considérées intelligentes) prévenues d’une potentielle manipulation n’ont pas réussi à déterminer qu’elles étaient manipulées.



Sans prévenir ces personnes, ça aurait probablement été de l’ordre de 95%.

S’il n’y a que 5% qui clament que la foule se fait manipuler, ils passent pour des huluberlus extrémistes, et donc au final c’est la machine qui gagne car elle a su s’intégrer.

Ca va devenir un très gros problème de crédibilité pour les sites type site de rencontre dans quelques années, car rien n’assure les gens qu’ils ne sont pas juste en train de payer pour discuter avec des machines.Certains s’en accommoderont, mais les plus sérieux ne pourront plus utiliser ces outils.



le problème est que l’ordinateur a su trouver la limite de connaissance d’un enfant et l’imiter, mais il n’est pas forcément limité par ça à priori. L’intelligence de cette machine est donc peut être bien au dela de ça!



Non mais entre temps j’ai piger la ou je m’etais tromper en fait ^^”



Les sites de rencontre, c’est deja de la bonne arnaque a souhait de nos jours alors c’est clair que ca va pas s’arranger, m’enfin quand tu vois des gens idolatrer un hologramme au japon ou d’autre qui achetent un Cd de jackson alors que ce truc a ete completement synthetiser …. y’a du business a ce faire.









Lafisk a écrit :



Non mais entre temps j’ai piger la ou je m’etais tromper en fait ^^”



Les sites de rencontre, c’est deja de la bonne arnaque a souhait de nos jours alors c’est clair que ca va pas s’arranger, m’enfin quand tu vois des gens idolatrer un hologramme au japon ou d’autre qui achetent un Cd de jackson alors que ce truc a ete completement synthetiser …. y’a du business a ce faire.





Il est clair que ceux qui maitriseront l’intelligence artificielle dans 10 ans seront ceux qui seront riches ds 20 ans…



Les animaux de compagnie pourront etre “humains”, les profs dématérialisés… C’est embêtant mais en même temps quasi inévitable de part l’évolution…



Le seuil de 30% viendrait de Turing lui même. En 1950, Il pensait qu’en l’an 2000, 30% des juges du test qu’il avait inventé seraient trompés par des machines dotées d’une puissance suffisante.


L’inventeur du test de QI avait dit :





Le test de QI mesure l’intelligence car j’appelle intelligence ce que mesure ce test.





Ça s’applique dans les mêmes termes au test de Turing.

Ce sont des définitions subjectives mais qui ont le mérite d’exister.

Il faut juste les prendre pour ce qu’elles sont, avec leurs limites.


Je trouve dommage d’avoir intégré un facteur d’age, ça simplifie les interactions possibles.



Parce que bon, dans ce sens, ça ne dois pas être difficile de créer un bot qui imite à la perfection un enfant de 2ans derrière un clavier…








jinge a écrit :



Il est clair que ceux qui maitriseront l’intelligence artificielle dans 10 ans seront ceux qui seront riches ds 20 ans…



Les animaux de compagnie pourront etre “humains”, les profs dématérialisés… C’est embêtant mais en même temps quasi inévitable de part l’évolution…







C’est deja le cas dans beaucoup de domaines, dans l’industrie, l’automatisation a deja pris beaucoup de place … ca fait perdre du boulot mais c’est inevitable comme tu le dis.



on aura deplus en plus recours aux IA pour l’aide a la prise de decision, j’entendais il y a pas longtemps qu’une IA avait un siege au CA de je sais plus quelle entreprise mais que son avis etait plus consultatif qu’autre chose, mais c’est deja ca.



Je travaille, a titre perso sur un gros projet d’IA et si j’atteins mon but ca pourra aller asez loin aussi mais bon mais il est certain que de part et d’autre il y a des projet d’ia dans tout les domaines. Malheureusement, je doute que cela quiconque riche si ce n’est ceux qui le sont deja en fait. L’IA c’est de la R&D tres couteuse dont le succes est tres douteux et difficilement calculable a l’avance, donc pour en faire faut avoir de bons capitaux etc… Apres, tu as le gus comme moi qui fait ca dans son garage, mais avec un temps “limite” (boulot, famille, etc…) donc avant que j’ai des resultats … j’aurais surement plein de cheveux blancs malheureusement.









jinge a écrit :



Il est clair que ceux qui maitriseront l’intelligence artificielle dans 10 ans seront ceux qui seront riches ds 20 ans…



Les animaux de compagnie pourront etre “humains”, les profs dématérialisés… C’est embêtant mais en même temps quasi inévitable de part l’évolution…





Google, IBM et Microsoft seront donc riches dans 20 ans, voilà qui va nous changer !









Lafisk a écrit :



Je travaille, a titre perso sur un gros projet d’IA et si j’atteins mon but ca pourra aller asez loin aussi mais bon mais il est certain que de part et d’autre il y a des projet d’ia dans tout les domaines.





Le truc bien avec l’IA c’est que beaucoup des algorithmes et techniques existants (ou du moins publics) sont loin d’être optimaux. Du coup ça ouvre des perspectives pour un esprit ingénieux.









Reznor26 a écrit :



L’inventeur du test de QI avait dit :







Ça s’applique dans les mêmes termes au test de Turing.

Ce sont des définitions subjectives mais qui ont le mérite d’exister.

Il faut juste les prendre pour ce qu’elles sont, avec leurs limites.







QI veut dire quotient intellectuel, il ne mesure pas du tout l’intelligence mais un certain potentiel de capacite de reflexion … Ce test est de plus totalement biaises par de nombreux facteur, dont le facteur culturel, ben ouai, un petit nenfant africains nes au fin fond de la cambrousse n’arrivera pas aussi bien au test qu’un enfant qui accedent aux meilleurs ecole francaise par exemple.









HarmattanBlow a écrit :



Le truc bien avec l’IA c’est que beaucoup des algorithmes et techniques existants (ou du moins publics) sont loin d’être optimaux. Du coup ça ouvre des perspectives pour un esprit ingénieux.





Qu’est ce que tu entends par optimaux ? Non car deformation professionel oblige, pour moi optimisation d’un algo c’est le temps d’execution, et ca, en IA, je dirais qu’on s’en fiche un peu (pas vraiment vu les calculs a faire vaut mieux que ca aille vite mais c’est pas le principe numero 1 de l’ia) ce qui compte c’est avant tout le resultat, c’est a dire, est-ce que l’IA remplit le but de ce pourquoi elle a ete faite ? si oui, alors tu peux optimiser apres, sinon tu jettes a la poubelle.









Lafisk a écrit :



QI veut dire quotient intellectuel, il ne mesure pas du tout l’intelligence mais un certain potentiel de capacite de reflexion … Ce test est de plus totalement biaises par de nombreux facteur, dont le facteur culturel, ben ouai, un petit nenfant africains nes au fin fond de la cambrousse n’arrivera pas aussi bien au test qu’un enfant qui accedent aux meilleurs ecole francaise par exemple.





Je sais bien… mais c’est justement ce que je voulais dire avec sa citation <img data-src=" />









Reznor26 a écrit :



Je sais bien… mais c’est justement ce que je voulais dire avec sa citation <img data-src=" />





mmm okay, ca devait etre trop subtil pour moi ^^”









HarmattanBlow a écrit :



Apple, Google, IBM et Microsoft seront donc riches dans 20 ans, voilà qui va nous changer !





<img data-src=" />

si ça tombe ce seront eux qui y arriveront en premier <img data-src=" /><img data-src=" /><img data-src=" />









Lafisk a écrit :



non pas du tout, je ne parle pas du tout de RDN mais bien d’ordi a adn, qui sont des ordinateurs qui ne reposent pas sur des echanges electriques mais dont le resultat est donne par une reaction chimique. L’homme est plutot dans cette categorie.







Le cerveau et l’ordinateur à ADN n’ont absolument rien a voir au niveau de leur fonctionnement (si ce n’est qu’ils utilisent de la chimie a un moment dans leur process).



Revoit comment fonctionnent les ordinateurs a ADN, tu verras : )









raymondp a écrit :



En ce qui te concerne, il n’y a pas de doute, tu es bien un humain !







Je faisais juste référence à un vieux meme <img data-src=" />



Et je tapais d’autant plus dans le mille que ce robot pourrait servir à la traque aux pédophiles.. Ils ont bien fait un faux gamin pour piéger les pédos à la webcam (on en as parlé sur nxINpact aussi)









Lafisk a écrit :



Qu’est ce que tu entends par optimaux ? Non car deformation professionel oblige, pour moi optimisation d’un algo c’est le temps d’execution, et ca, en IA, je dirais qu’on s’en fiche un peu





Tu as plein de problèmes pour lesquels les algos existants fonctionnent peu ou mal. Pendant longtemps on a cru que c’était une question de puissance de calcul et puis on voit que les transistors ont été multipliés mais que les résultats stagnent.



Bref, tu as plein d’algos à revoir dans plein de domaines liés à l’IA, à commencer par notre modèle de réseau neural.







Yutani a écrit :



si ça tombe ce seront eux qui y arriveront en premier





Je ne les ai pas cité car je ne connais aucun projet d’IA venant d’Apple. Siri a au départ été développé par Nuance, pas par Apple. Alors que des projets d’IA chez MS, Google et IBM, il y en a à foison. Cela dit je me trompe peut-être, je serais heureux de découvrir leurs éventuels projets.



Y’a déjà des humains de 13 ans dont je ne sais pas s’ils passeraient le test de turing tellement ils ont du mal à s’exprimer.








Lafisk a écrit :



D’ailleurs, plus ou moins recemment on a decouvert, sur terre, une autre forme de vie … l’homme et si je ne m’abuse “toute” les formes de vie sur Terre sont censees etre base sur un element (phosphate, mais je me rappelle plus tres bien si c’est celui la ou un autre) et il y un element qui nous est fatal (j’ai oublie lequel, qui “tue” le phosphate) dont un lac en californie est assez charge pour que theoriquement aucune vie n’y soit possible. Et a la surprise generale, ils y ont trouve des choses la dedans dont l’adn n’est pas base sur le meme element que le notre.







Faut que tu demandes à morgan freeman…

On a vu le même documentaire <img data-src=" /> ( Voyage Dans L’Espace-Temps Saison 5 bientôt )









Ideal a écrit :



Faut que tu demandes à morgan freeman…

On a vu le même documentaire <img data-src=" /> ( Voyage Dans L’Espace-Temps Saison 5 bientôt )







Ouai, c’etait le 1ere saison que j’ai pas encore finie d’ailleurs.



J’aime bien l’approche qu’ils ont, notamment seul sur la question de “dieu”, moi qui ne croit pas en dieu, dans sa forme mythique du moins, ca m’a donne a reflechir cet episode (d’ou le forme mythique d’ailleurs)









Lafisk a écrit :



D’ailleurs, plus ou moins recemment on a decouvert, sur terre, une autre forme de vie … l’homme et si je ne m’abuse “toute” les formes de vie sur Terre sont censees etre base sur un element (phosphate, mais je me rappelle plus tres bien si c’est celui la ou un autre) et il y un element qui nous est fatal (j’ai oublie lequel, qui “tue” le phosphate) dont un lac en californie est assez charge pour que theoriquement aucune vie n’y soit possible. Et a la surprise generale, ils y ont trouve des choses la dedans dont l’adn n’est pas base sur le meme element que le notre.





A ce sujet je vous conseille le livre de SF Starfish, il n’approfondit pas la question d’un point de vue technique mais il est sympas. J’adore l’ambiance, que vous pouvez retrouvez dans le jeu vidéo FarSky.



Mais est-ce qu’il peut remplir un captcha ?


Et j’aimerais bien qu’on prennent un tas de gamins de 13 ans pour voir combien arrivent à passer un test de turing, comme ça, pour rire… (je voulais dire : pour la science !)


L’article a été corrigé pour remplacer les occurrences d’ordinateur par programme.



Désolé pour cette erreur bête <img data-src=" />








Kethounet a écrit :



Et j’aimerais bien qu’on prennent un tas de gamins de 13 ans pour voir combien arrivent à passer un test de turing, comme ça, pour rire… (je voulais dire : pour la science !)





Ca dépend des gamins aussi. Si tu cherches sur jv.com, t’en auras peut-être 10% qui passeront le test.









HarmattanBlow a écrit :



Encore un pseudo-succès au test de Turing. Sauf que l’entretien dure seulement cinq minutes, que la barrière est abaissée à 30% et que la comparaison est faîte avec un garçon de 13 ans.



Et puis, bon, le test de Turing, c’est probablement le truc le moins intelligent qu’a fait Turing.







Et en plus le garçon est censé être Ukrainien et s’exprimer en anglais sans que ce soit sa langue maternelle… bref en réalité le test de Turing n’a pas été passé. C’est juste qu’on a tordu les règles au maximum pour le permettre (ça fait de la pub) mais si on est un tout petit peu de bonne foi, on est loin du compte.





  • Conversations de 5 minutes

  • Loin de duper tout le monde (en toute logique il faudrait 50% pour qu’on puisse vraiment dire qu’il est indiscernable d’un humain)

  • Garçon de 13 ans

  • Pas sa langue maternelle



    C’est facile à ce compte là. Je peux vous faire un chatterbot qui est indiscernable d’un javanais de 2 ans et demi qui sait pas taper au clavier : ça va donner :

    rehziorh

    ‘“çà “” à’” çà”

    àt’r(àçt’r(àçàçà’ç(



    Et ce sera hyper crédible ! Impossible à discerner d’un vrai ! Turing test passé, CQFD !!



    Que la presse généraliste et donc incompétente se fasse quand-même l’écho de ce non-événement publicitaire, passe encore. Mais que NXI tombe dans le piège, j’avoue être un peu déçu.









Lafisk a écrit :



d’autre qui achetent un Cd de jackson alors que ce truc a ete completement synthetiser ….







HS mais… faut arrêter de tomber dans les délires complotistes. La chanson Xscape traine sur les réseaux p2p depuis 2003 au moins (je crois même que je l’ai téléchargée pour la première fois en 2002) et est clairement un rebut d’Invincible. Jackson a laissé derrière lui des dizaines si ce n’est des centaines de chansons à des états plus ou moins avancés. Des dizaines ont filtré sur internet pendant 10 ou 15 ans et il y en a certainement encore au moins autant qui restent dans les cartons et n’ont jamais filtré. Je vois pas pourquoi une maison de disque irait s’emmerder à aller “synthétiser” la voix de MJ, avec tout ce que ça suppose de difficulté gigantesque pour obtenir un résultat convaincant, alors qu’il y a juste à se servir dans la base de donnée des titres vraiment chantés par MJ et jamais publiés, et que rien qu’avec ça il y a de quoi faire sans problème une douzaine d’albums d’inédits.









Liam a écrit :



HS mais… faut arrêter de tomber dans les délires complotistes. La chanson Xscape traine sur les réseaux p2p depuis 2003 au moins (je crois même que je l’ai téléchargée pour la première fois en 2002) et est clairement un rebut d’Invincible. Jackson a laissé derrière lui des dizaines si ce n’est des centaines de chansons à des états plus ou moins avancés. Des dizaines ont filtré sur internet pendant 10 ou 15 ans et il y en a certainement encore au moins autant qui restent dans les cartons et n’ont jamais filtré. Je vois pas pourquoi une maison de disque irait s’emmerder à aller “synthétiser” la voix de MJ, avec tout ce que ça suppose de difficulté gigantesque pour obtenir un résultat convaincant, alors qu’il y a juste à se servir dans la base de donnée des titres vraiment chantés par MJ et jamais publiés, et que rien qu’avec ça il y a de quoi faire sans problème une douzaine d’albums d’inédits.





Sauf que c’est pas une rumeur quand c’est la maison de disques qui le vend comme ca …



Je suis pas très doué en stat, mais je sais que passer de 29 a 33% n’a rien de significatif, l’écart type est trop faible pour considérer qu’il ne s’agisse pas d’une différence lie au circonstance de la mesure et qu’il faudrait réaliser plus de tests pour affiner le résultat.








yvo2m a écrit :



Oui c’est ce que je me suis dit au début, mais si on réfléchi le hasard aurait donné 50%

30% n’est pas loin de 50% au final

en fait sur 10 personnes si 4 ont détecté la machine et les 6 restantes ont répondu au pif on obtient les 30% ! plus d’une personne sur 2 n’a pas su distinguer la machine !

Dans les fait ça c’est joué probablement sur des intuitions sans aucune certitude.





Ta méthodologie me parrait incorecte.

Pour un problème de classification binaire (deux solutions : humain ou machine), si l’on considère que la répartition est équitable, et que chaque juge à affaire à un tirage aléatoire, alors en répondant au pif, il a une chance sur deux de trouver les humains et les machines. Donc si l’on s’écarte de cette barre de 50%, c’est que le classifieur (les juges) sont capables de détecter effectivement les humains et les robots.

Si tu pars du principe que des juges ont répondu au pif, ça avantage autant une solution que l’autre.

En pratique, un classifieur binaire sera d’autant meilleur qu’il sera au dessus de 50%, si bien sur les classes possèdent des effectifs comparables (ce qu’il me semble évident qu’ils ont fait pour le test, ce serait un biais sinon).

Si l’on renverse la perspective, on peut considérer que le système qui doit tromper le classifieur est d’autant plus efficace qu’il dépasse les 50%.



En théorie dans ce contexte si on atteint 50%, cela implique déja un très bon résultat, puisque le classifieur en est réduit à un tirage aléatoire. Toutefois, à mon sens le résultat optimal serait une configuration ou les juges tendraient à répondre “tous humains”. Mais il faudrait pour cela que chaque juge n’aie qu’un seul cas à déterminer, de façon à ce qu’il ne se dise pas au bout d’un moment “tiens, ça fait que des humains, j’ai du rater des robots!”









Nikolaos a écrit :



Je confirme Jean_Peuplus mais j’ai pas bien compris ton explication.



Donc non 30%, c’est pas mal: il faut voir les 50% comme étant un résultat “parfait” et non 100%. Si on admet que les personnes sont incapables de faire la différence entre un enfant de 13 ans et un ordinateur, alors ils répondront au hasard: le hasard fait que l’on tendra vers les 50%.







SI tu ne sais pas faire la différence entre un humain et une machine, alors c’est que tu penses que les deux sont humains. A mon sens, dans un tel système, on demande au juge s’il pense avoir parlé à un humain ou à une machine. De même que je suis en train de te répondre, si tu es une machine, je pense tout de même que tu es un humain, et je ne vais pas affirmer au pif que tu es ceci ou cela.



Si on prend le principe qu’un sujet incapable de faire la différence entre un humain et une machine répond au pif, alors le test est complètement faussé, car dans ce cas, s’il parle à un humain, il peut penser qu’il s’agit d’une machine non différentiable d’un humain, et donc répondre au pif… La question est donc plutot : “pensez vous avoir parlé à un humain?” et la réponse oui ou non.

En fin de test on peut donc calculer le taux de vrais positifs, faux positifs, vrais négatifs, faux négatifs, et à partir de la voir dans quelle mesure le système trompe les juges.

La statistique importante ne sera pas combien d’humains ont été détectés comme humains, mais combien de machines ont été détectées comme humaines. Donc à priori,

nb_machines_classes_humaines/nb_machines, qui donne bien la probabilité pour une machine de se faire passer pour humaine.









Lafisk a écrit :



non pas du tout, je ne parle pas du tout de RDN mais bien d’ordi a adn, qui sont des ordinateurs qui ne reposent pas sur des echanges electriques mais dont le resultat est donne par une reaction chimique. L’homme est plutot dans cette categorie.



Pas les biologistes que je connais alors en tout cas, et a la fac l’etage de la biologie etait juste en dessous de celui de l’info, j’en ai regulierement parle avec certains qui niait farouchement qu’un ordi puissent etre considerer comme un etre vivant a part entiere… apres, peut etre que d’autre le font, mais pas ceux que j’ai rencontrer ;)





Bonjour,

Je suis d’accord avec toi sur le fait que l’humain est une machine moléculaire, et qu’une partie de sa machinerie est un énorme système basé sur des réactions chimiques, pour toutes sortes d’interactions de base, par exemple l’absorbtion de ressources nutritives, ou toute la machinerie cellulaire. Maintenant, si tu parles de la partie plus “haut niveau” de l’homme, à savoir son intelligence, elle repose bien sur des réseaux de neurones. Des interactions chimiques ont bien entendu cours, notamment au niveau des synapses; d’autre part, les potentiels électriques circulant sur les axones ont très certainement une composante chimique à un moment ou un autre. Mais les processus cognitifs ne font pas intervenir, à priori, l’ADN, autrement qu’en modelant la topologie initiale du cerveau, et donc des réseaux de neurones. La plasticité du cerveau est importante, et on se rend compte que le génotype de fait pas tout, le phénotype est également primordial.

Donc en pratique, le génome pose les limites maximales et minimales des capacités cognitives, mais c’est bel et bien le réseau de neurones qui est au coeur des performances de celui ci.



Les ordinateurs à ADN sont de jolies choses, mais ils ont une utilité pour des domaines spécifiques, principalement pour le traitement parallèle de masses de données. En revanche, en terme d’IA et d’intelligence tout court, je n’ai jamais entendu parler d’une utilisation de tels systèmes.



L’important, je dirais même l’essentiel dans le domaine de l’intelligence artificielle, c’est la capacité d’apprentissage. La finalité de la plupart des systèmes d’IA est de pouvoir apprendre des problèmes.



La problématique qui se pose en recherche dans l’IA, c’est donc d’être capable d’apprendre chaque problème correctement, de façon à pouvoir généraliser sur des cas inconnus. Je peux donc utiliser divers systèmes apprenants pour produire un système capable de te reconnaître visuellement, mais il m’en faudra un autre pour reconnaître ta voix, et encore un autre pour chaque problème.

(c’est une simplification, car par exemple un réseau de neurones peut avoir plusieurs sorties, mais l’idée générale est bien là : chaque système apprenant sera à priori capable de reconnaitre certains types de problèmes, et pas d’autres).



L’avantage du cerveau tient à sa taille immense : en matière de neurones, on est à plusieurs ordres de grandeur d’écart avec ce qui se fait en recherche pour les réseaux de neurones. Le problème principal est que si on veut entrainer un réseau de neurones, il faut des exemples. Plus le réseau est vaste, plus il faut d’exemples.



De plus les algorithmes d’apprentissage pour les réseaux de neurones sont coûteux, et plus le réseau croît, plus le coût augmente. De fait, il est exponentiellement plus difficile de faire croitre la taille du réseau, jusqu’au point ou il soit assez grand pour pouvoir apprendre de nouvelles classes de problème sans difficulté majeure.



Il y a sans doute une limitation dans les algorithmes d’apprentissage utilisés, car on ne connait pas l’algorithme d’apprentissage utilisé dans les réseaux de neurones biologiques.



Enfin, dernier point, les réseaux de neurones les plus utilisés sont de type MLP (perceptron multi-couches, ou Multi-Layer Perceptron), et dans ces réseaux la durée de propagation de l’influx nerveux n’est pas prise en compte. Il n’y a pas non plus de boucles. Il existe d’autres types de réseaux de neurones artificiels, comme les réseaux de hopfield (topologie plus complète), ou les réseaux à spikes (qui simulent les influx nerveux, l’affaiblissement, et la durée de propagation du signal, et d’autres phénomènes physiques), mais on à bien plus de difficultés à entraîner de tels réseaux.

Ils sont de fait moins utilisés pour des problèmes concrets que le classique perceptron multi-couches avec rétro-propagation du gradient (LE modèle qu’on utilisera par défaut pour un problème quelconque, car il fonctionne bien, est efficace, et on sait bien l’entaîner).

A noter qu’il existe plein d’autres modèles connexionnistes, avec par exemples les machines a vecteur de support, super à la mode en recherche, car l’apprentissage est super rapide, et les perfs excellentes.



Les réseaux de neurones continuent toutefois à évoluer, avec notamment le “deep learning”, qui s’intéresse à une notion plus évoluée de l’intelligence qu’avec les méthodes d’apprentissage classique, mais je n’en parlerai pas, car je ne maîtrise pas particulièrement ce domaine de recherche.

http://en.wikipedia.org/wiki/Deep_learning





Concernant la vie, et savoir si ce programme est vivant, au sens biologique premier, la réponse est clairement non, car la vie à diverses définitions bien précises:

http://en.wikipedia.org/wiki/Life#Biology



Tout le monde n’est pas d’accord dessus, mais certaines choses, comme la capacité à se reproduire, sont très fréquentes. Ce système est seulement capable de mimer le comportement de conversation d’un humain.

SI je transfère mes processus cognitifs dans une machine, de sorte que je reste moi, j’existerai, mais je ne serai plus “vivant” au sens biologique.



Maintenant la question intéressante serait plutôt de savoir si le système est “sentient” comme disent les anglophones, ou un équivalent en français “conscient” (même si le mot français a un sens plus complexe).

Ici, c’est plus difficile à déterminer, car comment déterminer précisément la conscience, et ce que ça implique?



S’agit il d’une modélisation symbolique de haut niveau des informations reçues?

A mon sens, ce système n’est pas conscient, car c’est probablement un système d’inférences, ou encore un système apprenant, sans nécessairement plus derrière.

Mais en est on réellement si loin?



Je pense qu’il faudrait un second test, un test de conscience, pour lequel il faudrait que la machine elle même puisse déterminer si elle est consciente ou non (pas juste le dire, mais avoir le raisonnement qui nous permet de dire que nous sommes des êtres conscients).



On peut imaginer qu’une machine programmée pour penser qu’elle pense librement, et qu’elle est consciente, ne serait pas si différente d’un cerveau humain. Si cela se trouve, ma pensée actuelle est la cause totalement prévisible de l’état électrique de mon cerveau, et peut-être ne suis-je qu’une simple machine biologique totalement déterministe, bien que si complexe qu’on aie l’impression qu’elle est imprévisible.



Pour le savoir il faudrait pouvoir me confronter à deux situations totalement identiques, avec exactement la même mémoire, le même état electo-chimique de mon cerveau, ce qui est malheureusement impossible pour le moment…



Enfin bref, bisous aux Inpacticiens, c’est toujours drole, sur ce genre de news, on se pose des questions bien particulières :)









Pazns a écrit :



Par ailleurs, le terme d’ “ordinateur à ADN” me parait un peu maladroit.

L’ADN n’est qu’une brique de la vie parmi une foultitude d’autres plus, même si symbolique il n’est pas suffisant, et d’ailleurs ce n’est qu’un support de données d’une étape particulière.

Tout le boulot est abattu par ces pauvres enzymes, même pas reconnues !



Peut-être qu’elles devraient faire un syndicat pour faire valoir leurs droits ouvriers ? <img data-src=" />







Salut, juste pour dire que les “ordinateurs à ADN” existent bel et bien, il y a des puces qui utilisent l’ADN pour réaliser des opérations :) C’est ultra-spécialisé, mais ça existe!









HarmattanBlow a écrit :



Le truc bien avec l’IA c’est que beaucoup des algorithmes et techniques existants (ou du moins publics) sont loin d’être optimaux. Du coup ça ouvre des perspectives pour un esprit ingénieux.





Logiquement tous les algos reconnus par la communauté scientifique ont été publiés, vu que c’est comme ça que fonctionne la recherche. Maintenant, l’IA, c’est une science qui a un certain nombre d’années (le perceptron de rosenblatt, ça remonte aux années 40!), et vu la masse de bonhommes costauds qui sont passés dessus, c’est difficile de prétendre améliorer significativement le domaine sans être chercheur à plein temps dans le domaine… Si on regarde les SVM, Vapnik et ses copains ont passé plus d’une décennie à faire des publications majeures sur le sujet pour amener les SVM à un niveau comparable à celui des MLP en terme de capacités d’apprentissage, et c’est pas n’importe qui (donc ça implique des moyens, sans doute plein de thésards, etc :) )







Lafisk a écrit :



Qu’est ce que tu entends par optimaux ? Non car deformation professionel oblige, pour moi optimisation d’un algo c’est le temps d’execution, et ca, en IA, je dirais qu’on s’en fiche un peu (pas vraiment vu les calculs a faire vaut mieux que ca aille vite mais c’est pas le principe numero 1 de l’ia) ce qui compte c’est avant tout le resultat, c’est a dire, est-ce que l’IA remplit le but de ce pourquoi elle a ete faite ? si oui, alors tu peux optimiser apres, sinon tu jettes a la poubelle.





Si tu veux faire de l’IA sur des problèmes très complexes, l’optimisation devient vite le problème numéro 1. En effet, plus le problème est complexe, plus tes données ont une dimension importante, c’est à dire beaucoup de variables. Pour plein de modèles connexionnistes, ça impactera directement la taille de ton système, et donc la encore plus la durée d’apprentissage. Sachant qu’en plus il y a des “hyper-paramètres” à optimiser, donc qu’il faut recommencer l’apprentissage plusieurs fois, et que tu dois faire de la validation croisée pour évaluer ton système et éviter le sur-apprentissage, tu finis vite par atteindre des durées de calcul si importantes qu’elles en deviennent impossibles.



Un exemple concret : pendant ma thèse, j’ai travaillé sur un système d’IA visant à utiliser des réseaux de neurones pour estimer l’alcoolémie de quelqu’un en utilisant des données décrivant sa façon de conduire dans un simulateur de conduite (donc sans éthylomètre). J’avais seulement 25 variables possibles, et je voulais déterminer la meilleure combinaison de ces 4 variables. Donc je prends 4 variables, et je teste mon réseau de neurones, et je note son taux de bonnes estimations. je teste une autre combinaison, et je vois si c’est mieux, et ainsi de suite.

Dans ce contexte, si je faisais une exploration systématique de toutes les combinaisons possibles, j’en aurais eu pour plusieurs mois de calcul, sur un I3 dual core avec hyperthreading (mon algo est parallélisé). J’aurais pu le faire tourner sur un cluster, mais ça aurait quand même pris des jours.

Et pourtant ma base d’exemples fait dans ce contexte 100 exemples, et mon réseau de neurones n’est pas trop gros.



Donc imagine si tu pars sur des problèmes a 10 000 variables!



Bien sur, il existe des techniques pour effectuer ce genre de sélection plus rapidement.

Mais le but de cette anecdote est d’illustrer le fait que l’optimisation n’est pas du tout anodine, sauf petit problème simple. Quand je vais dans des confs sur l’IA, il y a des mecs dont l’intégralité des travaux de recherche consiste non pas à utiliser des systèmes apprenants, mais à en optimiser un petit point pour gagner un peu de perfs. La sélection d’attributs (les variables à donner au système) est un domaine de recherche en soi, l’optimisation de la topologie des modèles aussi.



Cette optimisation peut parfois rendre des problèmes qui étaient impossibles à traiter du fait de la complexité trop lourde en terme de calculs solubles par des systèmes apprenants, grâce à des méthodes d’optimisation nouvelles.



Pendant ma thèse, un des trucs qui m’ont le plus ennuyé, c’était justement d’attendre que le réseau finisse de s’entrainer, pour voir si la configuration testée etait bonne ou pourrie. C’est assez pénible d’attendre 5 minutes un calcul pour voir qu’en fait c’est tout nul :)



Tiens au passage, la news a en image l’oeil de mon avatar :p

(bon, oui, j’ai fait cette machine spécifiquement pour qu’elle ressemble à HAL9000 -je l’ai appellée HAL3000, un petit projet raspberry pi ^^- donc forcément si la news met l’oeil de HAL, ça ressemblera :p )








sky99 a écrit :



Logiquement tous les algos reconnus par la communauté scientifique ont été publiés, vu que c’est comme ça que fonctionne la recherche.





La recherche existe aussi dans le privé. Et aux USA il y a plusieurs domaines où les meilleurs chercheurs ont tous été recrutés dans le privé.





vu la masse de bonhommes costauds qui sont passés dessus, c’est difficile de prétendre améliorer significativement le domaine sans être chercheur à plein temps dans le domaine…



Sauf lorsque les chercheurs se sentent obligés de ne pas prendre de risques et de faire de l’incrémental par-dessus un modèle dont tout le monde sait qu’il ne fonctionne pas.





donc ça implique des moyens, sans doute plein de thésards, etc :



Le recours à des thésards est autant une plaie qu’un avantage. Le problème avec les thésards et compagnie c’est que tu dois les faire bosser sur de la matière dont tu sais qu’ils pourront extraire de nombreux articles et une thèse (parfois inintéressants aux yeux de tous mais faisant des sujets valables et neufs), plutôt que de les faire bosser véritablement sur ce dont tu as besoin. Et ton propre temps se retrouve consacré à encadrer et administrer plutôt qu’à mettre en branle tes idées.



La recherche contemporaine, surtout dans l’informatique, fonctionne relativement mal.









sky99 a écrit :



Ta méthodologie me parrait incorecte.

Pour un problème de classification binaire (deux solutions : humain ou machine), si l’on considère que la répartition est équitable, et que chaque juge à affaire à un tirage aléatoire, alors en répondant au pif, il a une chance sur deux de trouver les humains et les machines. Donc si l’on s’écarte de cette barre de 50%, c’est que le classifieur (les juges) sont capables de détecter effectivement les humains et les robots.

Si tu pars du principe que des juges ont répondu au pif, ça avantage autant une solution que l’autre.

En pratique, un classifieur binaire sera d’autant meilleur qu’il sera au dessus de 50%, si bien sur les classes possèdent des effectifs comparables (ce qu’il me semble évident qu’ils ont fait pour le test, ce serait un biais sinon).

Si l’on renverse la perspective, on peut considérer que le système qui doit tromper le classifieur est d’autant plus efficace qu’il dépasse les 50%.



En théorie dans ce contexte si on atteint 50%, cela implique déja un très bon résultat, puisque le classifieur en est réduit à un tirage aléatoire. Toutefois, à mon sens le résultat optimal serait une configuration ou les juges tendraient à répondre “tous humains”. Mais il faudrait pour cela que chaque juge n’aie qu’un seul cas à déterminer, de façon à ce qu’il ne se dise pas au bout d’un moment “tiens, ça fait que des humains, j’ai du rater des robots!”





relis l’énoncé :



un juge doit entretenir une discussion par messages texte avec un ordinateur et un être humain, à l’aveugle.



Le juge parle à 2 personnes et sait que l’une d’elle seulement est un humain et que l’autre est une machine.

Si la machine est parfaite il sera incapable de différencier les deux et sera réduit à désigner au hasard qui est la machine (ou sur des arguments non pertinents).

Dans le meilleurs des cas on a donc statistiquement 50%. C’est pas moi qui le dit, c’est l’énoncé et la méthodologie du problème qui l’impose.









Lafisk a écrit :



Sauf que c’est pas une rumeur quand c’est la maison de disques qui le vend comme ca …







??? <img data-src=" />

La maison de disque n’a jamais dit autre chose que : “c’est des inédits de MJ”. Enfin inédit… Sur Xcape les titres ont les connaissait tous sauf She was lovin me (Chicago) et lovin you.



Tu doit confondre le fait que la maison de disque est fait des REMIX avec du matériel original. Par pour rien que sur l’édition deluxe ta aussi les originaux.



MJ à enregistré beaucoup plus de titre non sortie. 60 titre sur Bad, 80 sur Dangerous, une 30ene sur History, 70 sur invisible… plus tout les autres depuis invincible et ceux datant de Thriller.



Sans compter que je suis persuader que les délires d’immortalité de MJ l’ont pousser à enregistrer sans cesse pour survivre à sa mort.









Lafisk a écrit :



QI veut dire quotient intellectuel, il ne mesure pas du tout l’intelligence mais un certain potentiel de capacite de reflexion … Ce test est de plus totalement biaises par de nombreux facteur, dont le facteur culturel, ben ouai, un petit nenfant africains nes au fin fond de la cambrousse n’arrivera pas aussi bien au test qu’un enfant qui accedent aux meilleurs ecole francaise par exemple.







Plus restrictif encore.



La donnée brute d’un test de QI à l’époque de Binet est ce qu’on appelle l’âge mental. En gros l’idée:




  • Le sujet testé sait faire ce qu’em moyenne un enfant de X ans sait faire

    =&gt; On pose que son âge mental est X

  • En fait, vu sa date de naissance, son âge est Y

    =&gt; On pose que son QI est X/Y



    Évidemment, ainsi construit, un tel test:

  • Ne peut s’appliquer qu’à des enfants

  • Est très dépendant du contexte culturel



    Si le monsieur Binet devait se retourner dans sa tombe à chaque fois qu’on emploie le mot QI hors du contexte où il l’utilisait, on tiendrait là un beau modèle de tourne-broche.



Plutot mauvais ce bot, je comprend pas pourquoi on en fait tout un foin.



Si on lui demande 5 fois d’affilée “how are you” il répond 5 fois d’affilée “i’m having a great day”, un humain ne fait pas ca.

Toutes les 2 secondes il demande d’où on vient, c’est moche Alzheimer à 13 ans.

Et à “t’as mangé tes dents ?” j’ai eu droit à “en ukraine, on ne mange pas mes dents”.



Bref, je vois pas comment des gens ont pu se faire feinter, c’est loin d’etre un bon bot de discussion.



Bonus SMBC


Très bon sujet de new qu’il devrait y avoir plus souvent sur PCi.


C’est Rick Deckard qui l’a démasqué le premier <img data-src=" />








HarmattanBlow a écrit :



La recherche existe aussi dans le privé. Et aux USA il y a plusieurs domaines où les meilleurs chercheurs ont tous été recrutés dans le privé.





Bien sur!

cependant, si c’est dans le privé, soit c’est publié par le biais des publications scientifiques classiques, et donc le principe est connu, soit ce n’est pas publié, ou conservé secret. Et dans ce cas, ça n’existe pas, scientifiquement…

Du coup quiconque peut le réinventer :)







HarmattanBlow a écrit :



Sauf lorsque les chercheurs se sentent obligés de ne pas prendre de risques et de faire de l’incrémental par-dessus un modèle dont tout le monde sait qu’il ne fonctionne pas.





On peut difficilement affirmer que c’est le cas de TOUS les chercheurs! D’autre part, comment quantifier la proportion de ceux qui ne font que de l’incrément?

D’autre part, “tout le monde sait que ça ne fonctionne pas” jusqu’à ce que quelqu’un trouve une solution… C’est précisément ce qui est arrivé sur les réseaux de neurones artificiels pour lesquels on a montré qu’ils n’étaient pas capables de résoudre des problèmes non linéairement séparables… Jusqu’à ce qu’on rajoute la backpropo en 89 :)

Du coup, comment dire que “ça ne marche pas”, et que personne ne prend des risques?



Enfin, vu la taille du pool de chercheurs, on a des chances d’avoir des chercheurs “non courageux”, aussi bien que des hawking, capable d’affronter l’idée générale que telle chose est impossible.







HarmattanBlow a écrit :



Le recours à des thésards est autant une plaie qu’un avantage. Le problème avec les thésards et compagnie c’est que tu dois les faire bosser sur de la matière dont tu sais qu’ils pourront extraire de nombreux articles et une thèse (parfois inintéressants aux yeux de tous mais faisant des sujets valables et neufs), plutôt que de les faire bosser véritablement sur ce dont tu as besoin. Et ton propre temps se retrouve consacré à encadrer et administrer plutôt qu’à mettre en branle tes idées.





Certes, mais d’un autre coté ton thésard ne va pas travailler sur une problématique sans lien avec ton domaine de recherche… Et puis le chercheur n’est pas obligé d’encadrer des thèses sans cesse non?

D’autre part, si le thésard fouille “à coté” de tes problématiques, ça fait tout de même un nouveau chercheur qui fait avancer la science dans son ensemble! Certes, certains sujets sont de peu d’intérêts, mais d’autres sont chouettes :)







HarmattanBlow a écrit :



La recherche contemporaine, surtout dans l’informatique, fonctionne relativement mal.





C’est une information qui t’engage, je ne suis pas forcément d’accord. Encore une fois en conf, je vois plein de chercheurs qui font des trucs passionnants… Certains présentent des papiers dont on peut douter de l’intérêt, mais ce n’est pas le cas de tous!

D’autre part, si la recherche ne fonctionnait pas, on n’avancerait pas! Pourtant l’informatique dans son ensemble progresse quand même significativement, à mes yeux.

Maintenant, je concède que la recherche publique à bien sur des problèmes, notamment sur les financements, le débouché, etc. Mais de là à tout jeter, pas d’accord :)









yvo2m a écrit :



relis l’énoncé :



Le juge parle à 2 personnes et sait que l’une d’elle seulement est un humain et que l’autre est une machine.

Si la machine est parfaite il sera incapable de différencier les deux et sera réduit à désigner au hasard qui est la machine (ou sur des arguments non pertinents).

Dans le meilleurs des cas on a donc statistiquement 50%. C’est pas moi qui le dit, c’est l’énoncé et la méthodologie du problème qui l’impose.





Dans ce cas, je comprends ton raisonnement!



Du coup, à mon sens, ça pose un biais : si on peut s’appuyer sur le résultat des précédents tests, dans quelle mesure le test est il fiable?

il semble qu’il y ait pas mal d’implémentations de ce test, ceci dit, je reconnais que c’est un problème difficile, et qu’il n’y a probablement pas une méthodologie parfaite!



Bon rien ne vaut l’avis d’un scientifique et apparemment c’est faux pour cette news :



http://www.sciencesetavenir.fr/fondamental/20140610.OBS9953/non-le-test-de-turin…


Sous youtube, j’avais trouvé un cours en ligne inspiré du livre:

Artificiel Intelligence : A Modern Approach (3e édition) de Stuart Russell et Peter Norvig.

Si cela peu intéresser quelqu’un :)

https://www.youtube.com/user/hugolarochelle








sky99 a écrit :



On peut difficilement affirmer que c’est le cas de TOUS les chercheurs! D’autre part, comment quantifier la proportion de ceux qui ne font que de l’incrément?





Bien sûr ! De toute façon mes critiques ne sont pas dirigées contre les individus mais contre le système. Permets-moi d’être plus précis.



Je trouve la recherche beaucoup plus lente qu’elle ne devrait l’être à l’aune des moyens qui y sont consacrés, et relativement conformiste (c’est pas du A, c’est du Dijkstra.. Djikstra… Dikjstra… zut ! Ou alors l’heuristique est naze.).



* Lorsque je dois brasser des papiers et que 90% d’entre eux sont par nature sans aucun intérêt (et j’exclus les inévitables échecs - qui sont intéressants) ou présentant l’information d’une façon inadaptée (ciblés pour une impression noir/blanc en 2014, parfois au nombre de pages contraint - trop court ou trop long), je ne suis pas surpris par le précédent point : à l’évidence il y a du boulot “alimentaire”. Et en parlant de papiers, c’est une autre problématique mais je n’aborde même pas la question de l’édition scientifique, sinon nous allons tous nous énerver ! ^^



* Beaucoup des travaux qui sont réalisés en sciences informatiques ne relèvent à mon avis pas de la recherche. Je ne pense pas que des optimisations mineures ou des discussions sur des points de détail de certaines mises en oeuvre (implémentations) relèvent du travail d’un chercheur.







Maintenant, je concède que la recherche publique à bien sur des problèmes, notamment sur les financements, le débouché, etc. Mais de là à tout jeter, pas d’accord :)



Je n’ai pas dit que tout était à jeter ni que ça ne fonctionnait pas. Mais je pense que c’est très inefficient. Et tu as oublié un point : le management. Le publish or perish a à mon avis beaucoup à voir avec mes reproches.









yvo2m a écrit :



Oui c’est ce que je me suis dit au début, mais si on réfléchi le hasard aurait donné 50%

30% n’est pas loin de 50% au final

en fait sur 10 personnes si 4 ont détecté la machine et les 6 restantes ont répondu au pif on obtient les 30% ! plus d’une personne sur 2 n’a pas su distinguer la machine !

Dans les fait ça c’est joué probablement sur des intuitions sans aucune certitude.





Petite correction. Ici, le postulat n’est pas qu’il y a 2 conversations avec 1 humain et 1 robot, mais 10 tests de 5 minutes (cf liendans l’article).



Sky99, j’apprécie tes interventions. Même ci ce n’est pas mon domaine, j’ai effectué mon master adossé à un labo qui avait un petit pied dans l’IA. J’ai notamment eu des cours de réseaux de neurones ou nous avons codé un petit perceptron multicouche avec rétropropagation du gradiant. Une thésarde nous a également pas mal appris sur ce domaine passionnant.









HarmattanBlow a écrit :



* Lorsque je dois brasser des papiers et que 90% d’entre eux sont par nature sans aucun intérêt (et j’exclus les inévitables échecs - qui sont intéressants) ou présentant l’information d’une façon inadaptée (ciblés pour une impression noir/blanc en 2014, parfois au nombre de pages contraint - trop court ou trop long), je ne suis pas surpris par le précédent point : à l’évidence il y a du boulot “alimentaire”. Et en parlant de papiers, c’est une autre problématique mais je n’aborde même pas la question de l’édition scientifique, sinon nous allons tous nous énerver ! ^^







les informaticiens ne sont clairement pas des ecrivains …. la derniere fois que j’ai lu des papiers de recherche, j’ai failli m’endormir. Certes, c’est pas fait pour divertir mais bon, merde quoi, soit tu ecrit de facon a ce que ca soit agreable a lire ou tu vas droit au but … Combien j’ai pu en lire qui ecrivait comme il parlait <img data-src=" />









Clampu a écrit :



Petite correction. Ici, le postulat n’est pas qu’il y a 2 conversations avec 1 humain et 1 robot, mais 10 tests de 5 minutes (cf liendans l’article).









Each judge was involved in five parallel tests - so 10 conversations



non j’en déduit 5x2 conversations comme dit plus tôt







farny a écrit :



Bon rien ne vaut l’avis d’un scientifique et apparemment c’est faux pour cette news :



http://www.sciencesetavenir.fr/fondamental/20140610.OBS9953/non-le-test-de-turin…





La méthodologie est plutôt bonne, maintenant affirmer que le test de Turing as été passé par une machine est prématuré. Car on considère un enfant de 13 ans de langue non anglaise, interrogé en anglais. Les juges sont donc plus indulgents sur les questions et les réponses.

Il n’empêche que le programme est sacrément balaise !









Zdravo a écrit :



Une “petite” nuance qui doit être prise en compte sur cette actualité









Vincent_H a écrit :



L’article a été corrigé pour remplacer les occurrences d’ordinateur par programme.







Sinon, niveau ‘correction’, il y a aussi cet article intéressant :

http://www.wired.com/2014/06/turing-test-not-so-fast/



(en plus du lien de farny)









Loufute a écrit :



Sinon, niveau ‘correction’, il y a aussi cet article intéressant :

http://www.wired.com/2014/06/turing-test-not-so-fast/



(en plus du lien de farny)







Il y aura prochainement un article complémentaire <img data-src=" />









Vincent_H a écrit :



Il y aura prochainement un article complémentaire <img data-src=" />





<img data-src=" /> <img data-src=" />