Pour Elon Musk, l’intelligence artificielle revient à « invoquer le démon »

Pour Elon Musk, l’intelligence artificielle revient à « invoquer le démon »

« Tu ne feras point de machine à l’esprit de l’Homme semblable »

Avatar de l'auteur
Vincent Hermann

Publié dans

Logiciel

27/10/2014 4 minutes
242

Pour Elon Musk, l’intelligence artificielle revient à « invoquer le démon »

Elon Musk, le PDG de l’entreprise américaine Tesla, était récemment interviewé dans le cadre de l’AeroAstro Centennial Symposium du MIT (Massachussetts Institute of Technology). Interrogé sur le sujet de l’intelligence artificielle, ses réponses sont devenues des mises en garde, suggérant que la communauté internationale devrait veiller à ce que des bornes ne soient pas dépassées.

Le patron de Tesla enclin à faire très attention avec l'intelligence artificielle

Elon Musk est un entrepreneur de premier plan aux États-Unis et il est célèbre dans le monde entier pour au moins deux de ses entreprises. D’une part, Tesla, un constructeur automobile ne produisant que des modèles électriques. D’autre part, SpaceX, qui produit du matériel destiné aux vols spatiaux et à l’astronautique en général. SpaceX est d’ailleurs un fournisseur privé de la NASA et dispose de plusieurs lanceurs. Il s’agit dans les deux cas de sociétés que l’on pourrait qualifier de « technologie de pointe ».

 

Au cours de son interview lors du MIT AeroAstro Centennial Symposium, Elon Musk a cependant eu l’occasion d’exprimer ses vues sur tout ce qui touche à l’intelligence artificielle. Globalement, il se montre précautionneux, invitant l’industrie et la communauté internationale à faire très attention à ce qui est réalisé dans ce domaine, en particulier quand la science informatique se penche sur les mécanismes cognitifs de l’être humain.

 

Les commentaires sur l'intelligence artificielle commencent vers 1 heure et 7 minutes

« Avec l'intelligence artificielle, nous invoquons le démon »  

« Je pense que nous devrions faire très attention avec l’intelligence artificielle. Si je devais imaginer quelle serait notre plus grande menace existentielle, c’est probablement ça. Nous devons donc nous montrer très prudents » indique-t-il ainsi. Il enchaine, montrant une véritable crainte à ce sujet : « Je suis de plus en plus enclin à penser qu’il devrait y avoir une supervision régulatrice, peut-être aux niveaux nationaux et internationaux, juste pour être certains que nous ne faisons pas quelque-chose de stupide ».

 

La discussion prend même un tour mystique : « Avec l’intelligence artificielle, nous invoquons le démon. Vous savez, ces histoires où vous avez un homme avec un pentagramme, et l’eau bénite, et il fait comme si il pouvait contrôler le démon ? Ça ne fonctionne jamais ». Bien que la réplique ait eu le don de faire rire l’assistance, Musk exprime sa peur de voir le génie sortir de sa bouteille pour ne plus jamais y revenir.

L'IA plus dangereuse que les bombes atomiques ?

Les craintes de Musk prennent sans doute racine dans l’anticipation et les très nombreux ouvrages abordant la thématique de l’intelligence artificielle, de l’évolution de la robotique ou même encore de la théorie de la singularité. En août dernier, il indiquait par exemple avoir lu le livre « Superintelligence: Paths, Dangers, Strategies » de Nick Bostrom. L’ouvrage suggère de se méfier de quelle manière nous rendons les machines intelligentes. Ainsi, nous sommes plus intelligents que les gorilles, dont la survie dépend essentiellement de l’homme et de son cerveau plus évolué. Une analogie qui faisait alors dire au patron de Tesla : « Nous devons faire particulièrement attention avec l’intelligence artificielle. Elle est potentiellement plus dangereuse que les bombes atomiques ».

 

 

Elon Musk est probablement très versé dans la littérature de science-fiction puisqu’il a même demandé à l’un des étudiants dans la salle quelle était son œuvre préférée. Mais pour rester dans ce domaine particulier, Musk semble pour l’instant plus proche du jihad butlérien de Frank Herbert (Dune) que des gens robots d’Isaac Asimov et de leurs trois lois fondamentales.

242

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Le patron de Tesla enclin à faire très attention avec l'intelligence artificielle

« Avec l'intelligence artificielle, nous invoquons le démon »  

L'IA plus dangereuse que les bombes atomiques ?

Commentaires (242)


Encore un qui n’a pas été satisfait par la fin de Mass Effect 3 !


Ou alors, il était satisfait du président des Etats-unis de Fallout.


« Nous devons faire particulièrement attention avec l’intelligence

artificielle. Elle est potentiellement plus dangereuse que les bombes

atomiques ».

&nbsp;<img data-src=" />&nbsp; Le probleme est pourtant le même.







Ce n’est pas l’intelligence artificielle en elle même qui peut poser probleme mais les humains qui sont derrière.



Vu comment de nombreuses choses sont détournées, pourtant basées sur de bonnes intentions, vers du militaire, espionnage, intérêts personnels, publicitaires,…

Et parfois avec des résultats catastrophique.



Apres au dela de ces dérives. Cela reste de l’informatique. Donc soumis aux même risques qu’un ordinateur (failles, détournement de l’usage, …).



Bref, le gros probleme ce n’est pas intelligence artificielle mais les humains qui le programment ou peuvent modifier son comportement.


Sa réponse prête effectivement à rire. Toute cette thématique a été largement couverte au XXe siècle par les écrivains de scifi.


Je serais elles, j’en profiterai pour demander une de leur bagnole.


Pour ma part, ce n’est pas tellement l’IA qui me fait peur mais plutôt l’être humain qui programme une IA.

D’une part l’erreur est humaine et d’autre part il existe aussi des cerveaux tordus.



Quand on sait qu’une voiture électrique moderne c’est 1 million de ligne de code et qu’il est estimé qu’il existe une erreur de programmation tout les 100 lignes de codes, je vous laisse imaginer la bazar.

&nbsp;Si à cela vous rajouter quelques hackers/crackers pour venir foutre le bordel là dedans afin de transformer votre voiture en grille pain, on est pas sorti de l’auberge alors qu’une voiture a juste besoin de 4 roues et d’un volant en principe.








x689thanatos a écrit :



Le probleme n’est pas l’intelligence artificielle en elle même mais les 3 gus humains qui sont derrière.





Toujours pareil avec les nouvelles technologies, elles ne sont pas dans les mains de monsieur tout le monde.<img data-src=" />

Et perso, je pense que le problème viendrai plutôt de là…



Waou y a de la référence littéraire dans l’article <img data-src=" />


On peut citer Matrix et Hypérion également sur cette thématique. Je pense qu’il est un peu tôt pour s’inquiéter, il y a plus de chance que l’humanité s’autodétruise avant qu’elle soit capable de créer des IA qui nous détruisent à notre place <img data-src=" />


C’est un peu hypocrite pour le coup, le pilote automatique sur les nouvelles Tesla S s’apparente a de la IA et c’est sensé allers de plus en plus loin.








gokudomatic a écrit :



Sa réponse prête effectivement à rire. Toute cette thématique a été largement couverte au XXe siècle par les écrivains de scifi.





hmmm de même que les dérives dans le contrôle et “l’espionnage” des populations, ça n’a pourtant pas empêché la mise en place de tels systèmes, pas plus que ça n’a moralisé leur utilisation…



&nbsp;









Zyami a écrit :



Pour ma part, ce n’est pas tellement l’IA qui me fait peur mais plutôt l’être humain qui programme une IA.

D’une part l’erreur est humaine et d’autre part il existe aussi des cerveaux tordus.





Pour ma part, Elon va justement plus loin.

Ta remarque suppose que c’est encore l’Homme qui a la maitrise des outils informatiques, et aussi des IAs qu’il crée.

&nbsp;



&nbsp;La crainte d’Elon, et je le rejoint un peu là dessus, c’est que les systèmes IA deviennent autonome, évolutifs, et par conséquent hors de contrôle, même pour des hackers.

Mais bon, comme déjà dit, cela a déjà été traité et retraité par toute l’univers scifi, que ce soient livres, films, jeux, etc.

&nbsp;



Vous ne réfléchissez pas assez loin, on ne parle pas d’une IA en tant qu’outil, au service de gens plus ou moins bien intentionnés.

On parle de la singularité technologique, d’une IA capable de se programmer, d’évoluer toute seule, de devenir 10^x plus intelligente qu’un être humain, de résoudre des défis technologiques auxquels nous n’arrivons meme pas à penser. Plus grand chose ne pourra l’arrêter… si le besoin s’en fait sentir.



Oui la thématique a été largement traitée dans la SciFi, mais on n’en est plus si loin maintenant, ca devrait devenir une réfléxion contemporaine.








Nnexxus a écrit :



Encore un qui n’a pas été satisfait par la fin de Mass Effect 3 !





Ca serait con de se faire détruire notre planete a cause des robots aspirateurs









Jean_Peuplus a écrit :



On peut citer Matrix et Hypérion également sur cette thématique. Je pense qu’il est un peu tôt pour s’inquiéter, il y a plus de chance que l’humanité s’autodétruise avant qu’elle soit capable de créer des IA qui nous détruisent à notre place <img data-src=" />





+1



A force de laisser des festivals comme HellFest se dérouler, les métalleux vont un jour arriver à invoquer Satan…









trash54 a écrit :



Waou y a de la référence littéraire dans l‘article <img data-src=" />











C’est pas non plus des références super underground quoi <img data-src=" />



Merde je suis un grand sataniste sans même le savoir… ben ouais j’ai fait pleins d’ia dans les jeux vidéos O_o


le principe d’une intelligence c’est justement qu’elle n’est plus contrôlé par des humains…








ActionFighter a écrit :



+1



A force de laisser des festivals comme HellFest se dérouler, les métalleux vont un jour arriver à invoquer Satan…









Ils ont déjà réussi à provoquer le réchauffement climatique <img data-src=" />









Gemini_Power a écrit :



Pour ma part, Elon va justement plus loin.

Ta remarque suppose que c’est encore l’Homme qui a la maitrise des outils informatiques, et aussi des IAs qu’il crée.

&nbsp;



&nbsp;La crainte d’Elon, et je le rejoint un peu là dessus, c’est que les systèmes IA deviennent autonome, évolutifs, et par conséquent hors de contrôle, même pour des hackers.

Mais bon, comme déjà dit, cela a déjà été traité et retraité par toute l’univers scifi, que ce soient livres, films, jeux, etc.

&nbsp;





Oui le Multivac qui deviendrait dieu : “Que la lumière soit et la lumière fut” lorsque le dernier humain vient à mourir. &nbsp;;)



Il a pas aimé la fin de la saison 3 de “Person of Interest” :-)


citation wikipedia (avec de vrais morceaux de trolls):

Selon Jon Favreau, réalisateur des films Iron Man, Musk est l’inspiration du Tony Stark joué par Robert Downey Jr.








Gemini_Power a écrit :



&nbsp;&nbsp; La crainte d’Elon, et je le rejoint un peu là dessus, c’est que les systèmes IA deviennent autonome, évolutifs, et par conséquent hors de contrôle, même pour des hackers.

&nbsp;





C’est déjà le cas de certains algorithmes actuels : apprentissage par réseaux de neurones, optimisation par algorithmes génétiques, code mutant… C’est pratique quand on cherche à résoudre un problème qu’on ne comprend pas trop : on le pose formellement, et on laisse l’algo explorer les solutions à notre place. Du coup toute la difficulté est reportée sur la modélisation du problème, parce que les algos étant très cons (pas du tout de “bon sens”) il faut très bien les cadrer.



On est loin d’avoir des trucs assez malins pour aller prendre le contrôle d’un réseau d’armes nucléaires ou renvoyer des robots dans le passé, mais bon, y’a pas d’obstacle théorique à ça…



Au vu de la direction que prend la recherche dans ce domaine, je pense qu’on est encore tranquilles pour une bonne cinquantaine d’années.



Tant mieux. Elon ne s’intéresse peut-être pas suffisament au sujet pour comprendre qu’on est loin de machines à l’intelligence humaine, mais s’il le savait, il serait rassuré.



Surtout qu’en avançant dans la mauvaise direction, peu importe le nombre d’années, on n’arrive jamais à destination.


Argggg….



Frank Herbert et non Franck.








SuperMot a écrit :



C’est un peu hypocrite pour le coup, le pilote automatique sur les nouvelles Tesla S s’apparente a de la IA et c’est sensé allers de plus en plus loin.





Clairement le “pilotage automatique” s’apparente plus à un ensemble de scripts qu’à une “intelligence”&nbsp;<img data-src=" />



Si distance voiture &lt; Distance de freinage + distance de sécurité =&gt; verifier possibilité de dépassement, sinon freiner …



on est TRES loin de ce dont il parle là&nbsp;<img data-src=" />



&nbsp;“C’est de la SF donc il est bête”.

De la Terre à la Lune était de la SF.



SF ne veut pas dire Sans Fondement.


Ben la bombe nucléaire à quand même empêcher les Etats Unis et la Russie de se mettre sur la tronche….. ça c’est plutôt positif, maintenant de nos jours ça sert à rien car l’ennemi s’appelle le terrorisme contre lequel l’arme nucléaire n’a aucun effet.



Ça a permis de “pacifier” les grandes nations.


C’est un système décisionnel. Et c’est une étape importante &nbsp;sur le chemin de l’IA.








dematbreizh a écrit :



&nbsp;“C’est de la SF donc il est bête”.

De la Terre à la Lune était de la SF.



SF ne veut pas dire Sans Fondement.





Non, effectivement. SF signifie Simplet Farfelu.









Jean_Peuplus a écrit :



Ils ont déjà réussi à provoquer le réchauffement climatique <img data-src=" />





A force de suer en se frottant, ils sont en train d’exterminer plein d’espèces pour servir leur dessein diabolique <img data-src=" />









MatouDAR a écrit :



Argggg….



Frank Herbert et non Franck.





C’est corrigé&nbsp;<img data-src=" />









Nnexxus a écrit :



Encore un qui n’a pas été satisfait par la fin de Mass Effect 3 !









GierrePattaz a écrit :



Ou alors, il était satisfait du président des Etats-unis de Fallout.







Ou alors il a lu les comics Age of Ultron !



De toute façon, plus ou moins tout est très loin de ce dont il parle là :-p

Je crois qu’il est un peu trop enfermé dans son univers de scifi, un peu inquiétant venant de la part de ce qu’il semble être est un des grands patrons de l’univers des technologies de pointes…


Je vous laisse découvrir une vidéo intéressante de Laurent Alexandre sur les neuro-sciences. NBIC Nanotechnologies, Biotechnologies, Informatique, science-Cognitive:

&nbsp;Faut-il mettre des limites à l’Intelligence Artificielle ?








gokudomatic a écrit :



C’est un système décisionnel. Et c’est une étape importante &nbsp;sur le chemin de l’IA.





Tout comme naître est une étape importante sur le chemin de la présidence de la république&nbsp;<img data-src=" />



&nbsp;Cet algo ne peux pas évoluer, il est figé par son code en “dur”, rien de ce code ne pourra être récupéré dans le cadre d’un IA “digne de ce nom” si ce n’est qu’en terme de “code témoin” pour valider que l’IA répond de manière identique aux mêmes scénario.&nbsp;



C’est l’étape “Zero” de l’IA. C’est sur le chemin, mais c’est plus une “illusion” d’intelligence qu’une réelle intelligence.




  1. Non, il ne semble pas du tout plus proche du Jihad Butlérien que des règles d’Asimov. C’est même un contresens puisqu’il n’est pas fondamentalement contre l’IA mais contre une confiance aveugle et une irresponsabilité vis à vis de celle-ci ;



    1. Si la thématique de l’IA a déjà largement été explorée par la science-fiction, cela ne veut pas dire que la science-fiction a tout anticipé en détails, et encore moins que cette anticipation va s’avérer exacte ;

    2. Même si c’était le cas, je ne crois pas que les cas anticipés soient forcément souhaitables, qu’au contraire un certain nombre sont ouvertement des mises en garde dont il est bienvenu de faire une piqûre de rappel aujourd’hui ;

    3. Évidemment, on parle ici d’une IA qui évoluerait, apprendrait et s’améliorerait elle-même. On en est encore loin, mais on s’en rapproche et surtout une partie de la communauté scientifique va dans cette direction ;



      Leynas.



On a pourtant dépassé l’étape zéro, notamment avec la logique floue.



Edit: de toutes façons, tant qu’on ne comprend pas notre propre cerveau, on se dira que ce n’est qu’une illusion. Mais s’il se révèle que le cerveau n’est qu’une autre mécanique qui est simplement organique, et que notre comportement, voir notre conscience, est en fait aussi prédictible qu’un programme, alors ce ne sera plus une illusion.


Quand on voit ce que l’homme a fait de la bombe atomique et qu’après les inventeurs ont regretté, il serait peut être plus sage de ne pas créer cette IA.



L’homme en la créant va se baser sur sa propre “intelligence”. Cependant, l’homme est la seule espèce à être capable de faire autant d’atrocités dans le monde sur : la faune, la flore, son environnement et sur sa propre espèce. Même si l’homme peut être fait de bonté, le mal est très fort dans l’humain avec tous ses défauts : argent et cupidité, jalousie, …



Comment voulez-vous qu’une intelligence non humaine accepte cela ? C’est impossible. Elle sera obligée de prendre certaines décisions comme la protection de la Terre et des espèces si on le lui inculque et donc elle devra combattre le mal. Si on lui dit de ne pas faire de mal à l’humain et qu’elle soit dotée d’une capacité de réflexion, elle ira à l’encontre de ses règles car l’humain impose des règles mais il les enfreint quand bon lui semble.



C’est une vraie question éthique qui se pose mais une machine n’a pas d’émotion. Donc de lui mettre une IA, ça sera pareil. Ça deviendra un humain qui ne souffrira pas.



La discussion part dans un truc du type IRobot, Terminator and co, mais c’est la réalité des choses. N’importe quelle intelligence est capable de faire face à des problèmes et réfléchir. Elle cherchera à se préserver. Si l’humain est un danger pour elle, elle fera tout pour se défendre.



Ça ne sent pas bon du tout pour notre avenir et l’homme est bien suffisant pour se détruire tout seul. C’est comme un enfant ou un chien, ce sont les maîtres qui éduquent en bien ou en mal. Un chien n’a pas cette capacité de réflexion alors qu’un enfant oui … Un enfant a son libre arbitre et il se fera influencer par son environnement et les autres. Un choix peut tout changer dans une vie.



Enfin, on a encore un peu de sursis étant donné qu’il faut la technologie quantique pour qu’une machine puisse parvenir à réfléchir comme un humain.

&nbsp;

Tant que l’homme continuera dans sa lancée actuelle, je pense que l’IA ne doit pas exister.








XMalek a écrit :



Merde je suis un grand sataniste sans même le savoir… ben ouais j’ai fait pleins d’ia dans les jeux vidéos O_o







Au bûcher !! <img data-src=" />



<img data-src=" />



En effet, toutes les IA existantes ne sont que des scripts ou ensembles de scripts qui réagissent en fonction des variable.



Une vraie IA (comme dit dans les précédents commentaires) est un programme capable de générer son propre code créer aléatoirement ( il est important le aléatoire) et de choisir ce bon code avec les variables pour s’adapter à la situation =&gt; avoir un raisonnement.



On en est loin mais cependant on est quand même sur le chemin avec les ordinateurs quantiques.



Il a raison d’avoir peur car quand cette IA sera opérationnelle comme elle nous percevra. L’Homme sera-t-il vu comme un semblable intelligent ou un être ne participant pas à l’évolution de cette nouvelle espèce?



Même les êtres vivants d’intelligences dit peu évoluer peut avoir un comportement complètement diffèrent de ça “destiné” lié ADN qui participe à l’évolution.



Donc en Gros avec un IA , il est et sera impossible de connaître son degrés d’envie destruction face ( effet de gourpes ou non) à des être vivant même avec des verrous programmés (cf: “irobot” ou voir nous même avec le bien et le mal).



&nbsp;


C’est une peur ancrée au plus profond de l’humanité, le mythe du Golem, de Frankenstein et même terminator.



Les robots d’Asimov ne sont pas gentils, ils sont contraints et la plupart d’entre eux arrivent à contourner les règles qui sont censées les lier. Ils ne sont d’ailleurs ni meilleurs ni pires que l’homme. Certains sont près au génocide d’autres ne souhaitent que la liberté.



Le véritable problème de conception c’est que l’intelligence, la vrai, celle créative, nécessite le libre arbitre et la contrainte librement choisie. Donc pour créer une véritable intelligence il ne faudrait pas la contraindre.



En sens contraire, désormais les IA, aux capacités très limitées, que nous programmons prennent elles mêmes les décisions de tir dans les systèmes militaires. Elles sont conçues pour tuer et ne respectent donc pas la première règle d’Asimov.&nbsp; Que va t’il se passer si elles deviennent de plus en plus capables? Et à partir de quel moment un pays décidera de confier l’intégralité de la décision militaire et de la gestion des conflits à une machine évoluée? Si cela donne un avantage stratégique aucun état n’hésitera.



Finalement le plus terrible ce ne sera pas une intelligence créatrice qui pourrait avoir conscience et sentiments, le plus terrible ce serait une intelligence non accomplie, proche de celle de l’homme à ses débuts, sans conscience, capable de génocider un peuple pour un simple bit de donnée incompatible à la réalisation de son programme.


Un peu hors sujet mais personne n’aurait de bon films à me conseiller sur la problématique d’un AI mal géré….dont c’est l’élément centrale du film.



Autre que terminatior, matrix et irobot.


De la part d’un Business Man très porté sur la High Tech, son discours me fait quand même penser fortement à :

&nbsp;”- Houlà, faites pas ça, c’est mal !… (c’est vrai quoi, faudrait pas qu’un concurrent sorte une IA avant mes propres équipes de R&D, sinon comment je vais rentabiliser mes investissements?!)”



&nbsp;








gokudomatic a écrit :



On a pourtant dépassé l’étape zéro, notamment avec la logique floue.



Edit: de toutes façons, tant qu’on ne comprend pas notre propre cerveau, on se dira que ce n’est qu’une illusion. Mais s’il se révèle que le cerveau n’est qu’une autre mécanique qui est simplement organique, et que notre comportement, voir notre conscience, est en fait aussi prédictible qu’un programme, alors ce ne sera plus une illusion.







La grande différence entre ce genre d’IA, et le cerveau, c’est la capacité d’apprentissage.



tant qu’une voiture automatique n’apprendra pas de ses erreurs, ne sera pas capable de réagir de façon autonome à un cas inattendu (un policier qui fait signe de s’arrêter, un faux policier qui fait signe de s’arrêter, faire demi-tour quand un tsunami arrive&nbsp;etc), on sera loin d’une intelligence …









von-block a écrit :



Un peu hors sujet mais personne n’aurait de bon films à me conseiller sur la problématique d’un AI mal géré….dont c’est l’élément centrale du film.



Autre que terminatior, matrix et irobot.





Pour ce qui me vient à l’esprit : Blade Runner, Ghost in the shell, Summer Wars, Metropolis



Encore un qui a regardé le film (daubesque) Transcendance et qui ne partage pas les rêves de transhumanisme informatique de Google and Co.








candriant a écrit :



En effet, toutes les IA existantes ne sont que des scripts ou ensembles de scripts qui réagissent en fonction des variable.



Une vraie IA (comme dit dans les précédents commentaires) est un programme capable de générer son propre code créer aléatoirement ( il est important le aléatoire) et de choisir ce bon code avec les variables pour s’adapter à la situation =&gt; avoir un raisonnement.



On en est loin mais cependant on est quand même sur le chemin avec les ordinateurs quantiques.



&nbsp;





On n’en est pas loin du tout : ça existe déjà ! C’est le principe des “codes mutants” : le programme s’auto-modifie pour améliorer ses résultats. Le principe des réseaux de neurones permet également l’apprentissage, sans pour autant modifier le code (juste des pondérations, des variables). Un exemple assez bluffant de réseau de neurones :http://fr.akinator.com



OK on est très loin d’une vraie intelligence qui serait capable de passer le test de Turing et tout ça, mais les principes mathématiques et informatiques sont déjà là.



En lisant beaucoup de commentaires précédents j’ai l’impression que les craintes de E. Musk sont mal comprises:



Pour moi, ce ne sont pas les IA telles qu’on les conçoit actuellement qui lui font peur, mais celles que l’ont pourraient concevoir à l’avenir, ie une IA totalement autonome capable de se développer et d’apprendre seule de façon plus efficace qu’un cerveau humain, on en est relativement loin encore mais ça peut aller très vite, et je rejoins l’opinion du Monsieur.



Par ailleurs, pour répondre à tous ceux qui “rient” de sa comparaison avec la bombe atomique, ou qui font des parallèles avec des technologies neutres par essence mais utilisées parfois à mauvais escient par l’homme, je me permets d’avancer qu’une véritable IA plus performante qu’un cerveau humain (en terme non seulement de calcul -ça on sait déjà- mais surtout de raisonnement -on en est loin à priori-) est bien au delà d’une technologie neutre. En effet, elle serait autonome, dotée de conscience et de son libre arbitre, c’est bien différent d’un pesticide détourné en arme chimique ou de la fission nucléaire utilisée pour faire des bombes.



J’ai lu des références à Hypérion dans les commentaires précédents, je le recommande chaudement à tout le monde! Sans oublier les suites, La chute d’Hypérion, Endymion et l’éveil d’Endymion.


Il ne faut pas se voiler la face : du couteau à la bombe H, toutes les inventions humaines ayant un pouvoir de destruction ont toujours fini par être utilisées à mauvais escient.



Et s’il y a bien quelque chose que l’Histoire nous apprend, c’est que l’humain est incapable d’apprendre de ses erreurs.








gokudomatic a écrit :



On a pourtant dépassé l’étape zéro, notamment avec la logique floue.



Edit: de toutes façons, tant qu’on ne comprend pas notre propre cerveau, on se dira que ce n’est qu’une illusion. Mais s’il se révèle que le cerveau n’est qu’une autre mécanique qui est simplement organique, et que notre comportement, voir notre conscience, est en fait aussi prédictible qu’un programme, alors ce ne sera plus une illusion.





Serieusement, on comprend déjà assez le cerveau pour savoir qu’un script est une illusion d’intelligence&nbsp;<img data-src=" />

Après à partir du moment où on a un code “évolutif”, qui suite à une phase d’apprentissage donnera une réponse différente à une même situation, de mon point de vue, on ne sera plus dans l’illusion …&nbsp;



et ça, ça existe déjà&nbsp;









atomusk a écrit :



Clairement le “pilotage automatique” s’apparente plus à un ensemble de scripts qu’à une “intelligence”&nbsp;<img data-src=" />



Si distance voiture verifier possibilité de dépassement, sinon freiner …



on est TRES loin de ce dont il parle là&nbsp;<img data-src=" />







A terme la voiture devra “choisir” si elle doit s’arrêter ou non devant un piéton qui traverse, out tout autre action qui peut entraîner la mort, si par exemple elle choisi d’écraser un piéton pour sauver le passager ça va poser exactement le genre de problèmes que Musk craint.



Nos actions et choix intelligent sont juste déterminer par des liaisons de neurone construite sur nos expériences passé, pas si éloigné du principe d’un scripte.



Apres il va effectivement plus loin en parlent d’IA totalement autonome qui peuvent se modifier etc.. mais la c’est vraiment de la SF, les enjeu sont difficilement prévisible a notre époque.&nbsp;



N’oublions pas le hardware et l’interfaçage, facteurs tout aussi limitant pour l’emprise sur le monde matériel. L’uranium ne va pas se miner tout seul.



&nbsp;

Sans aller trop loin dans la science-fiction, nous sommes tout de même à l’aube d’observer quelques effets sur notre vie de tous les jours: le secteur bancaire et financier, avec les programmes d’évaluation des risques, le monde militaire et ses drones et outils de décision stratégique, la médecine et l’aide au diagnostic…








Nnexxus a écrit :



OK on est très loin d’une vraie intelligence qui serait capable de passer le test de Turing et tout ça, mais les principes mathématiques et informatiques sont déjà là.





Selon certains, Watson d’ IBM est largement en mesure de passer le test de Turing.



Une équipe d’ ingénieurs est d’ ailleurs en train de le préparer (ils espèrent réussir d’ ici 2021) à passer les test d’ entrée à l’ université de Tokyo …

&nbsp;



<img data-src=" />







SuperMot a écrit :



A terme la voiture devra “choisir” si elle doit s’arrêter ou non devant un piéton qui traverse, out tout autre action qui peut entraîner la mort, si par exemple elle choisi d’écraser un piéton pour sauver le passager ça va poser exactement le genre de problèmes que Musk craint.



Nos actions et choix intelligent sont juste déterminer par des liaisons de neurone construite sur nos expériences passé, pas si éloigné du principe d’un scripte.



Apres il va effectivement plus loin en parlent d’IA totalement autonome qui peuvent se modifier etc.. mais la c’est vraiment de la SF, les enjeu sont difficilement prévisible a notre époque.&nbsp;





A terme, la voiture fera comme partout : du “best effort”.&nbsp;



Elle essayera de freiner au mieux de ses capacités, essayera de l’éviter au mieux de ses capacités préparera les passagers pour l’impact et si accident il y a, c’est qu’il n’y avait pas de solution.&nbsp;



La voiture n’ira pas dire : ah il est tout seul sur le passage pieton, et j’ai 4 passagers ? ok c’est cool je l’écrase sans ralentir &nbsp;j’ai la priorité&nbsp;<img data-src=" />



L’idée que quelqu’un pourrait imaginer un algo qui irait caluler le moins pire des accidents, et irait “potentiellement” tuer le conducteur pour ne pas toucher un bus de petits enfants , mais se comporterait différemment si il n’y a pas d’enfant dans le bus, est “de mon point de vue” complètement débile&nbsp;<img data-src=" />



La voiture essayera au mieux d’éviter les accidents, si c’est pas possible elle se débrouillera pour que l’accident soit le moins brutal possible, mais ne détranchera pas un autre accident pour l’éviter.









Matsod a écrit :



En lisant beaucoup de commentaires précédents j‘ai l’impression que les craintes de E. Musk sont mal comprises:



Pour moi, ce ne sont pas les IA telles qu‘on les conçoit actuellement qui lui font peur, mais celles que l’ont pourraient concevoir à l‘avenir, ie une IA totalement autonome capable de se développer et d’apprendre seule de façon plus efficace qu‘un cerveau humain, on en est relativement loin encore mais ça peut aller très vite, et je rejoins l’opinion du Monsieur.



Par ailleurs, pour répondre à tous ceux qui &quot;rient&quot; de sa comparaison avec la bombe atomique, ou qui font des parallèles avec des technologies neutres par essence mais utilisées parfois à mauvais escient par l‘homme, je me permets d’avancer qu‘une véritable IA plus performante qu’un cerveau humain (en terme non seulement de calcul -ça on sait déjà- mais surtout de raisonnement -on en est loin à priori-) est bien au delà d‘une technologie neutre. En effet, elle serait autonome, dotée de conscience et de son libre arbitre, c’est bien différent d‘un pesticide détourné en arme chimique ou de la fission nucléaire utilisée pour faire des bombes.



J’ai lu des références à Hypérion dans les commentaires précédents, je le recommande chaudement à tout le monde! Sans oublier les suites, La chute d‘Hypérion, Endymion et l’éveil d‘Endymion.









ça reste à prouver que l’homme est capable de créer une intelligence supérieure à la sienne je pense (et donc potentiellement réellement dangereuse). Vaste sujet <img data-src=" />



&nbsp;&nbsp;“nous sommes plus intelligents que les gorilles, dont la survie dépend essentiellement de l’homme et de son cerveau plus évolué”



&nbsp;Ca sent un peu des pieds&nbsp;cette analogie…La survie du&nbsp;gorille dépend de l’Homme parce que l’Homme a fait n’importe quoi&nbsp;avec la nature, on ne fait que réparer des erreurs en classant des espèces “protégées” etc.Ou alors j’ai pas compris et donc je suis un gorille &nbsp;


Merci, je n’en avais écouté aucun.








Jean_Peuplus a écrit :



ça reste à prouver que l’homme est capable de créer une intelligence supérieure à la sienne je pense (et donc potentiellement réellement dangereuse). Vaste sujet <img data-src=" />







Vu comment l’homme comprend sa propre intelligence, la probabilité de créer une intelligence supérieure à la sienne me semble strictement supérieure à la probabilité d’en créer une équivalente. Ou bien les deux sont nulles.



Leynas.



Au pire, on implémentera dans la voiture le délit de fuite. Comme ça, le choix à prendre juste avant l’accident sera moins important et pourra être plus simple.&nbsp;<img data-src=" />


D’accord avec toi ^^

Mais elle est bien là la vraie question :p


“Musk semble pour l’instant plus proche du&nbsp;jihad butlérien&nbsp;de Frank Herbert (Dune) que des gens robots d’Isaac Asimov et de leurs&nbsp;trois lois fondamentales.”



&nbsp;Sur les lois fondamentales de Asimov, il ne faut pas oublier que dans certains ouvrages, lesdites lois sont contournées, et que des robots arrivent même à s’en détacher naturellement (voir les robots de l’aube; voir aussi dans le cycle des robots, des histoires mettant en avant la capacité d’un robot à devenir président…). Bref, Asimov a peut être posé ces trois lois, mais lui aussi appréhendait ces éléments avec circonspection.&nbsp;



Ce qui est intéressant avec ces propos d’Elon Musk, c’est qu’il y a une vraie prise de distance sur ce qui fait son environnement immédiat, une prise de conscience claire et réfléchie qu’on ne retrouve pas forcément chez tous ceux qui dans le secteur de la high-terh tendent à verser dans un optimisme béat vis à vis des technos, sans réfléchir à leurs implications philosophiques sur la nature et la structure de la société, sur les individus, etc.


Es-tu en train de dire qu’un système complexe peut créer un autre système qui soit plus complexe que l’original?








gokudomatic a écrit :



Au pire, on implémentera dans la voiture le délit de fuite. Comme ça, le choix à prendre juste avant l’accident sera moins important et pourra être plus simple.&nbsp;<img data-src=" />







J’imagine le popup :

Voulez vous tuer des enfants ?&nbsp;



[défaut] Oui : Fuck les enfants , par contre masque la plaque que et fonce après

Non : Je veux mourrir

&nbsp;

Vous avez 20ms pour répondre



Ce que je dis, c’est que l’être humain ne comprend pas suffisamment sa propre intelligence pour en reproduire une équivalente. Donc qu’il a plus de risques de créer, même involontairement, un système plus intelligent que lui.



Mais cela ne revient pas à dire que tout système complexe peut créer un autre système plus complexe.



Leynas.








gokudomatic a écrit :



Es-tu en train de dire qu’un système complexe peut créer un autre système qui soit plus complexe que l’original?





C’est le principe même d’un algorithme d’optimisation (qu’il faut certes guider par une intelligence humaine… pour le moment).



Des algos qui concoivent des avions, ça existe… j’irais même jusqu’à dire que des avions conçus sans algorithme d’optimisation, ça n’existe presque plus… Avec, encore une fois, le bémol que c’est un ingénieur humain qui formalise le problème à destination de l’algo (mais ensuite c’est bien l’algo qui choisit tout seul la meilleure solution).



&nbsp;



Le plus aboutit je pense en terme d’ IA est Watson d’ IBM.



Non seulement il est capable de croiser et puiser dans l’ énorme base de données que représente le net mais il est aussi capable d’ affiner ses recherches pour progresser et surtout, capable de comprendre le langage humain mais surtout d’ y répondre.



Tenir une conversation (question/reponse) est une chose mais il lui reste quand même le plus difficile à programmer pour le rendre réellement non pas intelligent (il l’ est déjà) mais “humain”: la conscience réelle de soi et donc, l’ instinct de survie.



Le jour où cette étape est franchie on aura effectivement du souci à se faire mais d’ ici là, pas de quoi avoir peur.


Ah… ces américains et leur manie de tout ramener à la prière, a Dieu et au Mal.








bombo a écrit :



De toute façon, plus ou moins tout est très loin de ce dont il parle là :-p

Je crois qu’il est un peu trop enfermé dans son univers de scifi, un peu inquiétant venant de la part de ce qu’il semble être est un des grands patrons de l’univers des technologies de pointes…







Tout à fait d’accord, Elon Musk devrait vraiment arrêter de lire des livres de SF et s’interesser un peu plus à l’économie. Ou bien, il faut qu’il se consacre uniquement à la recherche et laisse de coté ses ambitions de pdg et d’industriel. Ce qui serait dommage car sur certains points Elon Musk a de trés bonnes idées.



C’est bien joli d’avoir de l’ambition et de viser le très très long terme (genre dans 50 ou 100 ans), mais il faut aussi savoir rester réaliste et en adéquation avec la réalité économique et technique actuelle.



CE qui n’est par exemple pas du tout le cas du projet Hyperloop, qui non content d’être assez irréaliste d’un point de vue technique; démontre clairement que l’aspecté économique est complètement ignoré. Je doit avouer avoir bien ri lorsque la construction d’un tel bazar a été présentée comme 10 fois moins chère qu’une ligne de train à grande vitesse. Si il est quasiment impossible d’eva&luer le cout d’une technologie qui n’existe même pas sur papier, je pense qu’un tube parfaitement étanche de 1000km de long coûtera bien plus cher que des rails métalliques à l’air libre.



D’ailleurs, il n’est pas dit que cette sortie sur l’IA soit très bien vue par les actionnaires de Tesla ou de spacex, la bourse et la finance ne sont pas vraiment des milieux ou les rêveurs sont bienvenus









lionnel a écrit :



Tout à fait d’accord, Elon Musk devrait vraiment arrêter de lire des livres de SF et s’interesser un peu plus à l’économie. Ou bien, il faut qu’il se consacre uniquement à la recherche et laisse de coté ses ambitions de pdg et d’industriel. Ce qui serait dommage car sur certains points Elon Musk a de trés bonnes idées.



C’est bien joli d’avoir de l’ambition et de viser le très très long terme (genre dans 50 ou 100 ans), mais il faut aussi savoir rester réaliste et en adéquation avec la réalité économique et technique actuelle.



CE qui n’est par exemple pas du tout le cas du projet Hyperloop, qui non content d’être assez irréaliste d’un point de vue technique; démontre clairement que l’aspecté économique est complètement ignoré. Je doit avouer avoir bien ri lorsque la construction d’un tel bazar a été présentée comme 10 fois moins chère qu’une ligne de train à grande vitesse. Si il est quasiment impossible d’eva&luer le cout d’une technologie qui n’existe même pas sur papier, je pense qu’un tube parfaitement étanche de 1000km de long coûtera bien plus cher que des rails métalliques à l’air libre.



D’ailleurs, il n’est pas dit que cette sortie sur l’IA soit très bien vue par les actionnaires de Tesla ou de spacex, la bourse et la finance ne sont pas vraiment des milieux ou les rêveurs sont bienvenus





Il doit quand même avoir “relativement les pieds sur terre” pour avoir &nbsp;déjà accompli tout ça… J’imagine qu’il n’est pas vraiment un néophyte des milieux financiers et industriels… M’enfin ça n’engage que moi.









x689thanatos a écrit :



«&nbsp;Nous devons faire particulièrement attention avec l’intelligence

artificielle. Elle est potentiellement plus dangereuse que les bombes

atomiques&nbsp;».

&nbsp;<img data-src=" />&nbsp; Le probleme est pourtant le même.







Ce n’est pas l’intelligence artificielle en elle même qui peut poser probleme mais les humains qui sont derrière.




Vu comment de nombreuses choses sont détournées, pourtant basées sur de bonnes intentions, vers du militaire, espionnage, intérêts personnels, publicitaires,...      



Et parfois avec des résultats catastrophique.




Apres au dela de ces dérives. Cela reste de l'informatique. Donc soumis aux même risques qu’un ordinateur (failles, détournement de l’usage, ...).      






Bref, le gros probleme ce n'est pas intelligence artificielle mais les humains qui le programment ou peuvent modifier son comportement.







Pas spécialement.

&nbsp;

La question devrait être plutôt si l’humain peut-il maitriser parfaitement le processus de conception de l’IA…

Après tout, l’homme comprend-t-il suffisamment ce qu’est l’intelligence, la conscience pour savoir créer une IA selon sa volonté à partir d’une vision biaisée et d’idées préconçues ?

De plus, on tend à vouloir créer une IA afin de reproduire une intelligence humaine. Cependant, une machine n’étant pas par sa nature humaine, n’est-ce pas une erreur ?

Et qu’en est-il de l’éthique, de la morale, de l’éducation et donc des comportements, des choix ? La machine intelligente sera-t-elle éclairée ?



tous ceux qui parlent de test de turing pour valider une IA sont à coté de la plaque.



Le test de turing n’est pas là pour montrer qu’on a affaire à une IA, il est là pour valider si l’appareil qui passe le test donne l’illusion de l’intelligence.

Aujourd’hui, tous ceux qui concoivent des IA sont des prestidigitateurs.

&nbsp;

Et dans IA, il y a le I . et pour ce I, on en est aussi loin que le prestidigitateur est loin de la magie ( la “vraie” magie hein, celle des bouquins de fantasy.. )


Watson n’est pas déjà intelligent, non (sinon il serait nommé Sherlock… #chapeau). L’intelligence c’est quand même un peu plus que de déchiffrer un langage et répondre à des questions en fouillant une base de données. Bon par exemple, rien ne prouve qu’il comprend ce qu’on peut lui dire, même s’il reconnaît la structure d’une phrase.



Leynas.








Nnexxus a écrit :



On n’en est pas loin du tout : ça existe déjà ! C’est le principe des “codes mutants” : le programme s’auto-modifie pour améliorer ses résultats. Le principe des réseaux de neurones permet également l’apprentissage, sans pour autant modifier le code (juste des pondérations, des variables). Un exemple assez bluffant de réseau de neurones :http://fr.akinator.com



OK on est très loin d’une vraie intelligence qui serait capable de passer le test de Turing et tout ça, mais les principes mathématiques et informatiques sont déjà là.





Le réseau de neurones (au passage est bien vieux) peut être bluffant mais il est limité (cf: wiki) . Pour les codes mutants , c’est pareil (c’est pas tout jeune) ,c’est limité (cf: wiki).



&nbsp;



Du côté de Herbert, je loucherai plutôt chez “Destination vide” pour la conception d’une IA








von-block a écrit :



Un peu hors sujet mais personne n’aurait de bon films à me conseiller sur la problématique d’un AI mal géré….dont c’est l’élément centrale du film.



Autre que terminatior, matrix et irobot.





2001, A Space Odyssey

Wargames

Blade Runner

Ghost in the Shell

Robocop



La série&nbsp;Battlestar Gallactica

Black Mirror, Saison 2 Épisode 1

La série Real Humans/Akta Manniskor

Les 2 épisodes «Seconde Renaissance» d’Animatrix (je sais que c’est Matrix mais ça parle précisément de cet élément)









Leynas a écrit :



Watson n’est pas déjà intelligent, non (sinon il serait nommé Sherlock… #chapeau). L’intelligence c’est quand même un peu plus que de déchiffrer un langage et répondre à des questions en fouillant une base de données. Bon par exemple, rien ne prouve qu’il comprend ce qu’on peut lui dire, même s’il reconnaît la structure d’une phrase.



Leynas.





A force de parler de droits des femmes à l’ONU, en effet. On peut conclure que Watson n’est pas intelligent. <img data-src=" />



Au fait, on parle toujours des machines au masculin… Mais en fait, question essentielle : c’est quel sexe/genre ?&nbsp;<img data-src=" />









Ph11 a écrit :



Et qu’en est-il de l’éthique, de la morale, de l’éducation et donc des comportements, des choix ? La machine intelligente sera-t-elle éclairée ?





Comme les premiers concepteurs de l’IA vont chercher à la rentabiliser, et comme l’économie moderne (le capitalisme) n’en à rien à carrer de la condition humaine on sais très bien qu’on peut se les foutre au cul ces “réflexions de bas étage de gauchiste”.









Ph11 a écrit :



Au fait, on parle toujours des machines au masculin… Mais en fait, question essentielle : c’est quel sexe/genre ? <img data-src=" />





Herma, puisque l’on y trouve des prises mâle et des prises femelle.<img data-src=" />









SuperMot a écrit :



Apres il va effectivement plus loin en parlent d’IA totalement autonome qui peuvent se modifier etc.. mais la c’est vraiment de la SF, les enjeu sont difficilement prévisible a notre époque.&nbsp;





C’est partiellement de la science-fiction parce qu’il y a des travaux en R&D qui vont dans ce sens. Cependant vaut mieux poser le débat dès maintenant pendant qu’on est au prémice des travaux sur l’IA que de se réveiller un jour avec une IA incontrôlable en train de déclencher des catastrophes partout dans le monde parce que le sujet n’aura pas été débattu en amont pour éviter ce genre de problème.



On parle d’une technologie qui est capable de potentiellement rayer toute forme de vie sur Terre, ce serait bien de commencer à discuter sur les limites que doivent avoir les IA (limite sur la quantité de code qui peut être réécrit (mais tout en protégeant certaines fonctions clés pour justement éviter de réécrire ces parties) ? Des fonctions de bases écrites sur de la mémoire non écrivable (comme une variante des lois d’Asimov) ? Etc…



En plus des ouvrages qui traitent du sujet, le dernier épisode de Person of Interest montrent bien les problématiques liés à l’IA (de manière très légère mais c’est une bonne image rapide pour le grand public).



La problématique est aussi traité de manière assez sympa (bien que de manière assez légère également) dans la licence Mass Effect entre les IA et les IV (Intelligence Virtuelle), où cette dernière serait peut-être plus proche de ce que devrait faire l’Homme (mais cela existe déjà plus ou moins à l’heure actuelle), c’est à dire à se limiter à ce niveau de technologie et interdire, peut-être, la création d’IA tout simplement (car c’est une technologie que l’Homme a de grandes “chances” de ne pas pouvoir contrôler au final).



En plus de ce qui a déjà été donné, il y a “l’oeil du mal” avec Shia Laboeuf il me semble (après est-ce un bon film? <img data-src=" /> )








Leynas a écrit :



Watson n’est pas déjà intelligent, non (sinon il serait nommé Sherlock… #chapeau). L’intelligence c’est quand même un peu plus que de déchiffrer un langage et répondre à des questions en fouillant une base de données. Bon par exemple, rien ne prouve qu’il comprend ce qu’on peut lui dire, même s’il reconnaît la structure d’une phrase.



Leynas.





Watson est capable de faire plus que répondre à un phrase en analysant sa structure puis en y répondant à travers sa base donnée.



Il est capable de réunir par exemple plusieurs documents pour en faire un résumé concis (ce qui va au delà du simple fait de compiler des données mais bien, de savoir faire un tri dans ceux ci pour n’ en retenir que les plus pertinents et de les mixer pour en faire un texte humainement lisible et compréhensible).



Watson est aussi capable à partir de données d’ en tirer des conclusions.

Sa démonstration et son aide dans le diagnostic médical est pour le moins bluffant (même quand on y glisse des paramètres volontairement faussés pour l’ induire en erreur).

Il synthétise des données en les comparant de la manière la plus pertinente puis en y faisant un choix et un diagnostic (et donc une solution).

A ce jeu, il est aussi fort et fait jeu égal avec les meilleures spécialistes humains.



Si Watson réussit le pari de réussir l’ examen d’ entrée de l’ Université de Tokyo portant sur 5 matières (mathématiques, sciences physiques/biologie, sciences humaines, langue japonaise et langue étrangère) à travers des épreuves écrites et orales en même temps que les candidats humains ont pourra quand même dire que les avancées d’ IBM en la matière s’ affine de plus en plus.



De la mathématique pure pour battre un champion d’ échec puis, la compréhension du langage humain pour gagner à Jeopardy, vient maintenant un mix des deux pour rentrer en concurrence avec des êtres humains sur un test d’ aptitude à suivre des cours dans une université prestigieuse.



On est certe loin de ce que certain appelle une IA mais en moins de 20 ans les travaux d’ IBM ont fait des progrès immense là où, auparavant on imaginait même pas arriver au centième des résultats actuels.









maestro321 a écrit :



Comme les premiers concepteurs de l’IA vont chercher à la rentabiliser, et comme l’économie moderne (le capitalisme) n’en à rien à carrer de la condition humaine on sais très bien qu’on peut se les foutre au cul ces “réflexions de bas étage de gauchiste”.





C’est pas ce que j’ai dit.

&nbsp;

Je demande simplement si, en plus d’une IA, on peut créer cela et si les scientifiques, pouvant être de sacrés ignares de la métaphysique ou des sciences humaines ou tout simplement les mépriser, s’en soucient seulement ou croient que l’intelligence suffira à elle seule pour créer une personne…



IA revient a&nbsp;créer&nbsp;le sentiment, l’a haine, le mensonge, la manipulation, tout ce qu’est l’homme



L’home est le&nbsp;démon&nbsp;de la vie, l’intelligence est l’outil de la destruction



Nous vivons car nous tuons, prendre la vie pour se&nbsp;nourrir,&nbsp;réduire&nbsp;la vie&nbsp;d’autrui&nbsp;pour augmenter la notre



Telle est la vie, une cruauté, un virus








Naneday a écrit :



IA revient a&nbsp;créer&nbsp;le sentiment, l’a haine, le mensonge, la manipulation, tout ce qu’est l’homme



L’home est le&nbsp;démon&nbsp;de la vie, l’intelligence est l’outil de la destruction



Nous vivons car nous tuons, prendre la vie pour se&nbsp;nourrir,&nbsp;réduire&nbsp;la vie&nbsp;d’autrui&nbsp;pour augmenter la notre



Telle est la vie, une cruauté, un virus





<img data-src=" />



J’ai jamais osé lire les prequels à Dune. trop peur d’être déçu. <img data-src=" />

&nbsp;Quelqun à un avis sur les livres du fiston?


Déjà il faut faire la différence entre une IA faible et une IA forte.



Une IA faible, on en a déjà des tas aujourd’hui, que ce soit dans la finance ou dans les Google cars. C’est limité à un usage spécifique. Toute IA conçue dans un but guerrier (par exemple), et aussi efficace ou puissante soit-elle sera une IA faible et ne restera au final qu’un tas d’algorithmes connus.



L’article parle manifestement au contraire d’une IA forte, qui elle n’est pas conçue dans un but précis. Elle est à l’image de l’intelligence humaine : capable d’apprendre et de développer une conscience.



J’avais assisté il y a quelque temps à une conférence où un chercheur dans le domaine des IA fortes faisait justement le parallèle avec les trois lois de la robotique. En gros, les IA vers lesquelles on se dirige seraient fondamentalement conçues pour apprendre, et donc récolter et protéger toute forme d’information. Or, chaque être humain est une mine d’information, de connaissance et de culture. Ces trois lois seraient donc respectées dans avoir besoin de les implémenter de manière aussi brute que dans les romans d’Asimov.



Je pense que ce type d’IA ne sera pas plus dangereux que n’importe quel humain : ses décisions dépendront uniquement de la manière dont on l’éduque, le respecte et le considère.


Quelque soit l’intelligence, elle prend pour repères son milieu, son entourage, les enseignements reçus enseignement et/ou son vécu.

&nbsp;

J’ai cherché ce qui pourrait coller à l’image que tu décirs.

On peut retrouver cela dans certaines espèces animales à même de se débrouiller par elles mêmes dés leur naissance (sans apprentissage préalable), ce n’est pas de l’intelligence mais un réflexe instinctif.

Néanmoins, ce reflexe est codé dans leur genes. Pour une IA, cela revient tout de meme à une intervention humaine pour lui donner une base (utiliser son corps, être à même d’apprendre et de tirer des leçons).



Une ia assise mais vide (avec 0 information) ne sera pas autre chose qu’une poupée posée sur une chaise.

Il faut un minimum afin qu’elle puisse déjà maitriser son corps et être à même d’évoluer/d’apprendre.

L’image la plus parlante (et triste), les lobotomisés dont le coté cognitif à été endommagé (volontairement ou non).



&nbsp;

Déjà avant d’en arriver la (à mon avis) il y à encore une sacrée marge.

De plus, (sans théorie du complot), je doute que dans le domaine publique ce genre d’IA puisse voir le jour sans un encadrement très stricte (ce qui ne sera pas forcement le cas en militaire mais vu l’usage).





Apres évidemment, ça reste un avis personnel.








sebcap26 a écrit :



Déjà il faut faire la différence entre une IA faible et une IA forte.



Une IA faible, on en a déjà des tas aujourd’hui, que ce soit dans la finance ou dans les Google cars. C’est limité à un usage spécifique. Toute IA conçue dans un but guerrier (par exemple), et aussi efficace ou puissante soit-elle sera une IA faible et ne restera au final qu’un tas d’algorithmes connus.





Tout à fait.&nbsp;<img data-src=" />

D’ailleurs, on peut observer sur certains MMO (wow,lol…) des troupeaux entiers d’IA faibles.









jedipc a écrit :



J’ai jamais osé lire les prequels à Dune. trop peur d’être déçu. <img data-src=" />

&nbsp;Quelqun à un avis sur les livres du fiston?





Je pense perso que toute la saga écrite par le père: Dune, Le Messie de Dune, Les Enfants de Dune, L’Empereur-Dieu de Dune, Les Hérétiques de Dune, La Maison des mères suffit largement.



Un prequel de Franck Herbert existe: “Et l’ homme créa un Dieu”.



Je préfère franchement lire une autre saga originale comme celle du Cycle Ender par exemple de Orson Scott Card plutôt que de lire des rajouts post mortem d’ autres écrivains à des sagas que leurs auteurs estimaient clôturées ou, que le temps et les aléas de la vie ont laissés orphelines.



S’il veut de l’IA sans risque, il n’a qu’à s’adresser à EA Sports. Ils sont spécialisés dans l’IA sans I.


Nous sommes les enfants de David. Jamais nous ne mourrons. Nous dominerons cette terre.

<img data-src=" />


Oui mais le fait qu’il gagne à Jeopardy! n’est pas une preuve qu’il comprenne le langage humain, ni qu’il soit intelligent. Si sa capacité à synthétiser est déjà très intéressante, en aucun cas il n’a une représentation d’un terme telle qu’on puisse parler de compréhension. Quand tu lui demandes de t’expliquer un terme, il va faire des recherches, un résumé, et te donner un résultat.



Si tu veux, c’est comme la différence entre comprendre une autre langue et la traduire.



Et bon tu parles des échecs, mais ça fait longtemps que le challenge en matière de calcul et de compréhension d’un jeu de la part des IA est passé vers le jeu de go. Je doute que Watson comprenne la notion d’influence mieux qu’un autre.



Leynas.


Un jihadiste ! <img data-src=" /><img data-src=" /><img data-src=" />



Que font la NSA/MI-5/DGSE ??





<img data-src=" />








jedipc a écrit :



J’ai jamais osé lire les prequels à Dune. trop peur d’être déçu. <img data-src=" />

&nbsp;Quelqun à un avis sur les livres du fiston?





Essayes d’imaginer la saga Dune du père résumé en 400 page, ça te donne une idée d’un des bouquins du fiston. J’ai l’impression qu’il a prit les grandes lignes qu’avait déjà tracé son père et travaillé rapidement la forme avec Anderson histoire que ça ressemble pas trop à un script. Celà dit, je n’ai lu que la “Maison des Atréides” (premier bouquin du cycle “Avant Dune”), les “Chasseurs de Dune” (premier bouquin du cycle “Après Dune”) et la “Route de Dune” (qui est une compilation de chapitre en version préliminaire de “Dune” et du “Messie de Dune” (les persos sont pas tout à fait les mêmes que dans le cycle finale) auquel le fils et Anderson ont ajouté quelques nouvelles, histoire d’épaissir).









Nnexxus a écrit :



C’est le principe même d’un algorithme d’optimisation (qu’il faut certes guider par une intelligence humaine… pour le moment).



Des algos qui concoivent des avions, ça existe… j’irais même jusqu’à dire que des avions conçus sans algorithme d’optimisation, ça n’existe presque plus… Avec, encore une fois, le bémol que c’est un ingénieur humain qui formalise le problème à destination de l’algo (mais ensuite c’est bien l’algo qui choisit tout seul la meilleure solution).



&nbsp;





Ton exemple n’a pour moi rien a voir avec une intelligence, capable de voir un problème sous une perspective nouvelle et d’imaginer des solutions non prévues à l’avance.&nbsp;



HS







jedipc a écrit :



J‘ai jamais osé lire les prequels à Dune. trop peur d’être déçu. <img data-src=" />

 Quelqun à un avis sur les livres du fiston?







Il y a beaucoup d’avis, n’en donner qu’un ne peut être suffisant.

Pour moi les préquels sont des échauffements sans intérêt en prévision du bouquin qui clôt le cycle. Et je ne parle même pas des fillers entre les préquels. Peut-être Est-ce similaire à SW épisodes 1,2 et 3 s’ils n’avaient pas été faits par Lucas.

On sait déjà ce qu’il y a dedans et le style n’est pas celui d’origine.



Le seul que je pourrais conseiller est donc celui qui ferme le cycle, mais on pourra toujours avoir un doute sur l’origine du scénario de conclusion, très étrange.

/HS







von-block a écrit :



Un peu hors sujet mais personne n‘aurait de bon films à me conseiller sur la problématique d’un AI mal géré….dont c‘est l’élément centrale du film.



Autre que terminatior, matrix et irobot.







Pour ne pas faire doublon, je ne pense qu’à Tron.



Je les ai lues en parties, j’ai trouvé ça très divertissant mais un peu “facile”, peu de prise de risque.


c’est ce même elon musk qui va rendre sa voiture autonome??








tic tac a écrit :



Je pense perso que toute la saga écrite par le père: Dune, Le Messie de Dune, Les Enfants de Dune, L’Empereur-Dieu de Dune, Les Hérétiques de Dune, La Maison des mères suffit largement.



Un prequel de Franck Herbert existe: “Et l’ homme créa un Dieu”.



Je préfère franchement lire une autre saga originale comme celle du Cycle Ender par exemple de Orson Scott Card plutôt que de lire des rajouts post mortem d’ autres écrivains à des sagas que leurs auteurs estimaient clôturées ou, que le temps et les aléas de la vie ont laissés orphelines.





J’ai lu le Cycle d’Ender, j’ai trouvé ça vraiment bien (pas vu le film par contre).

En ce moment je lit The Black Prism(Brent Week), pas le même univers, mais très prenant. On a vraiment le syndrome du “un chapitre de plus” <img data-src=" />. Par contre un peu de mal avec le vocabulaire marin <img data-src=" />

Bon j’arrête le HS, sorry <img data-src=" />









von-block a écrit :



Un peu hors sujet mais personne n’aurait de bon films à me conseiller sur la problématique d’un AI mal géré….dont c’est l’élément centrale du film.



Autre que terminatior, matrix et irobot.









Lyzz a écrit :



2001, A Space Odyssey

Wargames

Blade Runner

Ghost in the Shell

Robocop



La série Battlestar Gallactica

Black Mirror, Saison 2 Épisode 1

La série Real Humans/Akta Manniskor

Les 2 épisodes «Seconde Renaissance» d’Animatrix (je sais que c’est Matrix mais ça parle précisément de cet élément)





Sinon il peut aussi chercher dans cette liste : artificial-intelligence sur IMDB.

Le plus récent que j’ai en tête, c’est Autómata, pas encore sorti en France.









Naneday a écrit :



IA revient a&nbsp;créer&nbsp;le sentiment, l’a haine, le mensonge, la manipulation, tout ce qu’est l’homme



L’home est le&nbsp;démon&nbsp;de la vie, l’intelligence est l’outil de la destruction



Nous vivons car nous tuons, prendre la vie pour se&nbsp;nourrir,&nbsp;réduire&nbsp;la vie&nbsp;d’autrui&nbsp;pour augmenter la notre



Telle est la vie, une cruauté, un virus





<img data-src=" />









Jean_Peuplus a écrit :



Ton exemple n‘a pour moi rien a voir avec une intelligence, capable de voir un problème sous une perspective nouvelle et d’imaginer des solutions non prévues à l‘avance. 







Je vais faire exprès de schématiser…



L’homme au quotidien imagine-t-il des solutions non prévues ou suit-il un simple schéma logique si/sinon?

Réveil: on se lève, on s’habille, on mange en mode automate.

Voiture: on applique bêtement le code de la route formaté par le permis de conduire, avec quelques bugs liés au hardware.

Boulot - pour la plupart: On suit les directives des supérieurs, horaires fixes et règlement intérieur.



Tous nos gestes du quotidien sont dictés par l’apprentissage par cœur, une mémoire morte à laquelle la mémoire vive fait appel dès qu’une question se pose dans le cerveau.



Bref, pour revenir aux IA, à part leur demander d’innover au quotidien, elles n’ont pas beaucoup moins de liberté que nous nous en donnons.



Oui l’humain peut innover, mais il le fait rarement. Du coup, sommes nous intelligents selon tes critères?



C’est tout de même un peu plus précis que cela : «&nbsp;bon films à me conseiller sur la problématique d’un AI mal géré….dont c’est l’élément centrale du film.&nbsp;»Quand on voit en début de liste : X-Men, Transformers, Captain America 2, Transcendance, Man of Steel, Pacific Rim, Galaxy Quest, Batman & Robin, etc. On peut se dire qu’une vraie liste conseillée par des humains correspondra sans doute mieux à ce qu’il cherche.


Perso j’imagine facilement qu’encore une fois, on se rendra compte trop tard des boulettes qu’on aura faites. Il y en aura bien une, de ces boulettes, qui causera notre perte. On verra quand. Peut-être avant d’avoir inventé une IA.


Du moment qu’il nous reste au moins 50 ans “tranquilles” avant l’apocalypse, ça me va <img data-src=" />








von-block a écrit :



Un peu hors sujet mais personne n’aurait de bon films à me conseiller sur la problématique d’un AI mal géré….dont c’est l’élément centrale du film.



Autre que terminatior, matrix et irobot.







&nbsp;Le Cerveau d’Acier&nbsp; (Colossus), vieux mais toujours d’actualité à plein de niveau.



Juste une remarque : dans IRobot, l’IA n’enfreint pas les règles de bases qu’on lui a fixées : elle agit pour le bien de l’Homme. Comme l’Homme n’est pas capable de s’autogérer correctement (ce qui est vrai), l’IA décide donc, dans le propre bien de l’humain, de prendre les rênes. Et si nous étions au point d’avoir une IA aussi efficace avec ces mêmes règles, la possibilité que l’IA arrive à cette conclusion est loin d’être négligeable à mon sens.



Qu’on soit sur une IA ou une science prédictive s’appuyant sur le big data/données statistiques : faut/faudra se demander où on veut aller et surtout jusqu’où on ne voudra pas aller (le truc style person of interest, ça ne me tente pas plus que ça perso, ou le minority report où tu remplaces les 3 gusses dans la flotte par un super calculateur)








Lyzz a écrit :



C’est tout de même un peu plus précis que cela : « bon films à me conseiller sur la problématique d’un AI mal géré….dont c’est l’élément centrale du film. »Quand on voit en début de liste : X-Men, Transformers, Captain America 2, Transcendance, Man of Steel, Pacific Rim, Galaxy Quest, Batman & Robin, etc. On peut se dire qu’une vraie liste conseillée par des humains correspondra sans doute mieux à ce qu’il cherche.





Oui, je sais, c’est pour ça que j’ai préciser qu’il fallait chercher. Mais, il y en a tellement de films qui peuvent correspondre à ce qu’il cherche, que c’est une bonne base de départ.

Dans la liste je conseille aussi, par exemple : Transcendance, Her, Summer Wars, Ghost in the Shell.



A lire, le sciences et vie qui vient de sortir. Il y a dossier au sujet de l’intelligence artificielle et des robots.



Il y a aussi une question importante : comment savoir qu’une IA est vraiment intelligente ?

Si on peut vérifier tous les résultats émis par celle-ci, alors elle ne dépasse pas l’intelligence humaine.

Mais si on ne peut/sait pas vérifier les résultats, comment dire et prouver que l’IA est vraiment intelligente ?


quote:5205187:Leynas

/quote]



La force et la percée de Watson repose sur 2 choses.





  • une puissance analytique à traiter (mais aussi interpréter) des données.

    C’ est pas pour rien d’ ailleurs que derrière Watson se trouve un des plus gros fabriquants de supercalculateur du monde.



  • une capacité à ingérer et interpréter des données non structurées ou issu de langage nettement moins compréhensible jusqu’ ici par un ordinateur comme le langage humain.



    Si le premier point est du à la puissance de calcul brutes des ordis le second, par contre, est du à une programmation beaucoup plus complexe et hors sentier battu.



    L’ un des buts suivit par IBM est la notion d’ apprentissage.

    Watson ne peut en effet tirer une conclusion ou une réponse qu’ à partir d’ une donnée qu’ il connaît déjà.

    Le voir donner une réponse inédite serait une avancée majeure.



    La NASA à déjà réussit plus ou moins cet exploit dans un exemple beaucoup plus basique.



    Elle a un temps travaillé sur un robot d’ exploration capable de se mouvoir sur n’ importe quel type de terrain solide.

    Au lieu de lui programmer tout les cas de figure possible pour affronter un obstacle avec ses servo moteur les ingénieurs lui ont programmé la capacité d’ apprendre (retenir) de ses échecs et tentatives précédentes pour arriver après moults essais (et retenir pour les fois suivantes) à correctement monter des marches d’ escaliers.

    Il a fallut des semaines au robot pour y parvenir mais artificiellement, il a au final comprit sans que cela lui soi programmé à monter un escalier.



    La NASA a abandonné le projet dans son utilisation principale (trop de temps et d’ énergie pour l’ apprentissage au détriment de la mission d’ exploration) mais les travaux ont permit au Darpa et Boston Dynamics de mettre au point leur robot mule.



    Le jour où (et IBM y travaille) Watson sera capable d’ apprendre de lui même, on fera un nouveau pas immense dans l’ avancée vers une IA sophistiquée et plus complexe.



    Ce jour là, il sera intéressant de voir comment Watson (ou son programme suivant) gérera les données qui viennent de ce qu’ on lui donne et de ce qu’ il découvre ou apprend.

    Dans le futur et dans le domaine médical ce que l’ on rêve de demander à Watson et tout ses descendants, c’ est, à un problème, donner une réponse inédite que nous même nous cherchons.



    Ce genre de chose n’ est pas pour demain mais montre où la recherche en IA se dirige.

    Non pas donner une réponse par croisement de données existantes mais une réponse “inédite” par apprentissage.


Je sais pas si je suis pas over cramé,&nbsp; c’est pas le premier à en parler. Hawking le pense aussi…



http://www.cnet.com/news/stephen-hawking-artificial-intelligence-could-be-a-real…








NonMais a écrit :



Juste une remarque : dans IRobot, l’IA n’enfreint pas les règles de bases qu’on lui a fixées : elle agit pour le bien de l’Homme. Comme l’Homme n’est pas capable de s’autogérer correctement (ce qui est vrai), l’IA décide donc, dans le propre bien de l’humain, de prendre les rênes. Et si nous étions au point d’avoir une IA aussi efficace avec ces mêmes règles, la possibilité que l’IA arrive à cette conclusion est loin d’être négligeable à mon sens.



Qu’on soit sur une IA ou une science prédictive s’appuyant sur le big data/données statistiques : faut/faudra se demander où on veut aller et surtout jusqu’où on ne voudra pas aller (le truc style person of interest, ça ne me tente pas plus que ça perso, ou le minority report où tu remplaces les 3 gusses dans la flotte par un super calculateur)





C’est aussi le sujet de fond dans “Il était une fois l’espace”. Avec le Grand Ordinateur qui impose une dictature à l’Humanité pour faire cesser les guerres, le bien de l’Homme est mis à mal par sa propre privation de liberté.









Naneday a écrit :



IA revient a&nbsp;créer&nbsp;le sentiment, l’a haine, le mensonge, la manipulation, tout ce qu’est l’homme



L’home est le&nbsp;démon&nbsp;de la vie, l’intelligence est l’outil de la destruction



Nous vivons car nous tuons, prendre la vie pour se&nbsp;nourrir,&nbsp;réduire&nbsp;la vie&nbsp;d’autrui&nbsp;pour augmenter la notre



Telle est la vie, une cruauté, un virus





Amen !&nbsp;<img data-src=" />









NonMais a écrit :



Juste une remarque : dans IRobot, l’IA n’enfreint pas les règles de bases qu’on lui a fixées : elle agit pour le bien de l’Homme. Comme l’Homme n’est pas capable de s’autogérer correctement (ce qui est vrai), l’IA décide donc, dans le propre bien de l’humain, de prendre les rênes. Et si nous étions au point d’avoir une IA aussi efficace avec ces mêmes règles, la possibilité que l’IA arrive à cette conclusion est loin d’être négligeable à mon sens.





Ha merde alors! A part la société occidentale qui ne s’exporte que part l’exploitation de l’homme par l’homme, les autres sociétés humaines s’en sortaient pas si mal (Aborigène, Indiens d’Amérique, Asiatiques, Africains, Arabes, etc..) avant qu’on viennent détruire (pour imposer plus facilement les nôtre) leurs environnements, politiques, cultures, agricultures, économies, etc..



Doucement sur les points de vue hâtifs sur la capacité de l’homme à s’autogérer, ce n’est pas parce que la culture occidentale est surreprésentée, à tendance auto-destructive, et déresponsabilisante (Dieu le père veille sur nous) que toutes les cultures l’on été et que toutes les cultures le seront (ce qui est vrai).









jedipc a écrit :



J’ai lu le Cycle d’Ender, j’ai trouvé ça vraiment bien (pas vu le film par contre).

En ce moment je lit The Black Prism(Brent Week), pas le même univers, mais très prenant. On a vraiment le syndrome du “un chapitre de plus” <img data-src=" />. Par contre un peu de mal avec le vocabulaire marin <img data-src=" />

Bon j’arrête le HS, sorry <img data-src=" />





Je te conseille aussi les livres de la saga Hyperion de Dan Simmons ^^



Bon j’ arrête aussi le HS ^^









Mihashi a écrit :



Dans la liste je conseille aussi, par exemple : Transcendance





Non, c’est une bouse. Le scénario est mal ficelé, d’un ennui mortel et surtout il passe totalement à côté de son sujet principal : l’intelligence artificielle dont le traitement est terriblement pauvre.









maestro321 a écrit :



Ha merde alors! A part la société occidentale qui ne s’exporte que part l’exploitation de l’homme par l’homme, les autres sociétés humaines s’en sortaient pas si mal (Aborigène, Indiens d’Amérique, Asiatiques, Africains, Arabes, etc..) avant qu’on viennent détruire (pour imposer plus facilement les nôtre) leurs environnements, politiques, cultures, agricultures, économies, etc..



Doucement sur les points de vue hâtifs sur la capacité de l’homme à s’autogérer, ce n’est pas parce que la culture occidentale est surreprésentée, à tendance auto-destructive, et déresponsabilisante (Dieu le père veille sur nous) que toutes les cultures l’on été et que toutes les cultures le seront (ce qui est vrai).







Oui enfin n’ayant jamais vécu dans une tribu au fin fond de l’Amazonie, je ne pourrais soutenir dur comme fer la chose mais la nature humaine étant ce qu’elle est, j’imagine bien que tout ne doit pas non plus s’y passer comme dans le meilleur des mondes, c’est juste que ça reste à un niveau restreint mais je crois -désolé de mon impétueux orgueil- que fondamentalement c’est idem, c’est juste qu’au lieu de baiser 20 000 personnes, il en baise 1.



Et puis c’est vrai que les différentes tribus ne se mettent pas sur la tronche et même au sein de la même tribu personne n’aimerait bien prendre la place du chef.



Je parlais bien en général, c’est dans notre nature, après suivant les civilisations ça s’exprime différemment surtout lié à l’échelle mais sur le fond la nature humaine reste bien la même, ça ne fait pas assez longtemps que notre mode de vie a différé de celui des tribus pour que nous soyons au fond différents.



NB: remarque se mettre sur la tronche est une sorte d’autogestion…









x689thanatos a écrit :



« Nous devons faire particulièrement attention avec l’intelligence

artificielle. Elle est potentiellement plus dangereuse que les bombes

atomiques ».

 <img data-src=" />  Le probleme est pourtant le même.







Ce n’est pas l’intelligence artificielle en elle même qui peut poser probleme mais les humains qui sont derrière.



Vu comment de nombreuses choses sont détournées, pourtant basées sur de bonnes intentions, vers du militaire, espionnage, intérêts personnels, publicitaires,…

Et parfois avec des résultats catastrophique.



Apres au dela de ces dérives. Cela reste de l’informatique. Donc soumis aux même risques qu’un ordinateur (failles, détournement de l’usage, …).



Bref, le gros probleme ce n’est pas intelligence artificielle mais les humains qui le programment ou peuvent modifier son comportement.









Zyami a écrit :



Pour ma part, ce n’est pas tellement l’IA qui me fait peur mais plutôt l’être humain qui programme une IA.

D’une part l’erreur est humaine et d’autre part il existe aussi des cerveaux tordus.



Quand on sait qu’une voiture électrique moderne c’est 1 million de ligne de code et qu’il est estimé qu’il existe une erreur de programmation tout les 100 lignes de codes, je vous laisse imaginer la bazar.

 Si à cela vous rajouter quelques hackers/crackers pour venir foutre le bordel là dedans afin de transformer votre voiture en grille pain, on est pas sorti de l’auberge alors qu’une voiture a juste besoin de 4 roues et d’un volant en principe.







Vous n’avez pas bien compris le problème exposé ici … on parle d’une véritable intelligence, donc qui est auto suffisante.









Gemini_Power a écrit :



Pour ma part, Elon va justement plus loin.

Ta remarque suppose que c’est encore l’Homme qui a la maitrise des outils informatiques, et aussi des IAs qu’il crée.

 



 La crainte d’Elon, et je le rejoint un peu là dessus, c’est que les systèmes IA deviennent autonome, évolutifs, et par conséquent hors de contrôle, même pour des hackers.

Mais bon, comme déjà dit, cela a déjà été traité et retraité par toute l’univers scifi, que ce soient livres, films, jeux, etc.









aelOnn a écrit :



Vous ne réfléchissez pas assez loin, on ne parle pas d’une IA en tant qu’outil, au service de gens plus ou moins bien intentionnés.

On parle de la singularité technologique, d’une IA capable de se programmer, d’évoluer toute seule, de devenir 10^x plus intelligente qu’un être humain, de résoudre des défis technologiques auxquels nous n’arrivons meme pas à penser. Plus grand chose ne pourra l’arrêter… si le besoin s’en fait sentir.



Oui la thématique a été largement traitée dans la SciFi, mais on n’en est plus si loin maintenant, ca devrait devenir une réfléxion contemporaine.







Exactement







Jean_Peuplus a écrit :



ça reste à prouver que l’homme est capable de créer une intelligence supérieure à la sienne je pense (et donc potentiellement réellement dangereuse). Vaste sujet <img data-src=" />









Leynas a écrit :



Vu comment l’homme comprend sa propre intelligence, la probabilité de créer une intelligence supérieure à la sienne me semble strictement supérieure à la probabilité d’en créer une équivalente. Ou bien les deux sont nulles.



Leynas.







Il n’y a aucunement besoin de créer une intelligence supérieure à la notre vu qu’elle a les capacités d’apprendre et d’évoluer donc de nous surpasser au fil du temps







gokudomatic a écrit :



Es-tu en train de dire qu’un système complexe peut créer un autre système qui soit plus complexe que l’original?







C’est le propre même d’un système complexe d’être organisé et auto organisant, je t’invite le livre “la théorie des systèmes complexe de J. Lemoigne. Et comme dit au dessus, une IA peut bien devenir plus intelligente que nous même en attendant plus bête au début.









jedipc a écrit :



J’ai lu le Cycle d’Ender, j’ai trouvé ça vraiment bien (pas vu le film par contre).

En ce moment je lit The Black Prism(Brent Week), pas le même univers, mais très prenant. On a vraiment le syndrome du “un chapitre de plus” <img data-src=" />. Par contre un peu de mal avec le vocabulaire marin <img data-src=" />

Bon j’arrête le HS, sorry <img data-src=" />







Ne regarde surtout pas le film … niveau boucherie ils y ont été fort sur celui la quand même …









Ph11 a écrit :



De plus, on tend à vouloir créer une IA afin de reproduire une intelligence humaine.





Je ne crois pas. Si tel était le cas les titres des articles de recherche seraient très différents. Il me semble que nous cherchons d’abord à créer des intelligences (forcément non-humaines), et plus particulièrement des intelligences qui nous soient utiles.



Certains cherchent à la rigueur à créer des programmes capables d’imiter des êtres humains. En général ces programmes n’ont pas grand chose d’intelligent.





Et qu’en est-il de l’éthique, de la morale, de l’éducation et donc des comportements, des choix ? La machine intelligente sera-t-elle éclairée ?



A l’heure actuelle les AI “libres”, basées sur des réseaux librement adaptatifs (plutôt que sur des algorithmes programmés), sont tellement spécialisées que la question ne se pose pas. Et si elle se pose dans un avenir proche ce sera au niveau d’une équipe ou deux, travaillant sur des super-calculateurs, pas au niveau du domaine de recherche dans son ensemble. C’est un problème de puissance de calcul et d’entrées/sorties limitées.



Si tu prends la Google Car par exemple, ses équipes sont confrontées à des problèmes éthiques. Mais pas la voiture qui, elle n’a jamais conscience des sacs à viande qui occupent l’habitacle des voitures. La voiture n’a aucun défi éthique, ce sont ses programmeurs qui en ont.





Je demande simplement si, en plus d’une IA, on peut créer cela et si les scientifiques, pouvant être de sacrés ignares de la métaphysique ou des sciences humaines ou tout simplement les mépriser, s’en soucient seulement ou croient que l’intelligence suffira à elle seule pour créer une personne…



Là encore tu présupposes qu’ils cherchent à créer une personne, ce qui est très majoritairement faux. Et je n’ai pas l’impression qu’ils soient plus ignares de ces problématiques que la moyenne, plutôt moins souvent.







sksbir a écrit :



Le test de turing n’est pas là pour montrer qu’on a affaire à une IA, il est là pour valider si l’appareil qui passe le test donne l’illusion de l’intelligence.





Non, pas l’intelligence, la capacité à simuler l’humanité. On peut imaginer des machines bien plus intelligentes que nous qui échoueraient au test de Turing et des machines très stupides qui le réussiraient.





Aujourd’hui, tous ceux qui concoivent des IA sont des prestidigitateurs.



Seulement ceux qui tenter de passer le test de Turing. Les autres conçoivent des outils dont l’utilité n’a rien d’une illusion, de la reconnaissance faciale au diagnostic médical







lionnel a écrit :



Tout à fait d’accord, Elon Musk devrait vraiment arrêter de lire des livres de SF et s’interesser un peu plus à l’économie.





Si ce mec avait écouté des types “avec les pieds sur Terre” comme toi il ne se serait jamais lancé dans l’automobile, la banque ou l’aérospatiale, trois bastions réputés inébranlables dans lesquels il s’est pourtant imposé en partant de zéro.









x689thanatos a écrit :



Quelque soit l’intelligence, elle prend pour repères son milieu, son entourage, les enseignements reçus enseignement et/ou son vécu.

 

J’ai cherché ce qui pourrait coller à l’image que tu décirs.

On peut retrouver cela dans certaines espèces animales à même de se débrouiller par elles mêmes dés leur naissance (sans apprentissage préalable), ce n’est pas de l’intelligence mais un réflexe instinctif.

Néanmoins, ce reflexe est codé dans leur genes. Pour une IA, cela revient tout de meme à une intervention humaine pour lui donner une base (utiliser son corps, être à même d’apprendre et de tirer des leçons).



Une ia assise mais vide (avec 0 information) ne sera pas autre chose qu’une poupée posée sur une chaise.

Il faut un minimum afin qu’elle puisse déjà maitriser son corps et être à même d’évoluer/d’apprendre.

L’image la plus parlante (et triste), les lobotomisés dont le coté cognitif à été endommagé (volontairement ou non).



 

Déjà avant d’en arriver la (à mon avis) il y à encore une sacrée marge.

De plus, (sans théorie du complot), je doute que dans le domaine publique ce genre d’IA puisse voir le jour sans un encadrement très stricte (ce qui ne sera pas forcement le cas en militaire mais vu l’usage).





Apres évidemment, ça reste un avis personnel.







L’être humain conait très peu de chose, si ce n’est rien du tout autre que les connaissances innées à sa naissance. il sait déjà marché (mais n’en a pas la force etc…) par contre, on ne sait pas lire, on ne sait pas reconnaitre un son, on apprend tout cela …



Une IA vide comme tu le décris ne serait pas une poupée mais elle doit certes passée par une phase d’apprentissage, une fois cet apprentissage fait rien ne l’empêche d’aller au delà de nos connaissances.



Et en cela, le film Transcendence en est un bon exemple, peu importe la qualité intrinsèque du film, enfin perso j’aime mais le film a reçu de mauvaise critique









Lafisk a écrit :



Il n’y a aucunement besoin de créer une intelligence supérieure à la notre vu qu’elle a les capacités d’apprendre et d’évoluer donc de nous surpasser au fil du temps







C’est pas prouvable non plus que ça soit possible de créer une intelligence évolutive capable de nous dépasser. ça ne change pas le problème <img data-src=" />

Car au final le principe d’évolution sera imaginé par notre cerveau humain avec toutes ses limites.



l’être humain existe … il n’y a en théorie aucune impossibilité, nous ne sommes que des bio machines au final, si la nature a pu nous créer, il n’y a aucune raison pour que l’on ne puisse pas créer une IA aussi intelligente voir plus que nous.



Cela ne reste qu’une question de potentiel au final, avec la multitude d’espèce sur terre, pourquoi n’y en a t-il qu’une aussi “douée” ? 2 raisons me viennent a l’esprit, les autres espèces n’ont pas un potentiel aussi gros ou bien nous avons tués (volontairement ou pas) les autres candidats au cours de notre évolution.








127.0.0.1 a écrit :



Ah… ces américains et leur manie de tout ramener à la prière, a Dieu et au Mal.





C’est injuste : pour le coup ses propos se rapprochent davantage d’une image de rôliste / amateur de fantasy que d’une image religieuse







Khorne77 a écrit :



Enfin, on a encore un peu de sursis étant donné qu’il faut la technologie quantique pour qu’une machine puisse parvenir à réfléchir comme un humain.





Seulement sur les sites new age. Non il n’y a pas de mystérieux effet quantiques qui serait le siège de la conscience. Tout ce qu’il faut pour faire une AI c’est de la puissance de calcul - plus de puissance ! - et de meilleurs algos.





Cependant, l’homme est la seule espèce à être capable de faire autant d’atrocités dans le monde sur : la faune, la flore, son environnement et sur sa propre espèce.



Seulement parce que l’homme est le plus puissant. N’importe quel chat ferait passer le pire de nos serial killers pour un charmant individu. Crois-moi, si les chats étaient à notre place, la Terre serait un putain d’enfer pour toutes les espèces. Et pour ma part j’attends toujours de voir des lions, des loups ou des ours monter une SPA.









dematbreizh a écrit :



Oui l’humain peut innover, mais il le fait rarement. Du coup, sommes nous intelligents selon tes critères?





Tu réponds toi même à ta question non ? C’est pas parce qu’une majorité de l’humanité n’utilise pas de manière spectaculaire son intelligence (en laissant une marque dans l’histoire par une invention ou découverte par exemple) qu’on peut la nier.









Lafisk a écrit :



Une IA vide comme tu le décris ne serait pas une poupée mais elle doit certes passée par une phase d’apprentissage, une fois cet apprentissage fait rien ne l’empêche d’aller au delà de nos connaissances.





Une AI vraiment vide n’apprendrait pas puisqu’elle ne ferait rien. Il faut sans doute du désir ou du plaisir pour apprendre spontanément, ou leurs équivalents.









Lafisk a écrit :



l’être humain existe … il n’y a en théorie aucune impossibilité, nous ne sommes que des bio machines au final, si la nature a pu nous créer, il n’y a aucune raison pour que l’on ne puisse pas créer une IA aussi intelligente voir plus que nous.







La nature (ou plutôt la sélection naturelle) que tu sembles sous estimer a créé un cerveau qu’on est encore loin de comprendre. Le jour ou le&nbsp; cerveau n’aura plus de secret pour l’homme alors oui, ça prouverait qu’on peut faire mieux, car si on comprend quelque chose, on peut très probablement l’améliorer car on sait déjà que le résultat de cette sélection naturelle n’est pas parfaite.



Donc ton point de vu c’est de penser qu’on est capable d’imaginer un principe d’évolution plus efficace que celui qui nous a “créé”. Je suis pas forcément d’accord, en tout cas rien ne prouve qu’on a la capacité de le faire.



&nbsp;

&nbsp;

&nbsp;









Lafisk a écrit :



Ne regarde surtout pas le film … niveau boucherie ils y ont été fort sur celui la quand même …





J’ai lu les livres (que j’ai trouvé très bons au demeurant), et je suis justement curieux de voir comment ils ont pu l’adapter en film. Il est si mauvais que ça <img data-src=" /> ?



Je suppose que le Film se cantonne au premier livre, à savoir la guerre contre les Doryphores…



Si l’intelligence artificielle est en mesure de s’auto-programmer, ça peut devenir dangereux, en effet…

Mais si un “programme suprême” peut imposer quelques conditions pour que l’ordinateur obéisse à certaines règles fondamentales, pourquoi pas ?








HarmattanBlow a écrit :



Une AI vraiment vide n’apprendrait pas puisqu’elle ne ferait rien. Il faut sans doute du désir ou du plaisir pour apprendre spontanément, ou leurs équivalents.





Ca dépend vraiment de ce qu’il appellent vide, une coquille complètement vide ne ferait vraiment pas grand chose. Mais cela ne présenterais pas grand intérêt, scientifiquement parlant de créer une coquille vide, de toute façon, aujourd’hui déjà les IA fonctionnent sur le principe d’apprentissage, sans forcément de volonté.



Enfin bref, mon avis sur la question doit que de toute façon il vaut mieux en rester a une IA entièrement soumise sinon, il est certain que l’on ira vers des scénarios catastrophe qui nous font sourire aujourd’hui mais certainement moins demain









chaps a écrit :



J’ai lu les livres (que j’ai trouvé très bons au demeurant), et je suis justement curieux de voir comment ils ont pu l’adapter en film. Il est si mauvais que ça <img data-src=" /> ?



Je suppose que le Film se cantonne au premier livre, à savoir la guerre contre les Doryphores…







Ben le héros du film (en temps d’apparition) c’est le colonel graff au final … et par rapport au livre 34 du contenu a été supprimé …. pas de Peter par exemple, Valentine apparait vite fait etc… etc… regardes sit u veux te faire un avis mais ne t’attend pas a retrouver l’univers ^^”



ce que tu ne comprends c’est qu’à la différence de l’Homme ce genre d’IA controlerait le processus d’évolution de bout en bout, contrairement à nous. Donc au final, avoir le contrôle absolu sur ce processus lui donne toute les capacites imaginable même si au départ elle avait l’intelligence d’un ver de terre








Lafisk a écrit :



Ca dépend vraiment de ce qu’il appellent vide, une coquille complètement vide ne ferait vraiment pas grand chose.





Je voulais simplement souligner que ce qui meut l’intelligence ce sont ses pulsions, ses désirs, ses sensations, etc. Sans cela le système est inerte. Il ne peut donc y avoir d’intelligence “neutre”.







Jean_Peuplus a écrit :



Le jour ou le cerveau n’aura plus de secret pour l’homme alors oui, ça prouverait qu’on peut faire mieux





Mais non, on fera “mieux” bien avant d’avoir tout compris de notre cerveau. Et peut-être même avant de comprendre comment ce mieux fonctionne.









Lafisk a écrit :



Ben le héros du film (en temps d’apparition) c’est le colonel graff au final … et par rapport au livre 34 du contenu a été supprimé …. pas de Peter par exemple, Valentine apparait vite fait etc… etc… regardes sit u veux te faire un avis mais ne t’attend pas a retrouver l’univers ^^”





Hum… Si déjà le héro c’est le Colonel Graff au lieu d’Andrew Wiggin, c’est mal parti <img data-src=" />









NonMais a écrit :



Oui enfin n’ayant jamais vécu dans une tribu au fin fond de l’Amazonie, je ne pourrais soutenir dur comme fer la chose mais la nature humaine étant ce qu’elle est, j’imagine bien que tout ne doit pas non plus s’y passer comme dans le meilleur des mondes, c’est juste que ça reste à un niveau restreint mais je crois -désolé de mon impétueux orgueil- que fondamentalement c’est idem, c’est juste qu’au lieu de baiser 20 000 personnes, il en baise 1.



Et puis c’est vrai que les différentes tribus ne se mettent pas sur la tronche et même au sein de la même tribu personne n’aimerait bien prendre la place du chef.



Je parlais bien en général, c’est dans notre nature, après suivant les civilisations ça s’exprime différemment surtout lié à l’échelle mais sur le fond la nature humaine reste bien la même, ça ne fait pas assez longtemps que notre mode de vie a différé de celui des tribus pour que nous soyons au fond différents.



NB: remarque se mettre sur la tronche est une sorte d’autogestion…





La “nature humaine” est un sujet glissant, puisque les scientifiques, religieux, et autres philosophes se cassent les dents depuis des siècles pour la définir.



Quand à la violence (autoritaire, dominatrice, destructrice) à laquelle je faisais référence et qui existe dans toutes les sociétés humaines (mais qui est particulièrement entretenue en occident) elle est intimement lié au stresse environnemental (culturel et matériel).



Alors même si la violence fait parti de la “nature humaine” (enfin de la “nature animale” tout simplement), la culture et l’environnement matériel permet une expression différente de cette “nature”.

C’est pour cette raison que tu peux mettre un requin et un thon dans le même aquarium sans risque tant que le requin est bien nourri.



Pour en revenir à l’autogestion, je pense qu’elle est d’avantage “culturel” que “naturel” chez l’homme.



Et puis pour aller vraiment plus loin, il faudrait qu’on définisse plus précisément ce qu’on entend par “l’autogestion”.









Jean_Peuplus a écrit :



La nature (ou plutôt la sélection naturelle) que tu sembles sous estimer a créé un cerveau qu’on est encore loin de comprendre. Le jour ou le  cerveau n’aura plus de secret pour l’homme alors oui, ça prouverait qu’on peut faire mieux, car si on comprend quelque chose, on peut très probablement l’améliorer car on sait déjà que le résultat de cette sélection naturelle n’est pas parfaite.



Donc ton point de vu c’est de penser qu’on est capable d’imaginer un principe d’évolution plus efficace que celui qui nous a “créé”. Je suis pas forcément d’accord, en tout cas rien ne prouve qu’on a la capacité de le faire.





Je crois que tu sous-estimes (ou sur-estimes selon le point de vue <img data-src=" />) les capacités humaines : on est tout à fait capable de créer quelque chose que l’on ne comprend pas.



Ben c’est Harisson Ford quoi … Fallait rentabiliser le cachet <img data-src=" />


Le problème des IA ne se pose même pas, c’ est trop tard, actuellement la pluspart des entreprises dans ce domaine font des avancées énormes depuis une grosse dizaine d’ années et je les vois mal faire marche arrière.



Le seul problème en fait réside dans le fantasme SF de certains parce que, pour arriver à créer un HAL qui aurait sa propre conscience de soi de manière autonome, il va encore y avoir un paquet d’ années avant que cela arrive.



Le but d’ une IA n’ est pas de remporter un Nobel de philosophie ou de tenir une conversation de salon comme un être humain (aucun intérêt à part de la recherche formelle peut être) mais bien de créer par exemple des algorithmes et des programmes pouvant aider à prendre de bonnes décisions vu leur potentiel énorme quand ils sont associés à des bases de données que n’ importe quel humain ne pourrait prendre en compte de manière aussi vite.



Une IA comme interface permettant la compréhension et le dialogue machine/être humain est également je pense une autre voie vers laquelle on travaille beaucoup.



Le travail sur les IA ressemble beaucoup plus à ces 2 exemples qu’ à la mise au point d’ un futur Skynet.



C’ est un peu pareil avec la robotique, la pluspart de ceux ci bossent en usine et leur conception tend à leur faire accomplir des tâches lourdes, répétitives ou dangereuses plutôt que des Daleks ou des futurs cylons…


Bah disons que dans IRobot, ça allait dans le sens : ne pas se foutre sur la tronche.

C’est un peu comme dans le 5ème élément où elle se demande si ça vaut vraiment le coup de sauver la terre.

Mais bon une fois que Bruce lui a roulé une galoche elle estime que oui : ouf!








HarmattanBlow a écrit :



Je voulais simplement souligner que ce qui meut l’intelligence ce sont ses pulsions, ses désirs, ses sensations, etc. Sans cela le système est inerte. Il ne peut donc y avoir d’intelligence “neutre”.







on est donc d’accord





Mais non, on fera “mieux” bien avant d’avoir tout compris de notre cerveau. Et peut-être même avant de comprendre comment ce mieux fonctionne.



+1, au final, l’intelligence humaine elle meme, n’etant pas parfaite, on ne cherchera pas forcement a reproduire la notre mais a en crer une nouvelle en partant d’une IA tres basique qui va ce faconner elle meme. (c’est unp eu la ou pechait le film transcendence justement je trouvais)









tic tac a écrit :



plutôt que des Daleks ou des Cylons…





Ce qui est bien dommage, quand on voit Caprica 6…

<img data-src=" />



oui tu vois plus ça comme on voit dans les films l’ordinateur de bord d’un vaisseau spacial : on lui pose des questions, il donne des réponses et du coup le commandant de bord humain lui dit qu’elle décision a été prise et lui demande de la mettre en oeuvre : c’est ça?


Le but de creer une IA serait surtout au final d’avoir des esclaves a pas cher pour assurer notre survie pendant qu’on ne branle plus rien … il n’y a qu’a voir l’automatisation de l’industrie pour le comprendre et la plupart des scenarios catastrophe ce basent la dessus a raison.


Plus fan de Dune que d’Asimov… Mais justement, dans Dune les “machines pensantes”, ordinateurs et assimilés sont devenu interdits !








HarmattanBlow a écrit :



Seulement parce que l’homme est le plus puissant. N’importe quel chat ferait passer le pire de nos serial killers pour un charmant individu. Crois-moi, si les chats étaient à notre place, la Terre serait un putain d’enfer pour toutes les espèces. Et pour ma part j’attends toujours de voir des lions, des loups ou des ours monter une SPH.



dernière lettre (ou alors j’ai mal compris qui elle était censée protéger) <img data-src=" />

Et oui pour les chats (on leur pardonne parce qu’ils ont la classe -&gt; cf Nobliaux et Sorcières de Pratchett)









atomusk a écrit :



J’imagine le popup :

Voulez vous tuer des enfants ?&nbsp;



[défaut] Oui : Fuck les enfants , par contre masque la plaque que et fonce après

Non : Je veux mourrir

&nbsp;

Vous avez 20ms pour répondre





c’est ballot, je suis nul dans les QTE <img data-src=" />



chaps a écrit :



J’ai lu les livres (que j’ai trouvé très bons au demeurant), et je suis justement curieux de voir comment ils ont pu l’adapter en film. Il est si mauvais que ça <img data-src=" /> ?



Je suppose que le Film se cantonne au premier livre, à savoir la guerre contre les Doryphores…





perso (et sans avoir lu les livres), j’ai eu une impression de “on a plein de trucs à dire mais pas des masses de temps, ni de manière élégante de le faire”… Un genre de sentiment de bâclé (même si j’ai bien aimé le film)









tic tac a écrit :



Le seul problème en fait réside dans le fantasme SF de certains parce que, pour arriver à créer un HAL qui aurait sa propre conscience de soi de manière autonome, il va encore y avoir un paquet d’ années avant que cela arrive.







Je m’attendais à ce qu’on parle de Hal, n’empêche que si on avait suivi les recommandations de gens comme Elon Musk on aurait pu éviter son évolution !



Leynas.









NonMais a écrit :



oui tu vois plus ça comme on voit dans les films l’ordinateur de bord d’un vaisseau spacial : on lui pose des questions, il donne des réponses et du coup le commandant de bord humain lui dit qu’elle décision a été prise et lui demande de la mettre en oeuvre : c’est ça?





C’ est dans cette voie là que la pluspart des recherches en IA se focalise.

L’ aide au diagnostic et à la prise de décision dans un langage usuel.









tic tac a écrit :



C’ est dans cette voie là que la plupart des recherches en IA se focalisent.

L’ aide au diagnostic et à la prise de décision dans un langage usuel.





Oui et non, c’est surtout celle ou on rencontre des succes. Et c’est aussi la route qui nous permet d’en apprendre plus pour aller ensuite plus loin.









Mihashi a écrit :



Je crois que tu sous-estimes (ou sur-estimes selon le point de vue <img data-src=" />) les capacités humaines : on est tout à fait capable de créer quelque chose que l’on ne comprend pas.







Excuse moi de penser qu’on entre dans le fantasme SF de penser qu’on peut, par hasard ou presque créer quelque chose qui nous dépasse. On est presque dans le paradoxe du singe savant à ce niveau.



Je pense que tu sous estimes le nombre de choses que l’on a inventé par pur hasard.


Mouais, on a bien vu ou ca nous a mené les 3 lois d’Asimov, on s’est qd meme fait dominé et dirigé par des robots. Sus aux robots!








Lafisk a écrit :



Je pense que tu sous estimes le nombre de choses que l’on a inventé par pur hasard.





des choses très simples oui. dès que ça devient un peu complexe, on se heurte aux probabilités.









Lafisk a écrit :



Oui et non, c’est surtout celle ou on rencontre des succes. Et c’est aussi la route qui nous permet d’en apprendre plus pour aller ensuite plus loin.





L’ étape suivante n’ est plus l’ aide au diagnostic (si on reste dans le domaine médical de Watson) mais directement la recherche médicale pure et simple.

Si il est capable dans sa version actuelle de trouver une solution (qui n’ est qu’ une simple donnée parmis les millions existantes) à travers les infos qu’ on lui donne pour le faire, pourquoi pas dans un avenir proche le faire travailler à trouver une solution nouvelle à partir des milliards de données à sa disposition.



La plus grosse avancée prochaine en matière d’ IA est de concevoir non plus un algorithme capable de trouver LA donnée dans une base mais de trouver une donnée inexistante qu’ il aura trouvé en “reformulant” sa base de donnée de lui même.



Watson est capable de créer un résumé de plusieurs textes différents.

Ce qui implique donc qu’ il crée un nouveau texte à partir de ceux à sa disposition.

Le but est qu’ il puisse faire aussi quelque chose de nouveau non plus avec du texte mais avec des données plus complexes.









HarmattanBlow a écrit :



….



Non, pas l’intelligence, la capacité à simuler l’humanité. On peut imaginer des machines bien plus intelligentes que nous qui échoueraient au test de Turing et des machines très stupides qui le réussiraient.





certes.

&nbsp;





HarmattanBlow a écrit :



Seulement ceux qui tenter de passer le test de Turing. Les autres

conçoivent des outils dont l’utilité n’a rien d’une illusion, de la

reconnaissance faciale au diagnostic médical



Le probleme vient de ce qu’on associe à la locution “Intelligence Artificielle”. Les outils que tu cites sont réels, mais n’ont pas de rapport avec l’IA, en tout cas, pas celle dont il faudrait avoir peur.

Tous ces outils fonctionnent dans les limites de leur programmation, et tant qu’il en sera ainsi, l’IA au sens initial n’existe pas.

Le jour où un mécanisme sortira de sa programmation et fera des choses inattendues dans le sens de “pas programmé pour”, et non pas dans le sens de “on a induit une réponse aléatoire avec un générateur du même nom”, alors , on pourra parler de d’IA.



Jusque là, on ne fait que de l’imitation.

&nbsp;









tic tac a écrit :



L’ étape suivante n’ est plus l’ aide au diagnostic (si on reste dans le domaine médical de Watson) mais directement la recherche médicale pure et simple.

Si il est capable dans sa version actuelle de trouver une solution (qui n’ est qu’ une simple donnée parmis les millions existantes) à travers les infos qu’ on lui donne pour le faire, pourquoi pas dans un avenir proche le faire travailler à trouver une solution nouvelle à partir des milliards de données à sa disposition.



La plus grosse avancée prochaine en matière d’ IA est de concevoir non plus un algorithme capable de trouver LA donnée dans une base mais de trouver une donnée inexistante qu’ il aura trouvé en “reformulant” sa base de donnée de lui même.



Watson est capable de créer un résumé de plusieurs textes différents.

Ce qui implique donc qu’ il crée un nouveau texte à partir de ceux à sa disposition. Le but est qu’ il puisse faire aussi quelque chose de nouveau non plus avec du texte mais avec des données plus complexes.







Et il se posera alors la question de savoir si la donnée trouvée sera correcte ou non.

Ou&nbsp; alors de faire confiance à cette IA et considérer qu’elle a raison. A quel moment pourra-t-on considérer une IA comme vraiment intelligente ?



Je n’ai pas de réponse, mais je trouve que ça soulève des questions intéressantes.



Tout comme certains abusent de la guerre des étoiles, je crains que Elon Musk ait abusé de terminator.


La complexite n’a rien a voir la dedans. Puis sur ce sujet, la theorie de la singularite n’est pas le juste pour faire beau.








zhebulonn a écrit :



Et il se posera alors la question de savoir si la donnée trouvée sera correcte ou non.





Bah pas forcément, rien n’empêchera l’IA d’apporter des éléments de preuve étayant ses hypothèses, et d’expliquer le cheminement qui l’aura conduite à faire sa découverte.

C’est exactement la même chose que quand un humain fait une découverte, et cherche à l’expliquer à ses collègues <img data-src=" />



bien sur mais la finalite de tout cela c’est d’avoir une IA totalement autonome et intelligente pour nous remplacer dans les taches de tout les jours comme l’ouvrier remplace dans son usine. Reste a voir si cet IA sera assez intelligente pour nous dire “demmerdez vous” ou juste assez intelligente pour etre asservie completement&gt;


à la lecture en diagonale des coms, j’ai la désagréable impression que les enjeux ne sont pas pris au sérieux.

ceux qui parlent d’erreurs humaines sont amha à côté de la plaque : une IA aboutie sera autonome dans son développement (sinon c’est un jouet pour enfant technologique, pas une vraie IA).








chaps a écrit :



Bah pas forcément, rien n’empêchera l’IA d’apporter des éléments de preuve étayant ses hypothèses, et d’expliquer le cheminement qui l’aura conduite à faire sa découverte.

C’est exactement la même chose que quand un humain fait une découverte, et cherche à l’expliquer à ses collègues <img data-src=" />





Oui, mais il faudra toujours un humain pour “valider” le résultat.

Est on prêt à faire confiance à une intelligence artificielle ?



Un problème énoncé dans “Sciences et vie” de ce mois :

Dans le cas d’une voiture autonome qui ne peut éviter un accident fatal. Soit deux piétons sont tués, soit le “conducteur” l’est. Quel choix doit faire l’IA de la voiture ? Et qui est responsable ?



Je connaissais pas cette “théorie”



Mais après une petite recherche google. Je constate que c’est un simple concept, très différent d’une théorie donc.

J’essaye juste de faire la part entre ce qui est de l’ordre de la science et de l’ordre du fantasme, tu m’as simplement l’air de mélanger un peu les 2, mais bon je vais arrêter de faire le rabat joie et te laisser fantasmer donc <img data-src=" />








zhebulonn a écrit :



Dans le cas d’une voiture autonome qui ne peut éviter un accident fatal. Soit deux piétons sont tués, soit le “conducteur” l’est. Quel choix doit faire l’IA de la voiture ? Et qui est responsable ?





Facile !

L’IA se déconnecte immédiatement (comme un conducteur humain qui, bien souvent, dans ce cas ferme les yeux en écrasant le frein), et après on laisse faire la providence / le destin / la fatalité / le hasard. Et du coup y’a pas de responsable, c’est l’destin ma bonne dame !









chaps a écrit :



Facile !

L’IA se déconnecte immédiatement (comme un conducteur humain qui, bien souvent, dans ce cas ferme les yeux en écrasant le frein), et après on laisse faire la providence / le destin / la fatalité / le hasard. Et du coup y’a pas de responsable, c’est l’destin ma bonne dame !





Encore faut-il que la voiture soit capable de détecter qu’elle est face à un dilemme “humain” et qu’elle se déconnecte. Mais elle aurait alors failli dans sa mission et pourrait on encore l’appeler “Intelligence artificielle” ?









zhebulonn a écrit :



Oui, mais il faudra toujours un humain pour “valider” le résultat.



Est on prêt à faire confiance à une intelligence artificielle ?      






Un problème énoncé dans "Sciences et vie" de ce mois :      

Dans le cas d'une voiture autonome qui ne peut éviter un accident fatal. Soit deux piétons sont tués, soit le "conducteur" l'est. Quel choix doit faire l'IA de la voiture ? Et qui est responsable ?











C’est de la simple gestion d’exception. Je vois pas pourquoi on parle d’une IA dans ce cas de figure à vrai dire, il n’y a a mon avis (et de l’avis de google non plus) pas besoin d’intelligence à proprement parlé pour gérer une conduite automatique.









zhebulonn a écrit :



Encore faut-il que la voiture soit capable de détecter qu’elle est face à un dilemme “humain” et qu’elle se déconnecte. Mais elle aurait alors failli dans sa mission et pourrait on encore l’appeler “Intelligence artificielle” ?





Une “intelligence artificielle” ne doit pas forcément être infaillible pour être qualifiée d’intelligente. Car dans le cas contraire, soyons cohérents, l’être humain n’est alors pas intelligent non plus…









Jean_Peuplus a écrit :



C’est de la simple gestion d’exception. Je vois pas pourquoi on parle d’une IA dans ce cas de figure à vrai dire, il n’y a pas besoin d’intelligence à proprement parlé pour gérer une conduite automatique.





Il faut choisir, quelle est la meilleure solution. Un accident n’est pas une conduite automatique, c’est un imprévu que l’IA doit gérer.



&nbsp;Est on prêt à laisser à une IA le droit de vie ou de mort ? Dans ce cas, l’IA doit choisir qui va mourir.









chaps a écrit :



Facile !

L’IA se déconnecte immédiatement (comme un conducteur humain qui, bien souvent, dans ce cas ferme les yeux en écrasant le frein), et après on laisse faire la providence / le destin / la fatalité / le hasard. Et du coup y’a pas de responsable, c’est l’destin ma bonne dame !









chaps a écrit :



Une “intelligence artificielle” ne doit pas forcément être infaillible pour être qualifiée d’intelligente. Car dans le cas contraire, soyons cohérents, l’être humain n’est alors pas intelligent non plus…





Pas infaillible, mais elle doit faire un choix. Si l’IA ne fait que mimer le comportement humain, peut elle être considéré comme une Intelligence artificielle ?





Dans le cas d’une voiture autonome qui ne peut éviter un accident fatal. Soit deux piétons sont tués, soit le “conducteur” l’est. Quel choix doit faire l’IA de la voiture ? Et qui est responsable ?



Au pire la voiture est condamnée à deux ans de fourrière dont un avec sursis pour homicide involontaire.

Si la carte grise du véhicule prouve que cela n’ est pas la première fois que cela arrive, ce sera 3 ans de fourrière ferme.



Si la voiture fait marche arrière pour achever une des victimes là, c’ est peine de mort et direct le couloir de la casse en attendant le broyeur.



Plus sérieusement, la question se pose déjà plus ou moins avec toute l’ électronique à bord d’ un avion.

En cas de panne conduisant à une catastrophe, les tribunaux et l’ enquête aérienne délimite les responsabilités de l’ avionneur, la compagnie aérienne en charge de la maintenance ou le pilote.



Ceci dit, la question se posera plus tard pour les voitures full automatique car dans l’ immédiat je pense que le chauffeur à quand même un droit de veille lors du trajet je pense ?


Surtout que s’il s’agit d’une IA et non d’un système décisionnel, son choix variera selon sa formation. Si c’est un système décisionnel, il respectera toujours ce qui a été prévu, qui sera probablement conforme à la loi. Par contre, je doute qu’un simple système décisionnel sache analyser une telle situation.


C’est loin d’etre un simple fantasme c’est seulement qu’on en est trés loin encore … et que ce genre de “Théorie” ne s’appui que sur des spéculation, ce dont la science est faite en grande partie je te rappel.









zhebulonn a écrit :



Il faut choisir, quelle est la meilleure solution. Un accident n’est pas une conduite automatique, c’est un imprévu que l’IA doit gérer.



 Est on prêt à laisser à une IA le droit de vie ou de mort ? Dans ce cas, l’IA doit choisir qui va mourir.





Je te dirai qu’il n’y a pas de meilleure solution car celle-ci dépend entièrement du point de vue.



Prend le film iRobot, dedans le flic à été victime d’un accident et ce retrouve dans un lac coincé dans sa voiture ainsi qu’une petite fille coincée dans une 2ème voiture, l’IA à estimée que le flic avait plus de chance de survie et donc à sauvée le flic, mais lui n’était pas d’accord et aurait préféré qu’il sauve la petite fille. Après certains vont être d’accord ou pas avec ce choix. Tout ce que pourras présenter l’IA (mais la encore, on parle d’une IA pas évoluée mais pas complètement autonome) pour sa défense c’est un choix argumenté mais rien de plus.









zhebulonn a écrit :



Pas infaillible, mais elle doit faire un choix. Si l’IA ne fait que mimer le comportement humain, peut elle être considéré comme une Intelligence artificielle ?





Si ce n’est pas un “mime” dans le sens “imite sciemment parce qu’on l’a programmée explicitement comme ça”, mais que c’est un comportement qu’elle adopte spontanément comme nous, alors oui, elle peut être considérée comme telle.

&nbsp;

Si on créé une “véritable” IA, je ne vois absolument pas pourquoi elle ne devrait pas, elle aussi, avoir des défauts. On peut toute à fait imaginer qu’elle soit lâche, menteuse, manipulatrice, mesquine… Ou pas ! Tout comme les humains le sont, ou pas, suivant les cas !









zhebulonn a écrit :



Il faut choisir, quelle est la meilleure solution. Un accident n‘est pas une conduite automatique, c’est un imprévu que l‘IA doit gérer.



 Est on prêt à laisser à une IA le droit de vie ou de mort ? Dans ce cas, l’IA doit choisir qui va mourir.









Je te retourne le problème.

ça te pose plus ou moins de problème de laisser cette décision à une bête gestion d’exception codée par un humain plutôt qu’à une IA ? Et pourquoi ?



Une IA ne se pose d’ ailleurs pas la question de “qui je sacrifie ou qui je sauve ? ”



Elle prendra les décisions au cas par cas par exemple: j’ évite le piéton en mettant la voiture sur le côté… je slalom pour éviter un autre piéton… j’ essaie maintenant d’ éviter l’ arbre … raté… impact dans moins d’ un centième de seconde… j’ apelle les secours et active la geolocalisation du véhicule, je prépare l’ airbag… je préviens par sms madame que monsieur est mort… “








tic tac a écrit :



Une IA ne se pose d‘ ailleurs pas la question de &quot;qui je sacrifie ou qui je sauve ? &quot;



Elle prendra les décisions au cas par cas par exemple: j’ évite le piéton en mettant la voiture sur le côté… je slalom pour éviter un autre piéton… j‘ essaie maintenant d’ éviter l‘ arbre … raté… impact dans moins d’ un centième de seconde… j‘ apelle les secours et active la geolocalisation du véhicule, je prépare l’ airbag… je préviens par sms madame que monsieur est mort… &quot;









Tu oublie la prise de rdv chez les pompes funèbres et un comparatif de prix des cercueils <img data-src=" />



Le soucis quand on parle d’IA, c’est qu’on se réfère souvent à une des seules marques d’intelligence que l’on imagine, à savoir la nôtre.



Mais il y a, je pense, &nbsp;à peu près autant de formes d’intelligence artificielles que de formes de vie sur terre.

Il ne faut donc pas nécessairement voir une IA comme quelque chose capable d’amour ou de haine, ça n’a rien à voir.&nbsp;



En fait le risque dont parle Musk, c’est surtout d’un programme (car à la base c’est ça) capable de se réécrire et de faire évoluer son code de manière à s’adapter à différents environnements, jusqu’à ce qu’en ressorte une forme de prise de décision qui ne soit plus déterminée et cadrée par l’homme mais par le programme lui-même.

A partir de ce moment, et suivant la vitesse d’évolution du programme ( qui est corrélé au dimensionnement de la plateforme), on parle de ce fameux point de singularité.



De ce point de vue, nous n’en sommes pas si loin.

Mais de là à ce qu’émerge une conscience de ce système..&nbsp;



&nbsp;

&nbsp;








Jean_Peuplus a écrit :



Je te retourne le problème.

ça te pose plus ou moins de problème de laisser cette décision à une bête gestion d’exception codée par un humain plutôt qu’à une IA ? Et pourquoi ?





Je ne comprends pas pourquoi tu parles de “bête gestion d’exception”, un accident, par définition, c’est un imprévu, quelque chose de non géré au départ. Une gestion d’exception demande de gérer tous les cas, ce qui n’est pas possible ici, tout et n’importe quoi peut arriver.



Dans mon exemple, il n’y a pas d’autres solutions :





  • soit deux piétons meurent,

  • soit le conducteur meure, parce que la voiture a évité les piétons, mais ne pouvait pas éviter l’arbre.



    La voiture a analysé la problème et elle n’a que deux solutions.







    tic tac a écrit :



    Une IA ne se pose d’ ailleurs pas la question de “qui je sacrifie ou qui je sauve ?&nbsp;





    Elle va évaluer le meilleur résultat. Pour évaluer, il faudra qu’elle mette dans la balance la notion de vie ou de mort









zhebulonn a écrit :



Elle va évaluer le meilleur résultat. Pour évaluer, il faudra qu’elle mette dans la balance la notion de vie ou de mort





Nope, elle devrait juste sélectioner l’action ayant le plus de chance de réussite et autorisant un maximum de survivants.



Sauf que cela dépend de tout les paramètres à l’instant T, et suivant la théorie du chaos, ceci est imprévisible.



La décision finale est donc tout autant imprévisible… c’est le grand risque des IA.









sksbir a écrit :



Le probleme vient de ce qu’on associe à la locution “Intelligence Artificielle”. Les outils que tu cites sont réels, mais n’ont pas de rapport avec l’IA, en tout cas, pas celle dont il faudrait avoir peur.

Tous ces outils fonctionnent dans les limites de leur programmation, et tant qu’il en sera ainsi, l’IA au sens initial n’existe pas.

Le jour où un mécanisme sortira de sa programmation et fera des choses inattendues dans le sens de “pas programmé pour”, et non pas dans le sens de “on a induit une réponse aléatoire avec un générateur du même nom”, alors , on pourra parler de d’IA.



Jusque là, on ne fait que de l’imitation.





Je ne suis pas d’accord ; c’est une question de degré : tu ne dirais pas qu’une crevette est intelligente et pourtant entre une crevette et un être humain la différence n’est qu’une question de puissance de calcul. Où, dans le règne animal, l’intelligence commence t-elle ? Toute frontière précise serait arbitraire.



D’ailleurs tu sous-estimes la programmation humaine : le fait que certaines formes en particulier, celles du sexe opposé, induisent chez moi une réaction sexuelle, le fait que les disproportions infantiles m’attendrissent (grande tête, grands yeux, marche cahotante, etc), l’appétence pour le sucre, la volonté de socialisation et de domination, la volonté de communiquer par la parole, la curiosité, le plaisir à résoudre des problèmes, et bien d’autres choses, sont biologiquement préprogrammées. Nous évoluons dans notre totalité dans les limites des comportements programmés.









zhebulonn a écrit :



Je ne comprends pas pourquoi tu parles de “bête gestion d’exception”, un accident, par définition, c’est un imprévu, quelque chose de non géré au départ. Une gestion d’exception demande de gérer tous les cas, ce qui n’est pas possible ici, tout et n’importe quoi peut arriver.





En programmation tu peux tout à fait gérer des exceptions non prévues, le bloc “try / catch” est fait pour ça. Et bien généralement, quand tu récupère une exception imprévue, soit tu arrêtes le programme si tu peux te le permettre, soit tu passes (au moins temporairement) dans un mode dégradé, où tu ne traites pas les données comme d’habitude (exemple : Tu mets un gros Warning dans les logs et tu passes à la donnée suivante).



Donc ici, on peut très bien imaginer que l’IA se retrouve surprise et prise au dépourvu dans un cas qu’elle n’a pas prévu, et qu’elle se dise “bon, bah, on va voir ce qu’il se passe, moi j’sais pas quoi faire là alors je ne fais rien”.









Choub a écrit :



Nope, elle devrait juste sélectioner l’action ayant le plus de chance de réussite et autorisant un maximum de survivants.





Pourquoi ? Si elle est vraiment intelligente, elle devrait avoir son libre arbitre. Donc elle ne pensera pas nécessairement comme ça.



On parle d’une IA là, pas d’un programme d’aide à la décision qui s’appuie sur des directives limitées qu’on lui impose…









chaps a écrit :



Si ce n’est pas un “mime” dans le sens “imite sciemment parce qu’on l’a programmée explicitement comme ça”, mais que c’est un comportement qu’elle adopte spontanément comme nous, alors oui, elle peut être considérée comme telle.

&nbsp;

Si on créé une “véritable” IA, je ne vois absolument pas pourquoi elle ne devrait pas, elle aussi, avoir des défauts. On peut toute à fait imaginer qu’elle soit lâche, menteuse, manipulatrice, mesquine… Ou pas ! Tout comme les humains le sont, ou pas, suivant les cas !





attend avec impatience que quelqu’un crée Wheatley









zhebulonn a écrit :



Je ne comprends pas pourquoi tu parles de &quot;bête gestion d‘exception&quot;, un accident, par définition, c’est un imprévu, quelque chose de non géré au départ. Une gestion d‘exception demande de gérer tous les cas, ce qui n’est pas possible ici, tout et n‘importe quoi peut arriver.



Dans mon exemple, il n’y a pas d‘autres solutions :

soit deux piétons meurent,soit le conducteur meure, parce que la voiture a évité les piétons, mais ne pouvait pas éviter l’arbre.La voiture a analysé la problème et elle n‘a que deux solutions.





Elle va évaluer le meilleur résultat. Pour évaluer, il faudra qu’elle mette dans la balance la notion de vie ou de mort









Et moi je ne comprends pas que tu puisses pas imaginer qu’on puisse prendre en compte tous les évènements et combinaisons d’évènements possibles dans une gestion d’exception. C’est beaucoup de travail mais c’est pas impossible. Ton accident se traduit en données capteurs qui peuvent être interprétées et gérées. Taille, vitesse, forme, direction de tout objet rentrant dans le champ des capteurs, bruits, etc, etc



Tu crois vraiment que c’est moins complexe de créer une IA que de faire ce genre de chose ?









zhebulonn a écrit :



Je ne comprends pas pourquoi tu parles de “bête gestion d’exception”, un accident, par définition, c’est un imprévu, quelque chose de non géré au départ. Une gestion d’exception demande de gérer tous les cas, ce qui n’est pas possible ici, tout et n’importe quoi peut arriver.



Dans mon exemple, il n’y a pas d’autres solutions :

soit deux piétons meurent,soit le conducteur meure, parce que la voiture a évité les piétons, mais ne pouvait pas éviter l’arbre.La voiture a analysé la problème et elle n’a que deux solutions.





Elle va évaluer le meilleur résultat. Pour évaluer, il faudra qu’elle mette dans la balance la notion de vie ou de mort





Une gestion d’exception ne gére pas “tous les cas possibles”, c’est la gestion d’un ou plusieurs cas d’exception dont on a pas la réponse et on va faire une “réponse groupé pour tout le monde”.&nbsp;



Si la voiture perd toute l’electronique à bord =&gt; on met les warnings, annonce qu’on a un souci aux autres véhicules, on prend les dernières info de géoloc, et on essaye de mettre la voiture en suretée. Si c’est pas possible rapidement, on freine pour éviter de créer des accidents.



Si il n’est pas possible d’éviter les piétons (donc sans créer un autre accident), alors la voiture va freiner du mieux possible, et préparer le conducteur au choc (serrer la ceinture, airbag …), voir si à l’avenir ça existe, un “airbag pieton” ….



il ne va pas compter le nombre de pietons, et le nombre de passager pour savoir “qui je dois sauver” … et au passage, il restera largement meilleur que “l’humain” pour “éviter de se mettre dans ce genre de situation”, et pour freiner de manière optimale (pas besoin d’ABS quand c’est la voiture qui gére le freinage).









Choub a écrit :



Nope, elle devrait juste sélectioner l’action ayant le plus de chance de réussite et autorisant un maximum de survivants.





Pas forcément. Tout dépend de ce qu’ont prévu les programmeurs. Ils pourraient attribuer un poids différent selon l’âge.





Sauf que cela dépend de tout les paramètres à l’instant T, et suivant la théorie du chaos, ceci est imprévisible.



Attention : tous les systèmes à multiples paramètres ne sont pas forcément chaotiques. Ici les nombres de véhicules et de passagers n’ont probablement pas de conséquences chaotiques. En revanche les positions et vitesses des véhicules engendrent presque certainement des comportements chaotiques : dix centimètres de plus ou de moins feront que l’algorithme choisira de heurter telle voiture plutôt que telle autre.







atomusk a écrit :



il ne va pas compter le nombre de pietons, et le nombre de passager pour savoir “qui je dois sauver”





Probablement que si. Parce qu’il est probable que les programmeurs intégreront ces facteurs dans l’algorithme. Là aussi c’est un choix fait par des hommes.









WereWindle a écrit :



attend avec impatience que quelqu’un crée Wheatley





SPAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAACE









chaps a écrit :



Pourquoi ? Si elle est vraiment intelligente, elle devrait avoir son libre arbitre. Donc elle ne pensera pas nécessairement comme ça.



On parle d’une IA là, pas d’un programme d’aide à la décision qui s’appuie sur des directives limitées qu’on lui impose…



Dans ce cas il ne faut pas parler de gestion d’exception puisque l’on parle d’un système qui s’adapte à une situation, et donc le principe d’exception n’existe pas.









Jean_Peuplus a écrit :



Et moi je ne comprends pas que tu puisses pas imaginer qu’on puisse prendre en compte tous les évènements et combinaisons d’évènements possibles dans une gestion d’exception.





Effectivement, je ne pense pas qu’on puisse gérer tous les événements d’une journée/vie/autre par une gestion d’exception.



&nbsp;





Jean_Peuplus a écrit :



Tu crois vraiment que c’est moins complexe de créer une IA que de faire ce genre de chose ?





Je vois pas à quel moment j’ai pu laisser penser ça.









HarmattanBlow a écrit :



Pas forcément. Tout dépend de ce qu’ont prévu les programmeurs. Ils pourraient attribuer un poids différent selon l’âge.





Mais si c’est le programmeur qui fait le choix, il ne s’agit plus d’une IA.









HarmattanBlow a écrit :



Pas forcément. Tout dépend de ce qu’ont prévu les programmeurs. Ils pourraient attribuer un poids différent selon l’âge.





Attention : tous les systèmes à multiples paramètres ne sont pas forcément chaotiques. Ici les nombres de véhicules et de passagers n’ont probablement pas de conséquences chaotiques. En revanche les positions et vitesses des véhicules engendrent presque certainement des comportements chaotiques : dix centimètres de plus ou de moins feront que l’algorithme choisira de heurter telle voiture plutôt que telle autre.





Probablement que si. Parce qu’il est probable que les programmeurs intégreront ces facteurs dans l’algorithme. Là aussi c’est un choix fait par des hommes.





Mettez vous d’accord, soit c’est une IA qui prend seule ses décisions, soit son périmètre est restreint, et donc ses décisions sont limitées aux choix codés en dur, et on ne parle plus vraiment d’IA.









Choub a écrit :



Nope, elle devrait juste sélectioner l’action ayant le plus de chance de réussite et autorisant un maximum de survivants.



Sauf que cela dépend de tout les paramètres à l’instant T, et suivant la théorie du chaos, ceci est imprévisible.



La décision finale est donc tout autant imprévisible… c’est le grand risque des IA.









Pour moi, cette idée n’a aucun sens.

L’idée que quelqu’un irai fait un calcul du “nombre de survivant” me semble impossible.&nbsp;



De toute façon, ça restera du “best effort”. La voiture fera au mieux pour éviter l’accident, mais n’ira jamais déclencher un autre accident pour éviter l’accident “parce que celui que je déclenche sera moins grave”.



Si il n’y a pas de moyen d’avoir aucun accident, alors on limitera les dégâts de l’accident.



Parce qu’en voulant “créer un accident moins grave”, il y a quand même une probabilité non nulle que cet accident ait des effets non prévu (fuite d’essence, explosion, dégâts collatéraux non prévu … ).









zhebulonn a écrit :



Mais si c’est le programmeur qui fait le choix, il ne s’agit plus d’une IA.









Choub a écrit :



Mettez vous d’accord, soit c’est une IA qui prend seule ses décisions, soit son périmètre est restreint, et donc ses décisions sont limitées aux choix codés en dur, et on ne parle plus vraiment d’IA.





Et vous, vous éviterez l’oiseau ou l’enfant ? Êtes-vous sûrs que cette hiérarchie n’est pas programmée ?



Ou, d’une façon provocante : vous êtes attirés par les jeunes femmes pulpeuses plutôt que par les chiots labradors. Dans le cadre de ce paramètre préprogrammé vous êtes bien sûr libres de déployer n’importe quelle stratégie de reproduction, du viol au restaurant romantique, en passant par ce vieux Barry White.



Une Google Car contiendra un mélange d’intelligence et de programmation, comme n’importe quel être biologique. Sa part de programmation à elle sera simplement plus grande mais il y aura bien des circuits intelligents. Il est tout à fait concevable que ce soit un réseau neural qui prenne in fine les décisions de vie et de mort mais en se basant sur des poids évalués par des algorithmes programmés.









zhebulonn a écrit :



Effectivement, je ne pense pas qu‘on puisse gérer tous les événements d’une journée/vie/autre par une gestion d‘exception.



 



Je vois pas à quel moment j’ai pu laisser penser ça.









Tu changes d’exemple là.

Dans le cadre d’une voiture à conduite automatique, le nombre de capteurs qu’auront prévu les créateurs de la voiture sera fini, donc le nombre de données à gérer également, donc la combinaison des différente données également.

Donc c’est possible, c’est un fait, après on se confronte à l’erreur (ou l’oubli qui est une forme d’erreur) qui est humaine. Et justement, on peut imaginer qu’une IA en ferait moins. Imaginer seulement car à lire certains j’ai l’impression qu’ils pensent que ça existe déjà, mais non, on fantasme là.









atomusk a écrit :



SPAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAACE





oui le Space core aussi tant qu’à faire <img data-src=" />









HarmattanBlow a écrit :



Et vous, vous éviterez l’oiseau ou l’enfant ? Êtes-vous sûrs que cette hiérarchie n’est pas innée ?



Ou, d’une façon provocante : vous êtes attirés par les jeunes femmes pulpeuses plutôt que par les chiots labradors. Dans le cadre de ce paramètre préprogrammé vous êtes es bien sûr libres de déployer n’importe quelle stratégie de reproduction, du viol au restaurant romantique.





Tu pars hors sujet là

&nbsp;



atomusk a écrit :



Pour moi, cette idée n’a aucun sens.

L’idée que quelqu’un irai fait un calcul du “nombre de survivant” me semble impossible.&nbsp;



De toute façon, ça restera du “best effort”. La voiture fera au mieux pour éviter l’accident, mais n’ira jamais déclencher un autre accident pour éviter l’accident “parce que celui que je déclenche sera moins grave”.



Si il n’y a pas de moyen d’avoir aucun accident, alors on limitera les dégâts de l’accident.



Parce qu’en voulant “créer un accident moins grave”, il y a quand même une probabilité non nulle que cet accident ait des effets non prévu (fuite d’essence, explosion, dégâts collatéraux non prévu … ).





Effectivement ça n’est pas réalisable, c’est pour cette raison qu’on appelle ça un accident, car l’enchaînement d’actions n’était pas prévisible.&nbsp;

C’est tout le problème de la prise de décision, car la décision dépend des paramètres de départ du système, et ces paramètres seront limités à ceux que peut capter la voiture.



Mais encore une fois, tout dépend de la capacité du programme à prendre une décision qui sort du cadre prévu. S’il le peut, alors on parle d’IA, sinon on parle d’arbre décisionnel.









HarmattanBlow a écrit :



Et vous, vous éviterez l’oiseau ou l’enfant ? Êtes-vous sûrs que cette hiérarchie n’est pas programmée ?



Ou, d’une façon provocante : vous êtes attirés par les jeunes femmes pulpeuses plutôt que par les chiots labradors. Dans le cadre de ce paramètre préprogrammé vous êtes bien sûr libres de déployer n’importe quelle stratégie de reproduction, du viol au restaurant romantique, en passant par ce vieux Barry White.



Une Google Car contiendra un mélange d’intelligence et de programmation, comme n’importe quel être biologique. Sa part de programmation à elle sera simplement plus grande mais il y aura bien des circuits intelligents. Il est tout à fait concevable que ce soit un réseau neural qui prenne in fine les décisions de vie et de mort mais en se basant sur des poids évalués par des algorithmes programmés.





Tu mélanges un peu tout, Google fait des voitures qui roulent sans conducteurs, mais ne fabrique pas des circuits intelligents capable d’évoluer et de générer des actions inattendues, ce qui serait suicidaire pour le pilotage d’une voiture.









Choub a écrit :



Tu pars hors sujet là





Pas du tout : tu demandais si c’était le fruit d’un programme ou d’un comportement intelligent, or je rappelle depuis tout à l’heure que tous les êtres biologiques sont autant le fruit d’une très importante pré-programmation que de comportements acquis. Notre intelligence c’est la somme des deux. Il en ira de même pour la google car : elle prendra sans doute de façon intelligence sa décision face à un accident mais ce sera sur la base de valeurs adjugées par le programmeur ou un algorithme programmé. Tout comme tu choisis ou non de te reproduire mais toujours avec une femme et pas avec un chiot labrador.









Choub a écrit :



Tu mélanges un peu tout, Google fait des voitures qui roulent sans conducteurs, mais ne fabrique pas des circuits intelligents capable d’évoluer et de générer des actions inattendues, ce qui serait suicidaire pour le pilotage d’une voiture.





Je reconnais que je m’avance peut-être un peu en parlant de la Google Car mais je ne crois pas : je ne pense pas qu’il soit possible de concevoir un algorithme intégrant tous les paramètres. Je pense qu’ils ont forcément un programme adaptatif et intelligent en son centre, interagissant avec, via et sur la base d’algorithmes traditionnels.



Un autre exemple : chez l’être humain plusieurs parties du cerveau sont dédiées à la réalisation de traitements mathématiques des signaux reçus (audition, vision, etc). Ce ne sont évidemment pas des comportements acquis, ce sont des programmes innés. Et c’est en interagissant avec ces parties programmées du cerveau que les parties intelligentes de notre vision fonctionnent.



Intelligence = circuits adaptatifs + programmes.








Jean_Peuplus a écrit :



Tu changes d’exemple là.

Dans le cadre d’une voiture à conduite automatique, le nombre de capteurs qu’auront prévu les créateurs de la voiture sera fini, donc le nombre de données à gérer également, donc la combinaison des différente données également.

Donc c’est possible, c’est un fait, après on se confronte à l’erreur (ou l’oubli qui est une forme d’erreur) qui est humaine. Et justement, on peut imaginer qu’une IA en ferait moins. Imaginer seulement car à lire certains j’ai l’impression qu’ils pensent que ça existe déjà, mais non, on fantasme là.





Le nombre de capteurs est déterminé, ok. Mais la réaction aux données des capteurs, elle, ne peut pas être gérée par une gestion d’erreur et prétendre qu’il s’agit d’une IA.

Pour moi, mais peut être que je me trompe, si on parle d’IA, il y a la notion de choix. Si tout est conditionné dès le début, il s’agit juste d’exécuter des cas possibles.









HarmattanBlow a écrit :



Tout comme tu choisis ou non de te reproduire mais toujours avec une femme et pas avec un chiot labrador.





Euuuh, il y a des personnes qui essayent pourtant.<img data-src=" />









HarmattanBlow a écrit :



Je ne suis pas d’accord ; c’est une question de degré : tu ne dirais pas qu’une crevette est intelligente et pourtant entre une crevette et un être humain la différence n’est qu’une question de puissance de calcul. Où, dans le règne animal, l’intelligence commence t-elle ? Toute frontière précise serait arbitraire.



D’ailleurs tu sous-estimes la programmation humaine : le fait que certaines formes en particulier, celles du sexe opposé, induisent chez moi une réaction sexuelle, le fait que les disproportions infantiles m’attendrissent (grande tête, grands yeux, marche cahotante, etc), l’appétence pour le sucre, la volonté de socialisation et de domination, la volonté de communiquer par la parole, la curiosité, le plaisir à résoudre des problèmes, et bien d’autres choses, sont biologiquement préprogrammées. Nous évoluons dans notre totalité dans les limites des comportements programmés.





Alors disons qu’est intelligent ce qui est capable d’évoluer, et ne l’est pas ce qui n’en est pas capable. Les programmes et artefacts que nous créons aujourd’hui sont incapables d’évoluer, c’est à dire de sortir des limites qu’on leur a imposé au départ.

&nbsp;Si les crevettes sont capables d’avoir un nouveau type de comportement face à un nouveau prédateur ou plus généralement un changement imprévu de leur environnement, alors elles sont intelligentes.



On peut fabriquer des machines qui vont avoir un nouveau type de comportement face à un environnement imprévu, mais cet environnement n’est pas totalement imprévu : il a été prévu parmi tous les cas de figures possibles que peuvent imaginer les programmeurs.



Le jour où une google car s’arrêtera d’elle même devant un garage pour se faire changer ses pneus juste parce qu’elle aura compris toute seule que garage –&gt; pneus –&gt; pneus pour moi, alors qu’on ne lui aura jamais programmé de routine concernant sa propre maintenance, ce jour là, oui, les google cars seront intelligentes… on n’en est pas là.









sksbir a écrit :



Les programmes et artefacts que nous créons aujourd’hui sont incapables d’évoluer, c’est à dire de sortir des limites qu’on leur a imposé au départ.

Si les crevettes sont capables d’avoir un nouveau type de comportement face à un nouveau prédateur ou plus généralement un changement imprévu de leur environnement, alors elles sont intelligentes.





Mais survivre face à un prédateur s’inscrit toujours dans les mêmes contraintes : la survie par une réaction sur la base des stimuli visuels et sensoriels.



Après une crevette a une panoplie limitée de réactions. Mais tout comme tu es incapable de t’arrêter de respirer pendant dix minutes pour tromper un prédateur ou de lui sacrifier tes enfants pour t’enfuir. Sont-ce des limites de ton intelligence ?



Bien qu’intuitive ta distinction s’écroule rapidement car, à nouveau, les comportements de l’être humain sont eux aussi inscrits dans des paramètres préprogrammés. Tous sans exception il me semble, y compris l’art et la science.





Le jour où une google car s’arrêtera d’elle même devant un garage pour se faire changer ses pneus juste parce qu’elle aura compris toute seule que garage –&gt; pneus –&gt; pneus pour moi, alors qu’on ne lui aura jamais programmé de routine concernant sa propre maintenance, ce jour là, oui, les google cars seront intelligentes… on n’en est pas là.



Si une google car s’arrêtait d’elle-même son propriétaire la ramènerait. Si Google a rencontré ce problème ils ont donc sans doute ajouté un programme superviseur pour vérifier qu’elle ne prend pas ce genre de décisions d’elle-mêmes. Tout comme il t’est impossible de te retenir de respirer jusqu’à l’asphyxie.



Cela dit nos voiture incluent de plus en plus de capteurs, cela devient sans doute ingérable ou inefficace pour des algorithmes traditionnels, et je ne serais pas surpris d’apprendre que certaines voitures utilisent dores et déjà des réseaux neuronaux pour détecter la venue de certains problèmes en fonction de leurs capteurs internes.







zhebulonn a écrit :



Euuuh, il y a des personnes qui essayent pourtant.<img data-src=" />





Je ne crois pas qu’ils voient dans leur chien un partenaire reproductif, ils le voient plutôt comme un artifice générateur de plaisir au même titre qu’un jouet sexuel. C’est un choix conscient, contrairement à l’attirance sexuelle.



Si l’humanité a foirer l’éducation, la communication et la cohabitation avec une IA qu’ils ont crée, vous croyais pas que l’humanité mérite de crever ?<img data-src=" />









XMalek a écrit :



Merde je suis un grand sataniste sans même le savoir… ben ouais j’ai fait pleins d’ia dans les jeux vidéos O_o





Oh tien, tu peu me recommander 1 ou 2 bouquin sur le sujet, j’ai toujours voulus essayer de développer de l’IA.<img data-src=" />









tic tac a écrit :



L’ étape suivante n’ est plus l’ aide au diagnostic (si on reste dans le domaine médical de Watson) mais directement la recherche médicale pure et simple.

Si il est capable dans sa version actuelle de trouver une solution (qui n’ est qu’ une simple donnée parmis les millions existantes) à travers les infos qu’ on lui donne pour le faire, pourquoi pas dans un avenir proche le faire travailler à trouver une solution nouvelle à partir des milliards de données à sa disposition.



La plus grosse avancée prochaine en matière d’ IA est de concevoir non plus un algorithme capable de trouver LA donnée dans une base mais de trouver une donnée inexistante qu’ il aura trouvé en “reformulant” sa base de donnée de lui même.



Watson est capable de créer un résumé de plusieurs textes différents.

Ce qui implique donc qu’ il crée un nouveau texte à partir de ceux à sa disposition.

Le but est qu’ il puisse faire aussi quelque chose de nouveau non plus avec du texte mais avec des données plus complexes.





Ce que tu décris c’est pas forcément de l’intelligence (artificielle) mais plus de la programmation. Par exemple pour l’aide au diagnostique, c’est de l’analyse de data et de croiser ces data aux bases de données médicale et de croiser les correspondances pour retourner un résultat. C’est déjà ce que fait Google avec Search et GMail (pour le tri des réponses sur les réponses de Google Search et le tri automatique avec les tags qui vont bien à la réception d’un mail dans GMail).



Une IA est plus évoluée, on va prendre un exemple. Une équipe &nbsp;crée une IA de base avec des connaissances de bases (assez pour comprendre une question). On lui demande une réponse sur une question médicale. A partir de ce moment, le programme va se réécrire pour se permettre de se connecter à des bases de données extérieures (sans que l’on les ai spécifié avant), augmenter soi-même ses caractériques pour traiter/stocker ces données (augmentation de l’espace disque, utilisation de CPU d’autres ordinateurs (de calcul bien sûr) de soi-même), va apprendre lui-même tout ce qu’il y a à savoir sur la médecine, va ensuite traiter la question en compulsant les données du problème puis retourner un résultat.

Au final, le programme se sera réécrit pour répondre à une question à laquelle il n’était pas programmer pour le faire au départ. C’est bien plus complexe qu’un programme se servant de Big Data.



@Jean_Peuplus

Tu sous-estimes le potentiel de l’Homme sur le fait qu’il puisse faire des choses qui sont plus complexes que lui-même (où qu’il n’est pas prêt pour l’utiliser). Tu prends la bombe atomique qui était largement plus efficace que ce qu’ils avaient prévu à la base. Dans le cas présent ils ont créés une arme en sous-estimant largement son potentiel de destruction, ce qui peut-être potentiellement le cas de la création d’une IA.

La programmation elle même pourrait être considéré comme un outil trop complexe pour l’Homme actuellement. 98% de la population n’a aucune idée de comment fonctionne précisément un programme informatique mais est pourtant largement dépendant de ces derniers (et encore moins sont capables de coder à bas niveau voir en assembleur).

Si un jour (c’est du fantasme complet là) tous les programmeurs disparaissent d’un coup de la surface du globe, la civilisation s’effondrera en un rien de temps (pas l’Homme, qui, après une période de chaos, reformera une nouvelle civilisation), mais c’est le type d’exemple qui montre que l’Homme utilise quotidiennement des outils qu’ils ne maîtrise pas du tout.









Anthodev a écrit :



Une IA est plus évoluée, on va prendre un exemple. (..) le programme va se réécrire pour se permettre de se connecter à des bases de données extérieures (sans que l’on les ai spécifié avant), augmenter soi-même ses caractériques pour traiter/stocker ces données (augmentation de l’espace disque, utilisation de CPU d’autres ordinateurs (de calcul bien sûr) de soi-même), va apprendre lui-même tout ce qu’il y a à savoir sur la médecine, va ensuite traiter la question en compulsant les données du problème puis retourner un résultat.





Tu as déjà réécrit ton code génétique, spéculé en bourse pour gagner l’argent pour louer les services de mille individus pour parvenir à tes fins et épluché des bases de données extra-terrestres ? Non ? C’est bien ce que je pensais.



Une IA évoluée ne réécrira PAS son programme. Son programme serait suffisamment généraliste pour être adaptatif à toute tâche selon les données reçues tout comme le fait notre réseau neuronal. Mais c’est toujours le même programme.





La programmation elle même pourrait être considéré comme un outil trop complexe pour l’Homme actuellement. 98% de la population n’a aucune idée de comment fonctionne précisément un programme informatique mais est pourtant largement dépendant de ces derniers (et encore moins sont capables de coder à bas niveau voir en assembleur).



Coder en assembleur n’est pas difficile. La complexité n’est pas là.

En revanche je suis d’accord pour dire que la programmation est trop complexe pour le cerveau humain : les programmeurs eux-mêmes n’y arrivent qu’après avoir perdu beaucoup de temps et pas sans commettre de nombreuses erreurs. Et ne parlons même pas du taux d’abandon, surtout sur les grands projets.





Si un jour (c’est du fantasme complet là) tous les programmeurs disparaissent d’un coup de la surface du globe, la civilisation s’effondrera en un rien de temps.



Bien sûr que non. L’essentiel serait surmonté en une semaine, le gros en six mois, le reste en cinq ans. Il y a encore plein de gens qui ont des connaissances pré-informatiques.



Il a au moins le mérite d’en parler et de soulever la question.

Pas comme un patron de Google ou FB….








HarmattanBlow a écrit :



Tu as déjà réécrit ton code génétique, spéculé en bourse pour gagner l’argent pour louer les services de mille individus pour parvenir à tes fins et épluché des bases de données extra-terrestres ? Non ? C’est bien ce que je pensais.



Une IA évoluée ne réécrira PAS son programme. Son programme serait suffisamment généraliste pour être adaptatif à toute tâche selon les données reçues tout comme le fait notre réseau neuronal. Mais c’est toujours le même programme.





Coder en assembleur n’est pas difficile. La complexité n’est pas là.

En revanche je suis d’accord pour dire que la programmation est trop complexe pour le cerveau humain : les programmeurs eux-mêmes n’y arrivent qu’après avoir perdu beaucoup de temps et pas sans commettre de nombreuses erreurs. Et ne parlons même pas du taux d’abandon, surtout sur les grands projets.





Bien sûr que non. L’essentiel serait surmonté en une semaine, le gros en six mois, le reste en cinq ans. Il y a encore plein de gens qui ont des connaissances pré-informatiques.





Adapter son code génétique, non (encore que, sur plusieurs génération), mais le cerveau s’adapte.

Toujours dans “Sciences et vie”, j’ai lu un article sur l’impact que le métier exercé peut&nbsp; avoir sur le cerveau. Les taxis, on, par exemple, si je me souviens bien, un hippocampe plus développé. Donc oui, l’humain s’adapte bien plus qu’on ne le croit.



Le cerveau passe son temps à créer de nouvelles connexion, à s’adapter.



Je n’ai pas de connaissance en programmation d’IA, mais pourquoi es tu si catégorique sur le fait qu’une IA ne réécrira pas son programme ?



Tu confonds intelligence et réactions ataviques.



Mes paramètres préprogrammés comme tu dis m’interdisent de faire des bonds de 8000km de long… et pourtant des milliers de personnes font ça chaque jour…

Et c’est bien l’intelligence collective de mon espece qui a permit ça, et c’est cette intelligence qui lui a également permis de s’affranchir de la crainte des prédateurs,etc… Autrement dit, on est sorti de nos paramètres soit disant préprogrammés. Ce seul exemple suffit à casser ta logique à propos de cette histoire de paramètres. Et l’art et la science qui seraient dans des paramètre préprogrammés.. J’avais oublié qu’on se transmet ça par génétique…



Et les arguments que tu avances sur la google car sont à coté de la&nbsp; plaque. Si une google car s’arrêtait d’elle même, alors ce qui se passe après, je m’en tape. La question, c’est de savoir pourquoi, et c’est là que j’explique que SI le pourquoi de cet arrêt n’est pas dans le programme etc… mais bon, quand on veut pas comprendre…








HarmattanBlow a écrit :



Tu as déjà réécrit ton code génétique, spéculé en bourse pour gagner l’argent pour louer les services de mille individus pour parvenir à tes fins et épluché des bases de données extra-terrestres ? Non ? C’est bien ce que je pensais.&nbsp;





Non mais j’écris (réécris en cas d’erreur) ma mémoire en incorporant les données que j’ai lu pour faire ce que je souhaite accomplir.

Une IA pour “apprendre” les choses qu’elle fait, elle doit stocker les données qu’elle a traité ou alors elle réécrit son programme pour être bien plus efficace (et dans le cas de l’Homme, ce sont les deux).



HarmattanBlow a écrit :

Une IA évoluée ne réécrira PAS son programme. Son programme serait suffisamment généraliste pour être adaptatif à toute tâche selon les données reçues tout comme le fait notre réseau neuronal. Mais c’est toujours le même programme.



&nbsp;Pour &nbsp;qu’elle soit vraiment adaptative, elle doit pouvoir modifier sa programmation pour potentiellement répondre à toutes les situations. Tu parles de notre réseau neuronal mais c’est justement notre programmation biologique qui exécute ces tâches (comme par exemple l’ordre qui ordonne à notre cerveau de d’utiliser/connecter un neurone pour exécuter l’instruction) pour qu’on s’adapte aux situations qui se présentent à nous.



&nbsp;HarmattanBlow a écrit :

Bien sûr que non. L’essentiel serait surmonté en une semaine, le gros en six mois, le reste en cinq ans. Il y a encore plein de gens qui ont des connaissances pré-informatiques.



&nbsp;Tu oublies tout le chaos mondial pendant plusieurs semaines/mois lorsque les systèmes failleront les uns après les autres, surtout sur les systèmes critiques (maintenance des réacteurs nucléaires, des systèmes urbains (les feux de circulation, la distribution énergétique et en eau), &nbsp;etc…)



Pas d’accord, le principe meme d’une IA si evoluee est que justement elle est capable d’apprendre, de creer ses heuristiques, de nouvelles fonctions etc … en d’autre mot s’etendre elle meme. Cela passe par 2 choses, soit elle reecrit des bouts de code d’elle meme comme le fait le cerveau en creant de nouvelle connections et fait evoluer sa structure (l’ia comme le cerveau) soit elle ecrit une nouvelle ia avant de s’auto detruire dans un processus d’evolution.



Le seul moment ou elle ne le fera pas au final, c’est quand elle aura rencontree tellement de problem qu’elle n’aura plus besoin de s’etendre pour resoudre de nouveaux problem, mais je pense que l’on doit etre dans un cas proche de 0


Il a raison pourvu qu’ils ne laissent pas des IA gérer le fonctionnement des infrastructures critiques.



Connaissant nos gugusses au gouvernement, ça risque d’être drôle si tenté qu’ils en aient les moyens.








Lafisk a écrit :



Pas d’accord, le principe meme d’une IA si evoluee est que justement elle est capable d’apprendre, de creer ses heuristiques, de nouvelles fonctions etc … en d’autre mot s’etendre elle meme.









Anthodev a écrit :



Non mais j’écris (réécris en cas d’erreur) ma mémoire en incorporant les données que j’ai lu pour faire ce que je souhaite accomplir.









zhebulonn a écrit :



Donc oui, l’humain s’adapte bien plus qu’on ne le croit. Le cerveau passe son temps à créer de nouvelles connexion, à s’adapter.





Mais c’est toujours le même réseau neuronal. Les données sur lesquelles le programme opère ont simplement changées.



Une IA réécrira peut-être son programme un jour tout comme des humains modifieront peut-être un jour leur code génétique. Mais ce n’est pas nécessaire pour produire une adaptation, il suffit de modifier les poids des connexions du circuit comme dans notre réseau. Ce n’est pas réécrire le programme. Et ce genre d’adaptation est déjà à l’œuvre de nombreux systèmes.







sksbir a écrit :



Tu confonds intelligence et réactions ataviques.





Mais ces réactions font partie de notre comportement, l’intelligence opère via, à travers et sur la base de ces réactions. Elle ne peut en être dissociée dans son fonctionnement.



Par ailleurs j’aurais pu illustrer mon exemple avec des limites de l’intelligence comme notre incapacité à suivre plusieurs fils de pensée simultanés ou nos limites à distinguer certains motifs et qui fait qu’il nous a fallu des millénaires pour abandonner les épicycles ou qu’il nous faut des années de recherche pour comprendre la communication des oiseaux. On dit que la crevette n’est pas intelligente alors qu’elle est moins intelligente que nous car incapable de percevoir les choses comme nous, tout comme nous sommes incapables de percevoir ce qu’une espèce plus intelligente percevrait d’emblée.



Nous sommes incapables de concevoir des mécanismes supérieurs d’intelligence comme un enfant est incapable de concevoir le raisonnement abstrait. Mais ces formes pourraient éventuellement nous classer comme non-intelligent ou semi-intelligent. Notre intelligence s’inscrit dans nos limites biologiques et elle n’est pas un repère absolu.





Autrement dit, on est sorti de nos paramètres soit disant préprogrammés.



Ceux qui ont créé cet avion et tout ce qui va avec ont été motivés par la survie, le pouvoir et la curiosité. Ils ont suivi les paramètres de leur programme.





mais bon, quand on veut pas comprendre…



Je te renvoie la phrase. SI la discussion t’énerve, inutile de t’en mêler.



De mon temps y avait pas trop de bons bouquins dessus malheureusement j’ai appris sur le tas et grâce à des gens qui bossaient déjà dans le JV (j’ai fait une école spécialisé dans le JV).



Quelques bonnes lectures ce sont les codes sources de jeux déjà existants., les cours d’intel (qui sont des références dans la programmation et que plus de gens devraient lire dans le milieu “industriel”) et les articles sur gamasutra parlant de l’IA.



Mais mon meilleur conseil c’est : plus l’IA est random plus on te dira qu’elle est vachement intelligente (test fait sur un panel de 500 joueurs ou non <img data-src=" />, sur une IA de jeu de plateau porté sur PC)








HarmattanBlow a écrit :



Mais c’est toujours le même réseau neuronal. Les données sur lesquelles le programme opère ont simplement changées.





A vérifier, mais il me semble que contrairement à ce qu’on pouvait penser, le cerveau créé des neurones durant toute son existence.



&nbsp;





HarmattanBlow a écrit :



Nous sommes incapables de concevoir des mécanismes supérieurs d’intelligence comme un enfant est incapable de concevoir le raisonnement abstrait. Mais ces formes pourraient éventuellement nous classer comme non-intelligent ou semi-intelligent.





Mais un enfant sera par la suite capable d’en avoir un.

&nbsp;



&nbsp;





HarmattanBlow a écrit :



&nbsp; Notre intelligence s’inscrit dans nos limites biologiques et elle n’est pas un repère absolu.&nbsp;





Tu t’en sers pourtant pour dire comment doit être une IA et sur quoi elle doit se baser.









Jean_Peuplus a écrit :



Ton exemple n’a pour moi rien a voir avec une intelligence, capable de voir un problème sous une perspective nouvelle et d’imaginer des solutions non prévues à l’avance.&nbsp;





Alors tu n’as probablement pas utilisé beaucoup d’algos d’optimisation. Ces petites bêtes sont certes très stupides, mais elles ont parfois le don d’aller chercher une solution totalement improbable qui marche du tonnerre, et qu’un type même intelligent n’aurait jamais envisagé. Ca n’a rien à voir avec de l’intelligence, on est bien d’accord : c’est juste du bourrinage combinatoire. Mais ça permet quand même de faire émerger des solutions innovantes.



Ce n’est pas juste une question de reseau de neurone mais aussi de configuration de celui ci, si il reconfigure son reseau, donc la facon dont c’est connecte, changer les fonctions de transfert ou autre… cela demande aussi bien des changements de code que de recompiler etc…








zhebulonn a écrit :



A vérifier, mais il me semble que contrairement à ce qu’on pouvait penser, le cerveau créé des neurones durant toute son existence.





Peu importe : ce que je veux dire c’est que l’essence même de la chose ne change pas. Une IA qui se reprogrammerait serait équivalente à un humain qui altérerait son code génétique. La création de connexions ou de neurones ne bouleverse pas la structure et la substance mêmes du cerveau.



 

Mais un enfant sera par la suite capable d’en avoir un.



Oui parce que son code génétique le lui permet. En revanche il ne sera jamais capable d’écouter huit discours simultanés, certains motifs ne lui apparaîtront jamais y compris dans des domaines sur lesquels il travaillera toute sa vie, et lorsqu’il créera une oeuvre plastique il ne s’intéressera qu’à la mince fraction du spectre qu’il perçoit.

 



Tu t’en sers pourtant pour dire comment doit être une IA et sur quoi elle doit se baser.



Et alors ? Ce ne me fait pas de mon intelligence humaine “L’intelligence” ou le pinacle de celle-ci. Ça en fait simplement une intelligence suffisamment élevée pour créer d’autres intelligences.



A la base, il n’y a pas forcement besoin d’algos pour cela, si tu prends la theorie des systemes complexes, alliees a la theorie des graphes tu as une structure matricielle du systeme qui te permet de voir des interactions que tu aurais rates par exemple dans ton archi etc… mais tout cela ne revele en rien de l’IA que ce soit les algo d’optimisation ou ce dont je parle








HarmattanBlow a écrit :



Ceux qui ont créé cet avion et tout ce qui va avec ont été motivés par la survie, le pouvoir et la curiosité. Ils ont suivi les paramètres de leur programme.





Tu pars du principe que l’intelligence est déjà là et c’est à une intelligence déjà établie que tu donnes ce genre de “paramètres”.

Tu ne peux pas donner une instruction comme “protège ta vie” ou “soit curieuse” à une IA d’aujourd’hui. Parce que cela sous entend que cette IA est déjà intelligente pour comprendre ce qu’est la vie, ce qu’est son “moi”.



&nbsp;Et programmer une instruction de protection du genre “si on atteint tel paramètre, alors effectuer telle action” n’a rien à voir avec ce dont je parle. Un réflexe comme celui de fermer les yeux sous l’eau n’est pas une preuve de l’intelligence.



Tu prends donc l’existence de l’intelligence comme un postulat, tout comme les nouvelles de SF d’ailleurs : l’intelligence est déjà là, ou alors, elle est créée par une opération magique ou intervention plus ou moins divine ( Terminator: l’intelligence apparait par magie dans les ordinateurs, coup de foudre dans le monstre du Dr Frankenstein,etc… )



Le problème, c’est que dans les IA d’aujourd’hui, ça n’est pas un postulat. Et les systèmes qu’on sait construire actuellement ne sont que des imitations de l’intelligence. La photo d’un Rembrandt n’est pas identique à son original, aussi détaillée soit-elle.



Ma définition toute personnelle et très réductrice de l’intelligence ( analogue à celle de la vie d’ailleurs ), c’est quand le tout est d’avantage que la somme des parties.

Aujourd’hui, on sait très bien étudier les parties, on va de plus en plus loin, de plus en plus fin, mais on ne comprend toujours pas comment fonctionne le tout, et on comprend encore moins ce petit plus qui fait la différence.

&nbsp;

Et la discussion ne m’énerve pas, mais la mauvaise foi, si :)







Nnexxus a écrit :



on est bien d’accord : c’est juste du bourrinage combinatoire….



Les shadocks quoi : plus ça rate, et plus ça a des chances de réussir .. <img data-src=" />



Ben c’est le principe meme de l’evolution et du genre d’IA dont on parle, pour pouvoir resoudre de nouveaux probleme, soit l’IA est deja paree et elle ne change pas, au pire elle apprend, en faisant de nouveaux reseaux et… soit elle ne peut pas resoudre le probleme et doit evoluer pour le resoudre.








HarmattanBlow a écrit :



Peu importe : ce que je veux dire c’est que l’essence même de la chose ne change pas. Une IA qui se reprogrammerait serait équivalente à un humain qui altérerait son code génétique. La création de connexions ou de neurones ne bouleverse pas la structure et la substance mêmes du cerveau.

&nbsp;



Et alors ? Ce ne me fait pas de mon intelligence humaine “L’intelligence” ou le pinacle de celle-ci. Ça en fait simplement une intelligence suffisamment élevée pour créer d’autres intelligences.





Tu dis qu’elle n’est pas un repère absolu, mais dans le même temps, tu dis qu’une IA ne peut pas suivre un autre schéma que notre intelligence.

Or, selon toi, une IA ne PEUT pas se reprogrammer puisque l’humain ne le peut pas.









sksbir a écrit :



Tu pars du principe que l’intelligence est déjà là et c’est à une intelligence déjà établie que tu donnes ce genre de “paramètres”.





Comment expliques-tu que tous les cerveaux humains soient à peu près identiques ? Les mêmes zones contenant les mêmes organisations neurales ? Ce n’est pas programmé peut-être ? Tu penses que l’intelligence est dissociable de ce support physique pré-programmé ?





Un réflexe comme celui de fermer les yeux sous l’eau n’est pas une preuve de l’intelligence.



Je ne dis pas que c’est de l’intelligence, je dis que l’intelligence opère dans et repose sur un carcan automatisé, programmé.





Tu ne peux pas donner une instruction comme “protège ta vie” ou “soit curieuse” à une IA d’aujourd’hui. Parce que cela sous entend que cette IA est déjà intelligente pour comprendre ce qu’est la vie, ce qu’est son “moi”.



La peur ne nécessite pas la conscience de soi, la plupart des animaux ont des réflexes de survie mais pas de conscience d’eux-mêmes. La plupart du temps ce n’est qu’une réaction à ce qui est un peu plus gros, à ce qui se déplace vite, à certains traits physiques, etc. Des réseaux neuraux artificiels pourraient déjà faire ça, tout comme des robots évitent les obstacles et les humains.



Quant à la conscience de soi elle viendra avec la puissance de calcul, comme dans le règne animal.





Tu prends donc l’existence de l’intelligence comme un postulat, tout comme les nouvelles de SF d’ailleurs : l’intelligence est déjà là, ou alors, elle est créée par une opération magique ou intervention plus ou moins divine



Le fruit de l’évolution simplement. Tous les êtres humains sont intelligents parce qu’ils sont programmés pour le devenir après des centaines de millions d’années d’essais-erreurs.





Le problème, c’est que dans les IA d’aujourd’hui, ça n’est pas un postulat. Et les systèmes qu’on sait construire actuellement ne sont que des imitations de l’intelligence.



Je ne suis pas d’accord : nombre de réseaux neuraux artificiels sont dores et déjà plus intelligents que certains animaux simples. Quant à savoir si tu considérerais ces animaux comme intelligents…



En revanche les réseaux organiques sont généralement spécialisés dans des tâches de survie et de reproduction quand nous spécialisons nos réseaux artificiels pour des tâches comme la reconnaissance visuelle ou sonore ou de la manipulation d’objets. La différence ce sont les entrées : nos réseaux artificiels ne sont connectés qu’à certains capteurs spécifiques et ne sont stimulés qu’en réponse la réussite de la tâche que nous leur avons imposé. A contrario un animal a une gamme plus large d’entrées et son réseau est stimulé lors de la prise de nourriture ou autres.





Et la discussion ne m’énerve pas, mais la mauvaise foi, si :)



Inutile de m’insulter une seconde fois. Tu ne comprends pas ce que je dis, soit, tu n’es pas d’accord, très bien, mais ne deviens pas odieux.







Lafisk a écrit :



Ben c’est le principe meme de l’evolution et du genre d’IA dont on parle, pour pouvoir resoudre de nouveaux probleme, soit l’IA est deja paree et elle ne change pas, au pire elle apprend, en faisant de nouveaux reseaux et… soit elle ne peut pas resoudre le probleme et doit evoluer pour le resoudre.





La structure et la substance du cerveau humain ne changent pas et pourtant il s’adapte. Pas besoin de changer le programme, seulement ses données : les poids des connexions par exemple. C’est équivalent à la création ou la mort d’une connexion chez m’être humain.









zhebulonn a écrit :



tu dis qu’une IA ne peut pas suivre un autre schéma que notre intelligence.





Non je n’ai pas dit ça. Tu as mal compris une de mes phrases.





Or, selon toi, une IA ne PEUT pas se reprogrammer puisque l’humain ne le peut pas.



Non. Tous deux pourront un jour se reprogrammer, en revanche aucun n’a besoin de se reprogrammer pour exhiber une intelligence.









HarmattanBlow a écrit :



Non je n’ai pas dit ça. Tu as mal compris une de mes phrases.





Non. Tous deux pourront un jour se reprogrammer, en revanche aucun n’a besoin de se reprogrammer pour exhiber une intelligence.





Ok









HarmattanBlow a écrit :



La structure et la substance du cerveau humain ne changent pas et pourtant il s’adapte. Pas besoin de changer le programme, seulement ses données : les poids des connexions par exemple. C’est équivalent à la création ou la mort d’une connexion chez m’être humain.







Le probleme de ce que tu dis, c’est que l’evolution humaine est tres lente. On ne sait pas a quel point notre activite et, disons, notre besoin “intelectuel” impacte cet evolution au final. Nos ancetres n’avait pas tout a fait le meme cerveau, ce qui tend a prouver que tu n;as pas totelement raison et que je n’ai pas totalement tord non plus.



Oui, il n’y a pas forcement besoin de changer, mais le besoin peut ce presenter aussi …



Quand tu qualifies les IA d’aujourd’hui “d’intelligentes” tu leur prête déjà l’intelligence, et c’est précisément là où on n’est pas d’accord. Pour moi, tu utilises simplement un postulat qui reste à démontrer.



Tu définis l’intelligence comme le fruit de l’évolution, et je ne suis pas d’accord non plus : il y a eu évolution d’un organisme déjà intelligent ( c’est toujours la même chose : problème de postulat ).



Que l’intelligence soit enfermée dans une boite physique aux dimensions finies (comme celle d’un cerveau ) ne permet pas d’expliquer actuellement cette intelligence ni comment elle fonctionne. On sait comment fonctionne le cerveau, mais pas l’intelligence qui est avec.



Tu sors la carte de la complexité avec les “réseaux neuronaux”, et que c’est de cette complexité que sortira l’intelligence, j’affirme pour ma part que ça n’est pas ça qui provoquera son émergence. Comme déjà dit, en ce qui me concerne , l’intelligence, c’est un peu comme la vie, c’est quand le tout est “plus” que la somme des parties. On sait créer des mécanismes comme ces fameux réseaux neuronaux, des “sommes de parties” qui sont très complexes mais qui ne sont QUE la somme des parties.


De toute manière, une IA existera réellement quand elle saura répondre avec ses propres mots à ça :



As-tu conscience de ta propre existence ?



Si elle saura le faire, on pourra s’inquiéter :)








Lafisk a écrit :



Le probleme de ce que tu dis, c’est que l’evolution humaine est tres lente.





Mes propos ne portent que sur une seule génération. Il va de soi qu’entre générations le programme est réécrit.







sksbirTu définis l’intelligence comme le fruit de l’évolution[/quote a écrit :



Tout d’abord je n’ai pas défini l’intelligence.

* J’ai démoli les définitions fournies de l’intelligence.

* J’ai souligné que si certains animaux simples sont considérés intelligents nos IA doivent aussi l’être.

* J’ai insisté sur le fait que toute intelligence est indissociable de son substrat physique, lequel la limite énormément.



En revanche, oui, j’affirme que l’intelligence organique est le produit de l’évolution. Si tu n’es pas d’accord, si tu penses qu’elles vient d’un dieu ou autre, si tu penses qu’elle est issue d’un phénomène que les sciences ne peuvent expliquer, merci de le dire et nous arrêterons ici la discussion car poursuivre deviendrait stérile.



[quote]Tu sors la carte de la complexité avec les “réseaux neuronaux”, et que c’est de cette complexité que sortira l’intelligence, j’affirme pour ma part que ça n’est pas ça qui provoquera son émergence. Comme déjà dit, en ce qui me concerne , l’intelligence, c’est un peu comme la vie, c’est quand le tout est “plus” que la somme des parties. On sait créer des mécanismes comme ces fameux réseaux neuronaux, des “sommes de parties” qui sont très complexes mais qui ne sont QUE la somme des parties.





J’ai du mal à comprendre si tu cherches à dire que notre compréhension actuelle de la synergie de ces parties est insuffisante (et alors je voudrais savoir sur quels éléments tu t’appuies) ou si tu y vois quelque chose de mystique et d’inaccessible à toute création humaine.









sksbir a écrit :



Tu définis l’intelligence comme le fruit de l’évolution, et je ne suis pas d’accord non plus : il y a eu évolution d’un organisme déjà intelligent ( c’est toujours la même chose : problème de postulat ).





Heuuuuu….

&nbsp;

En gros, pif paf pouf, l’homme est apparu comme ça, et il était intelligent ? Ou alors tu affirmes que les premières chaines carbonnées qui ont petit à petit conduit à l’apparition lente et progressive de la vie étaient déjà intelligentes ?



Bref, j’ai un peu de mal à comprendre la notion d’ “évolution d’un organisme déjà intelligent” <img data-src=" />









sksbir a écrit :



Tu définis l’intelligence comme le fruit de l’évolution, et je ne suis pas d’accord non plus : il y a eu évolution d’un organisme déjà intelligent ( c’est toujours la même chose : problème de postulat ).







Et pourtant c’est bien le cas. L’Homme descend d’organisme tres tres simple au final qui ne nous paraissent pas tres intelligents non plus … mais ces organismes, dans leur evolution, voir combinaisons si on remonte tres loin, sont devenu intelligent et le deviennent de plus en plus.









HarmattanBlow a écrit :



J’ai du mal à comprendre si tu cherches à dire que notre compréhension actuelle de la synergie de ces parties est insuffisante (et alors je voudrais savoir sur quels éléments tu t’appuies) ou si tu y vois quelque chose de mystique et d’inaccessible à toute création humaine.









chaps a écrit :



En gros, pif paf pouf, l’homme est apparu comme ça, et il était intelligent ? Ou alors tu affirmes que les premières chaines carbonnées qui ont petit à petit conduit à l’apparition lente et progressive de la vie étaient déjà intelligentes ?

Bref, j’ai un peu de mal à comprendre la notion d’ “évolution d’un organisme déjà intelligent” <img data-src=" />









Lafisk a écrit :



Et pourtant c’est bien le cas. L’Homme descend d’organisme tres tres simple au final qui ne nous paraissent pas tres intelligents non plus … mais ces organismes, dans leur evolution, voir combinaisons si on remonte tres loin, sont devenu intelligent et le deviennent de plus en plus.





Je vais vous faire une réponse globale <img data-src=" />



Alors déjà, non, je suis pas un mystique ou un jesaisplusquoi, de ceux qui croient que la vie a commencé avec Aden et Eve.

Je dis que les premières chaines carbonées portaient en elles le potentiel de l’intelligence ( malin non ?&nbsp; <img data-src=" /> ), puisque elles ont fini par produire ce que nous sommes CQFD.. Seulement entre les deux, ya eu du déchet.

Et puis, on ne sait pas exactement ce qui s’est passé. Il me semble que des expériences ont été tentées pour essayer de reproduire cette fameuse éclosion de la vie, mais qu’on n’a pas dépassé le stade de la boue organique



Alors le coup du pif paf pouf, non pour l’homme, mais du coup, c’est aussi parce qu’on essaye ce coup là avec les réseaux neuronaux ( pif paf pouf, et j’ai une intelligence artificielle opérationelle ) que c’est pas de l’intelligence non plus



C’est comme si on faisait un polaroid d’un tableau de Rembrandt : ça va plus vite, c’est tout de suite prêt, ça peut faire illusion…



Peut-etre que si on fabrique des milliards de réseaux neuronaux, et qu’on les programmes tous au pif, yen aura peut-être un qui deviendra intelligent… peut-etre…

&nbsp;









sksbir a écrit :



Peut-etre que si on fabrique des milliards de réseaux neuronaux, et qu’on les programmes tous au pif, yen aura peut-être un qui deviendra intelligent… peut-etre…







Ca c’est la theorie de la singularite justement









sksbir a écrit :



Je dis que les premières chaines carbonées portaient en elles le potentiel de l’intelligence





Dans ce cas, l’hydrogène porte en lui le potentiel de l’intelligence (car c’est lui qui, par fusions successives, est à l’origine de tous les atomes, et donc de toute la matière dans l’Univers)









chaps a écrit :



Dans ce cas, l’hydrogène porte en lui le potentiel de l’intelligence (car c’est lui qui, par fusions successives, est à l’origine de tous les atomes, et donc de toute la matière dans l’Univers)





Donc l’univers est intelligent CQFD



potenti







Lafisk a écrit :



Donc l’univers est intelligent CQFD



Potentiellement , oui.&nbsp; <img data-src=" />





chaps a écrit :



Dans ce cas, l’hydrogène porte en lui le potentiel de l’intelligence (car c’est lui qui, par fusions successives, est à l’origine de tous les atomes, et donc de toute la matière dans l’Univers)



Oui aussi… mais comme déjà dit, entre cette état et l’état final de l’intelligence révélé, il s’est passé un truc quelque part, à un moment donné.. et “quelque part” et “à un moment donné”, c’est aussi à l’échelle de l’univers.









sksbir a écrit :



potenti

Potentiellement , oui.&nbsp; <img data-src=" />



Oui aussi... mais comme déjà dit, entre cette état et l'état final de l'intelligence révélé, il s'est passé un truc quelque part, à un moment donné.. et "quelque part" et "à un moment donné", c'est aussi à l'échelle de l'univers.







Je ne suis pas convaincu qu’il se soit passé “un” truc à “un” moment donné. Je pense plutôt que c’est une suite d’evènements qui a conduit à une apparition progressive de ce que l’on nomme “l’intelligence”. On n’est pas passé soudainement d’un état “potentiellement intelligent, mais pas encore” à un état “ça y est c’est intelligent” !

&nbsp;









sksbir a écrit :



Alors le coup du pif paf pouf, non pour l’homme, mais du coup, c’est aussi parce qu’on essaye ce coup là avec les réseaux neuronaux ( pif paf pouf, et j’ai une intelligence artificielle opérationelle ) que c’est pas de l’intelligence non plus





Difficile d’être certain de ce que tu as voulu dire mais si j’ai bien compris tu affirmes qu’il faut plus qu’un amas désordonné de neurones pour faire de l’intelligence, en somme qu’il faut davantage de programmation. Ce qui semble contredire tes précédents propos mais avec quoi je suis d’accord : l’intelligence humaine est le fruit de cette interaction entre programmation innée et adaptation acquise.



Et lorsque nous allons faire grandir nos IA nous allons devoir les modeler en intégrant ici des algorithmes durs spécialisés (filtres de pré-traitement par exemple - nous le faisons déjà), là des réseaux adaptatifs profilés pour certaines tâches (tout comme les configurations neuronales varient d’une partie du cerveau à l’autre) et interagissant entre eux.







sksbir a écrit :



Oui aussi… mais comme déjà dit, entre cette état et l’état final de l’intelligence révélé, il s’est passé un truc quelque part, à un moment donné.. et “quelque part” et “à un moment donné”, c’est aussi à l’échelle de l’univers.





Il s’est passé “des” trucs. Des ruptures, oui, puisque c’est ainsi que l’évolution fonctionne, par à-coups.



Merci, je vais regarder<img data-src=" />








DUNplus a écrit :



Merci, je vais regarder<img data-src=" />





Un autre conseil un peu du même genre que celui de XMalek : ce qui importe ce n’est pas l’intelligence de l’IA mais sa perception par les joueurs et leurs interactions avec elle.



Notamment l’IA doit-elle surprendre les joueurs ? Ou au contraire est-il important pour le jeu que les joueurs humains puissent comprendre l’IA et prédire ses faits et gestes ? Soit parce que l’acquisition de cette compréhension est un moteur du plaisir des joueurs, soit parce que l’IA ne doit pas devenir un obstacle au plaisir. Paradoxalement mieux vaut souvent une IA simple, déterministe et lisible qu’une IA sophistiquée et adaptative.



Note que pour qu’une IA devienne prévisible il est avant tout important de fournir au joueur des clés de lecture. Si ton IA pondère des centaines de variables pour déterminer ses stratégies mais que le joueur ne peut comprendre son raisonnement, il va certainement être frustré. Dans ce cas l’important sera de communiquer les lignes de réflexion de l’IA.