Réflexions philosophiques et scientifiques sur l’intelligence artificielle

Sarah Connor ?

Réflexions philosophiques et scientifiques sur l’intelligence artificielle

Réflexions philosophiques et scientifiques sur l’intelligence artificielle

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

L’intelligence artificielle est une réalité depuis de nombreuses années, mais avec des contours et des implications qui ne sont pas toujours bien connues. S’il ne fait aucun doute que les IA sont supérieures aux humains sur certains points, elles sont en retrait sur d’autres. Qu’en sera-t-il à l’avenir ?

L’intelligence artificielle est sur toutes les langues depuis des années maintenant. Elle est tantôt vue comme une solution miracle ou une aide précieuse, tantôt comme le mal et/ou une boite noire aux décisions parfois difficiles à comprendre pour le commun des mortels.

Afin de faire le point sur la situation, le Commissariat à l'énergie atomique et aux énergies alternatives propose une interview maison croisée de deux chercheurs de renom dans ce domaine : Yann Le Cun (lauréat du prix Turing 2018, vice-président et Chief AI Scientist de Facebook) ainsi qu’Étienne Klein (philosophe des sciences et physicien au CEA).

Yann Le Cun commence par rappeler quelques bases avant d’entrer dans le vif du sujet : « Il n’existe pas de très bonne définition de l’intelligence, mais on pourrait dire qu’il s’agit de la capacité d’acquérir et d’appliquer des connaissances et des compétences pour atteindre un but précis. Ce n’est pas l’intelligence elle-même qui nous dicte ce but, elle nous en donne seulement les moyens ».

Et si on parlait plutôt d’intelligence machine 

Le terme intelligence artificielle a largement intégré le langage commun aujourd’hui – en englobant d’ailleurs plusieurs sous-notions parfois assez différentes –, le patron IA de Facebook « préfère parler d’intelligence machine ou d’intelligence des machines ». Certes les machines sont capables de réaliser avec brio et rapidité des tâches très précises, « mais elles n’ont pas l’intelligence de faire autre chose ; autrement dit, elles n’ont pas de sens commun et ne relient pas ce qu’elles font à la réalité du monde ».

Quelques mots pour bien comprendre le concept, avec une action basique : une personne prend son sac et sort d’une salle. Même un enfant serait parfaitement capable de visualiser le déroulement de cette séquence, alors que « les machines, non »… du moins pour le moment, affirme Yann Le Cun.

Elles n’ont en effet aucune connaissance du monde réel, « mais elles en disposeront un jour. Nous arriverons à ce qu’on appelle l’Artificial General Intelligence [on parle d’intelligence artificielle forte en français, ndlr], c’est-à-dire des machines égales à l’homme, aussi intelligentes que lui ». Ce n’est pas pour demain, ni après-demain, ni même la semaine prochaine…

Étienne Klein a, comme toujours, une approche très philosophique de la question. Il explique ainsi que l’expression « intelligence artificielle » vient de l’anglais, mais que le mot « intelligence » n’a pas exactement le même sens dans les deux langues :

« Dans la langue de Shakespeare, il désigne la capacité à analyser des données et à traiter des informations. En français, sa signification est beaucoup plus vaste, puisqu’elle inclut de surcroît la capacité à argumenter, à construire une méthode, à créer des concepts, à élaborer une pensée critique… L’intelligence au sens français du terme se traduirait plutôt en anglais par cleverness ou smartness, voire par imagination ». 

« Le silicium écrase parfois le neurone »

Yann Le Cun revient sur le cas d’AlphaZero, l’IA de DeepMind (qui appartient à Google) : « s’il peut battre le meilleur joueur de go du monde, c’est parce qu’on a entraîné ses réseaux de neurones avec des milliers et des milliers de parties, bien plus qu’un être humain ne pourrait en jouer durant sa vie entière ! C’est sa capacité à traiter très rapidement un volume vertigineux de données qui lui confère son efficacité, donc sa maîtrise du jeu ». Les machines « restent incapables de manipuler et a fortiori de créer des concepts » néanmoins.

AlphaZero est pour rappel une version plus généraliste d’AlphaGo Zero qui, en plus du go, peut jouer aux échecs et au shōgi. Comme nous l’avions expliqué, AlphaGo Zero n’avait eu besoin que de 40 jours pour jouer 29 millions de parties et devenir virtuellement le « meilleur joueur de Go au monde ». Par contre, cette IA sera totalement incapable de réaliser une autre tâche comme reconnaitre une forme dans une image, dire si une girafe sait jouer du tambour, etc.

Étienne Klein élargit le débat. Il reconnait évidemment que l’intelligence artificielle « bat » l’intelligence humaine dans plusieurs domaines (jeux, diagnostic médical, surveillance de processus), mais ce n’est pas le cas partout. Bref, « le silicium écrase parfois le neurone. Cela nous rend à la fois fiers – car c’est nous qui avons inventé les machines – et penauds – car ces machines nous dépassent, voire nous ridiculisent ».

Les machines, l’IA et les sentiments

Quittons le domaine de l’intelligence pour celui des sentiments. Le CEA cherche à savoir si les machines pourront un jour éprouver des émotions humaines comme la douleur, la joie et l’empathie ? 

Pour Yann Le Cun, la réponse ne fait aucun doute : « Absolument ! Les machines ne seront plus prédéterminées comme aujourd’hui. En éprouvant des émotions ou de l’empathie, elles gagneront en autonomie et disposeront d’une liberté d’action qui est aujourd’hui une des pierres angulaires de l’intelligence humaine ». Il propose là encore d’illustrer son propos avec une métaphore: un assistant virtuel « ne serait-il pas plus efficace en éprouvant des émotions, par exemple de l’inquiétude lorsque vous êtes vraiment en retard ? ».

Du côté d’Étienne Klein, la réponse est différente : « Je ne pense pas qu’un robot puisse acquérir une "conscience" de soi, ni même une conscience des autres. Or, sans conscience de soi, les notions d’émotion, de douleur, de joie n’ont plus guère de sens ». Il reconnait cependant volontiers qu’une machine « pourra sans doute imiter et détecter nos propres émotions ».

Il soulève une question qui donne à réfléchir : « peut-être préférerons-nous alors nous entourer de robots sympathiques et prévenants plutôt que de personnes désagréables ». On pourrait ajouter que c’est déjà le cas de certaines personnes qui trouvent du réconfort dans le monde numérique et les réseaux sociaux. Nous ne sommes pas encore au niveau d’un Ready Player One, mais c’est le but de certains, notamment Meta avec son métavers. Ce n’est pas la première tentative du genre pour rappel.

Le philosophe des sciences se demande si, finalement, « nos émotions ne seraient-elles pas le résultat d’une algorithmique interne dont nous ignorons la programmation ? » La boucle est bouclée.

Vers un Terminator ? Ne pas confondre intelligence et domination

Vient le sujet qui fâche : doit-on avoir peur des intelligences artificielles ? Pour Yann Le Cun, la question se pose en ces termes : « On peut en avoir peur ou pas, mais si vous parlez de prise de contrôle du monde par les machines, je crois que nous dramatisons ! Nous avons tendance à confondre intelligence et domination ». 

Il détaille son propos : « les systèmes IA n’étant pas confrontés à l’épreuve de la sélection naturelle, ils n’auront pas besoin d’élaborer de stratégie de survie. Et comme intelligence et survie ne sont pas liées, l’intelligence se concentrera sur les objectifs que nous lui aurons assignés. Donc je l’affirme : n’ayons pas peur du Terminator ! ».

Il reste la question de la programmation par les humains, qui peut parfois donner des résultats pour le moins étonnants. On peut par exemple voir des intelligences artificielles reproduire bêtement des biais humains, car elles ont été entrainées avec des données générées par des humains. Elles sont donc tout aussi intelligentes… ou bêtes, selon la manière de voir. 

De son côté, la science-fiction regorge d’exemples de robots et d’autres machines qui en arrivent à la conclusion que la meilleure – et plus logique – façon de résoudre les problématiques écologiques et climatiques est d’exterminer la race humaine. Étienne Klein rappelle à juste titre que « l’intelligence artificielle n’est pas elle-même programmée : ce qui va advenir d’elle dépend pour partie de ce que nous allons en faire ».

Utiliser intelligemment l’intelligence artificielle

Sans aller jusqu’à de tels extrêmes, des machines peuvent aussi être programmées spécifiquement dans un but néfaste. Étienne Klein emprunte une route similaire : « Je n’ai pas peur de l’intelligence artificielle en elle-même, mais je m’interroge sur notre capacité à nous en servir… intelligemment ! ».

Il en veut pour preuve la question des algorithmes des réseaux sociaux qui ont tendance à enfermer l’utilisateur dans une bulle : « dès lors qu’[un individu contemporain] est connecté, celui-ci peut désormais façonner son propre accès au monde et, en retour, être façonné par les contenus (articles, vidéos, argumentaires) qu’il reçoit en permanence de la part des algorithmes. Il se configure ainsi une sorte de monde sur mesure, de "chez-soi idéologique" qui correspond à ce qu’il aime croire et penser ».

Ce sujet en entraine une autre : « l’explicabilité ». Les intelligences artificielles émettent de plus en plus d’avis ou de recommandations dans le monde réel, mais sans pouvoir vraiment expliquer comment elles sont arrivées à ces conclusions ; on revient donc sur la notion de boite noire du début.

« Par exemple, quand vous êtes dans votre voiture, un logiciel vous recommande un certain itinéraire, mais vous ne savez pas comment ce logiciel – et lui non plus – a pu vous proposer cet itinéraire plutôt qu’un autre. Si vous lui faites confiance, vous choisirez de suivre sa recommandation. Dans le cas contraire, vous déciderez de l’ignorer. Mais dès lors que ce logiciel ne peut pas expliquer comment il a abouti à sa proposition, vous ne pouvez pas faire usage d’un véritable esprit critique à son endroit.

Ce problème pouvant se retrouver dans une multitude de situations autrement plus conséquentes qu’un simple trajet automobile, on est en droit de se poser la question de savoir dans quelle mesure l’intelligence humaine conservera toujours le contrôle. Un système informatique ne comprend pas le sens de ses actions ni la portée de ses décisions. Dès lors, comment faire en sorte que l’humain garde la main sur ce que font les machines ? ».

Si un système informatique ne peut comprendre la portée de sa décision, contrairement à un humain, ce dernier ne connait donc pas le raisonnement qui a conduit à cette décision… il n’est pas facile d’en apprécier toutes les implications. 

Connaitre et contester la logique des algorithmes

Pour rappel, la loi pour une République numérique prévoit que toute personne physique justifiant de son identité a le droit d'obtenir « les informations permettant de connaître et de contester la logique qui sous-tend le traitement automatisé en cas de décision prise sur le fondement de celui-ci et produisant des effets juridiques à l'égard de l'intéressé ». C’est la théorie, dans la pratique c’est souvent plus compliqué.

Imaginons néanmoins que, dans le meilleur des mondes, les algorithmes soient tous accessibles. Le commun des mortels aura toutes les difficultés du monde à comprendre « la logique qui sous-tend le traitement automatisé ». Et on ne parle même pas des algorithmes fermés comme celui de Parcoursup, malgré les nombreuses promesses.

Commentaires (12)


Passionnant sujet ! 👏



“Autre exemple, celui d’AlphaZero : s’il peut battre le meilleur joueur de go du monde, c’est parce qu’on a entraîné ses réseaux de neurones avec des milliers et des milliers de parties”




Même si la phrase est techniquement exacte, elle donne une impression fausse (que l’intelligence de jeu lui serait “donnée” de l’extérieur).



Comme son nom l’indique, AlphaZero est entraîné sans accéder à aucune partie jouée par d’autres. Il apprend à jouer à 100% en jouant contre lui-même, de zéro.



Un peu ce qu’on fait… avec notre imagination, quand on pense à des coups possibles, même hors du contexte d’une partie (une sorte de GAN avec l’imagination comme générateur).



Doit-on avoir peur de l’intelligence artificielle ?
Yann Le Cun : On peut en avoir peur ou pas mais si vous parlez de prise de contrôle du monde par les machines, je crois que nous dramatisons ! Nous avons tendance à confondre intelligence et domination, ce qui est compréhensible car, au cours du temps, les humains ont utilisé leur intelligence pour asseoir leur domination sociale




Il est très peu probable que l’IA ne soit pas utilisé pour des raisons de domination économique ou sociale.



Yann Le Cun en est d’ailleurs une parfaite incarnation puisqu’il est Chief AI Scientist de Facebook. Facebook utilise l’IA pour controller le discours publique sur sa plateforme (domination sociale) et obtenir un avantage économique (domination économique).



Même si l’IA ne prendra pas (à court terme) le contrôle par elle même, elle sera au service du grand capital dans un objectif de domination et de contrôle, pas au service des humains.



wagaf a dit:


Il est très peu probable que l’IA ne soit pas utilisé pour des raisons de domination économique ou sociale.




Au même titre que nous avons le couteau pour couper le pain, et qui permet aussi de tuer. Ou l’atome comme source d’energie, ou comme arme de destruction massive. Je suis de l’avis d’etienne klein quand il dit “Je n’ai pas peur de l’intelligence artificielle en elle-même, mais je m’interroge sur notre capacité à nous en servir… intelligemment !”
Si ça peut nous être utile, on trouvera les moyens de s’en servir à notre profit. Et si ça doit se retourner contre nous, nous saurons également tout mettre en oeuvre pour que ce soit à notre détriment.


Le couteau à pain est facile à fabriquer, on l’achète vendu à faible marge en promo. Idem pour une voiture par ex. Après l’achat c’est à nous et les revenus issus de son utilisation nous reviennent.



L’IA on ne la possédera pas, même si elle tourne sur une machine locale c’est de la propriété intellectuelle dont les revenus iront à son propriétaire.



L’intelligence est la chose spécifiquement humaine qui donne encore de la valeur au travail humain. Si cet avantage disparait et que l’humain peut être abusé et exploité de manière automatique à distance, certains ne s’en priveront pas. Facebook en est un exemple, mais ce n’est que le début.


Quelque soit le sujet, il est toujours plus aisé de prédire le pire.
Penser le meilleur est l’exclusivité du génie. Et tout le monde n’est pas un génie même si tendanciellement on aime a le croire.


Cela dépendra essentiellement de la connerie naturelle des exploitants de cette IA, connerie dont tous les humains sont plus ou moins atteints mais certains nettement plus que d’autres… :fumer:


Mieux vaut mobiliser son intelligence sur des conneries que sa connerie sur des choses intelligentes.
On cherche pourtant l’artifice en espérant trouver une finitude à ces “machines”.
Ce qui, peut-être, expliquerait le caractère excessivement téléologique des démarches financières autour de simples silos de fake-neuronnes en symétrie de l’ironique “cerveau dans une cuve”.
…Me semble-t-il. :fumer:


Finalement on crée des intelligences artificielles de niche: l’intelligence, ou le script, ne sait faire qu’une ou deux choses.
L’IA du go, ne saura pas faire des pâtes ^^
Si on veut une intelligence artificielle complète, genre Terminator, i robot etc je suis d’accord avec l’article et la création de concepts.
A mon avis, n’importe quelle machine aura besoin de sens: vue, toucher,odorat, ouïe.. pour interpréter tout ça.. avec des capteurs la où on a des nerfs.
Ça viendra bien un jour..


Ce que m’inspire principalement l’idée que les machines se retournent contre nous :
https://what-if.xkcd.com/5/




wagaf a dit:


Même si la phrase est techniquement exacte, elle donne une impression fausse (que l’intelligence de jeu lui serait “donnée” de l’extérieur).




On lui a donné la représentation et les règles qui lui permettent d’évaluer ses parties, c’est déjà très important.




Comme son nom l’indique, AlphaZero est entraîné sans accéder à aucune partie jouée par d’autres. Il apprend à jouer à 100% en jouant contre lui-même, de zéro.




Je ne trouve pas que sa phrase laisse imaginer le contraire. À la limite, il aurait pu dire “en lui faisant jouer des milliers de parties”.



deathscythe0666 a dit:


Je ne trouve pas que sa phrase laisse imaginer le contraire. À la limite, il aurait pu dire “en lui faisant jouer des milliers de parties”.




Le contraire serait toujours vrai au fond : si tu peux prédire des milliers de coups gagants, savoir lesquels sont perdants avec certitude est un réel avantage sur les IA conventionnelles.


je m’étais toujours demandé, est-ce vraiment de l’ “Intelligence” Artificielle ou bien juste un algorithme hyper efficace en statistiques qui a accès a des Pb de données? On dirait que c’est plutôt la deuxième option pour le moment.



Je me permets de relinker ici mon commentaire d’une autre news, car il a toute sa place. Bonne lecture (de la BD)




Fluidetom a dit:


Je vous invite VIVEMENT à lire la BD Carbone & Silicium de Mathieu Bablet, c’est une histoire prenante et glaçante qui pourrait démarrer aujourd’hui et qui se base sur la naissance de l’IA (qui a conscience de soi) de notre course (chute?) en avant dans la technologie, l’hyper-connectivité permanente etc… C’est mi-SF mi philosophique, je l’ai lu il y a 3 semaines et j’y pense quasi tous les jours



Fermer