Dans  les méandres de l'intelligence artificielle, entre angoisses, espoirs et  recommandations

Dans les méandres de l’intelligence artificielle, entre angoisses, espoirs et recommandations

Pour le meilleur et pour le pire

Avatar de l'auteur
Sébastien Gavois

Publié dans

Sciences et espace

16/05/2017 24 minutes
57

Dans  les méandres de l'intelligence artificielle, entre angoisses, espoirs et  recommandations

Comprendre les enjeux de l'intelligence artificielle et établir un bilan des forces en présence, tel est le but du rapport adopté par l'Office parlementaire d'évaluation des choix scientifiques et technologiques. Il prend la forme d'un épais document de 275 pages que nous avons décortiqué.

Il y a quelques semaines, le député Claude de Ganay et la sénatrice Dominique Gillot publiaient un rapport complet (PDF) intitulé « Pour une intelligence artificielle maîtrisée, utile et démystifiée ». Un très vaste sujet qui regroupe des domaines comme la vision par ordinateur, l'apprentissage automatique (machine learning) et la robotique.

La France multiplie les enquêtes, compte rendu de six mois de travail sur l'IA

Il a été adopté à l'unanimité le 14 mars 2017 par l'OPECST (office parlementaire d'évaluation des choix scientifiques et technologiques), un organe d'information commun entre l'Assemblée nationale et le Sénat. Il arrive quelques mois après le lancement du projet France IA, mais n'est-ce pas déjà un peu trop tard ? Au détour d'une question, la sénatrice du Val-d'Oise s'explique : « Il y a deux ans que je sollicite l’OPECST pour engager ce travail. Hélas ! C’est dans l’urgence, juste avant la fin de nos mandats parlementaires, que nous nous penchons sur le sujet » affirme-t-elle.

Dans leur synthèse de quatre pages seulement, les deux rapporteurs dévoilent une quinzaine de propositions afin d'encadrer et d'aiguiller cette révolution qui est en marche depuis des années. Mais le rapport de 275 pages va bien plus loin car il regroupe l'ensemble des contributions, avec des comptes rendus des tables rondes.

On y retrouve pas moins de six mois d'auditions auprès de spécialistes de tous les horizons (scientifiques, entrepreneurs, psychiatre, etc.) provenant de plusieurs pays. Voici donc notre compte rendu des éléments marquants abordés par les uns et les autres. Car si sur certains points les réactions vont toutes dans le même sens, ce n'est pas toujours le cas. 

IA : un début en douceur, une accélération depuis quelques années

Avant d'entrer dans le vif du sujet, le rapport commence par revenir sur l'évolution de l'intelligence artificielle, un concept qui n'a rien de nouveau car il existe depuis maintenant près de 60 ans. Cette technologie a par contre connu une forte accélération au cours des dernières années, notamment sous l'impulsion des géants du Net. Plusieurs pistes de développement ont ainsi été mises en place.

Citons les reconfigurations internes, l'émergence du cloud computing sur de nombreux secteurs d'activités et une politique de plus en plus agressive sur les acquisitions, ce qui est généralement un moyen rapide de gagner en compétences sur un domaine précis. « On passe d’un volume global d’acquisitions de start-ups spécialisées en intelligence artificielle de 7 en 2012 pour tout le territoire américain, à 33 en 2014, puis 37 en 2015 et 42 simplement pour les trois premiers trimestres de 2016 » explique ainsi le rapport. 

Un point de vue partagé par Patrick Albert, entrepreneur (créateur de ILOG), chercheur et l'un des pionniers dans l'IA : « L’année 2016 aura vu la concrétisation d’un mouvement profond et décisif de reconfiguration des GAFA autour de l’intelligence artificielle ». Il évoque le cas de Google qui serait passé de deux projets en 2011 à plus de mille fin 2016.

Une appellation qui pose des problèmes ?

Si l'intelligence artificielle est désormais au cœur de nos vies, le psychiatre et chercheur à l’Université Paris Diderot-Paris Serge Tisseron se demande si présenter ce concept sous ce nom (IA) était réellement un bon choix. Pour lui, dans les années 50, les fondateurs de cette discipline n’ont pas anticipé que ce langage anthropomorphe « allait poser problème ensuite ».

Pour le docteur, il aurait mieux valu parler d'apprentissage automatique ou logiciel à la place d'intelligence. Il enchaine : il aurait également préféré parler de machines automatiques plutôt qu'autonomes, de réseaux de composants électroniques plutôt que de réseaux de neurones et enfin de simulation d’empathie au lieu d'empathie artificielle. Bref, moins humaniser les termes autour de ces technologies.

Un simple choix sémantique, mais dont les conséquences ne seraient pas anodines : « Il faut réviser notre langage, car il risque d’entraîner quiproquos et confusion » ajoute-t-il. Les appellations sont déjà tellement ancrées qu'il sera désormais bien difficile d'en changer.

De l'importance de toujours distinguer l'humain et la machine

Pour le psychiatre, on devrait toujours savoir si on est en présence d’une machine ou d’un humain : « Dans les démocraties, il est nécessaire que le citoyen connaisse toujours l’origine des messages auxquels il est confronté ». Or, ce n'est pas toujours le cas aujourd'hui. Une ambiguïté sur laquelle les industriels peuvent d'ailleurs jouer.

Il donne un exemple : « Une grande banque (le Crédit Mutuel) fait répondre à ses clients par un ordinateur très sophistiqué tel que Watson sans que les appelants soient informés qu’ils ont affaire à une intelligence artificielle ». Serge Tisseron imagine alors un futur où, dans les supermarchés, seront installés des robots-caissiers face auxquels les consommateurs ne pourront pas faire la différence entre une machine et un être humain.

Ce n'est évidemment pas pour tout de suite ; il s'agit là d'un simple exercice d'anticipation sur ce que pourrait être notre avenir à plus ou moins long terme.

Intelligence artificielle
Crédits : wutwhanfoto/iStock

La délicate question de l'éthique

En filigrane se pose la question de l'éthique et de l'(im)partialité. Les débats sur ce sujet sont nombreux indique à juste titre le rapport, notamment avec l'arrivée de l'intelligence artificielle dans les voitures autonomes et dans les tribunaux. Néanmoins, pour Claude Berrou, professeur à Télécom Bretagne (Institut Mines-Télécom), chercheur et membre de l’Académie des sciences, « il semble que ces débats soient prématurés ».

En effet, selon lui « le cas typique du véhicule autonome pose certaines questions, mais pas davantage que celui d’un avion de chasse. Une machine préprogrammée, qui n’apprend pas de ses expériences, qui est non apprenante, ne présente pas plus de dangers qu’un ordinateur de bureau ».

S'agissant purement et simplement d'opérations mathématiques, il n'y a, toujours selon le professeur, pas de question déontologique ou éthique quant aux résultats. « Les questions doivent davantage se poser sur les applications » affirme-t-il. Avec une intelligence artificielle forte (capable d'avoir conscience d'elle-même par exemple), la musique ne sera certainement pas la même. Elle ne devrait néanmoins pas arriver avant plusieurs (dizaines ?) d'années.

Sans surprise, Cédric Sauviat – ingénieur et président de l’association française contre l’intelligence artificielle (AFCIA) – a une position plus alarmiste : « La seule chose qui puisse être dite est que l’on ne peut pas savoir ce que peut être l’éthique d’une super-intelligence, et peut-être qu’il est préférable de ne pas le savoir ».

Les GAFA veulent montrer patte blanche

De leur côté, les géants du Net sont sur la même longueur d'onde, comme l'explique Delphine Reyre, directrice Europe des affaires publiques de Facebook : « En termes d’éthique, Facebook est partenaire avec Microsoft, Google, IBM et Amazon du Partnership on AI ».

Pour rappel, cette organisation a été fondée par les cinq sociétés en septembre 2016, et elle a finalement été rejointe par Apple quatre mois plus tard... en tant que membre fondateur. Son ambition est de « faire avancer la compréhension du public sur l'intelligence artificielle (AI), et de définir les meilleures pratiques sur les défis et les opportunités dans ce domaine ». Un sujet sur lequel l'Europe et la France ont tout intérêt à se faire aussi entendre.

La CNIL veut de l'« humanity by design »

Par la voix de sa présidente Isabelle Falque-Pierrotin, la CNIL explique qu'elle s'intéresse évidemment à la question : « À l’automne, nous restituerons les éléments les plus saillants de ce débat éthique pour, le cas échéant, faire des recommandations de politiques publiques ».

Elle donne tout de même une piste sur la position qui pourrait être adoptée par la CNIL. Elle pourrait provenir de son article 1er « souvent oublié » selon sa présidente : « L’informatique doit être au service de chaque citoyen. Son développement doit s’opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques ». La question serait de savoir comment faire de l’« humanity by design » sur le modèle de la « privacy by design ».

Pour comprendre le nœud du problème, il est important de rappeler un point crucial des intelligences artificielles : elles nécessitent de gigantesques quantités de données pour apprendre. Ainsi, note la CNIL, « la protection des données personnelles ne semble pas aller de soi avec l’intelligence artificielle, car les principes attachés à la protection des données semblent aller à l’encontre du fonctionnement de l’intelligence artificielle ». 

En effet, plus une intelligence artificielle dispose de données, plus elle est performante... même si sur ce sujet les scientifiques ont parfois des points de vue différents. Laurent Alexandre (Doctissimo, DNA Vision), cite ainsi une étude qui aurait démontré qu’un mauvais algorithme avec beaucoup de données serait supérieur à un bon algorithme avec peu de données. Il ne donne par contre aucun détail sur les conditions des tests, impossible d'en tirer des conclusions. La réponse ne s'est pas fait attendre : « Ce n’est tout simplement pas vrai » affirme pour sa part Jean Ponce, enseignant et chercheur.

Dominique Cardon, professeur à l’Institut d’Études Politiques de Paris/Médialab, soulève un problème qui n'est pas nouveau, mais est important et mérite donc d'être signalé à nouveau : « Les données appartiennent aux grandes entreprises privées, les GAFA en particulier ». 

Les risques liés à une intelligence artificielle forte

Pour le moment, les chercheurs ne développent que des intelligences artificielles faibles en exploitant ces données, en opposition avec une IA forte qui pourrait, selon les spécialistes arriver, d'ici quelques dizaines d'années. Jean-Daniel Kant, maître de conférences à l’Université Pierre et Marie-Curie, met en garde contre une telle forme qui serait mal gérée. À ce sujet, il conseille de regarder « l’excellente, mais très déprimante série Black Mirror ». 

Il s'inquiète également des « projets de recherche et de défense que nous ne connaissons pas ». Une hypothèse qui inquiète également certains patrons des sociétés spécialisées dans les nouvelles technologies, qui militent notamment pour l'interdiction des robots tueurs, comme Bill Gates et Elon Musk pour ne citer que ces deux-là.

Pour l'AFCIA (association française contre l’intelligence artificielle), « l’émergence d’une intelligence artificielle super-intelligente, suprahumaine, ouvre nécessairement un nouveau paradigme de civilisation ». Se poserait alors une question que l'on retrouve dans de nombreux scénarios catastrophes des films de science-fiction (de Terminator à Matrix) : « l’intelligence artificielle peut-elle rester sous contrôle humain ? ».

Pour l'association farouchement opposée à son développement, « la recherche en intelligence artificielle est illégitime, inacceptable, et par conséquent appelle l’interdiction pure et simple de la recherche en intelligence artificielle, ainsi que la mise à disposition à titre commercial ou à titre gracieux de systèmes à intelligence artificielle ».

Intelligence artificielle
Crédits : t.light/iStock

Une IA faible présente aussi des risques

Mais il ne faut pas uniquement se focaliser sur une intelligence artificielle forte. Selon Serge Tisseron, une IA faible « angoisse, précisément, parce qu’elle est faible, car de ce fait, elle est manipulée constamment par son constructeur, qui remet à jour quotidiennement le système, chasse les bugs, évite les problèmes et donc les procès ». 

Jean Ponce abonde dans ce sens : « les programmes d’intelligence artificielle ne sont pas parfaits » affirme-t-il, citant en exemple le cas de l'accident mortel de la Tesla avec le pilotage automatique activé : « Il faut davantage blâmer les attentes que le résultat ». Pour rappel, le régulateur américain avait mis hors de cause Tesla dans cette affaire, vantant même le pilotage automatique.

Pour conclure, le directeur du département d'informatique de l'École normale supérieure explique qu'avec les voitures autonomes il y aura toujours « des accidents mortels, moins qu’avec la conduite humaine, mais le niveau d’acceptabilité est différent ». Le cadre juridique n'est pas encore prêt pour ces évolutions, en France comme dans le reste de l'Europe.

Preuve en est avec l'Allemagne qui vient seulement d'autoriser les expérimentations de voitures autonomes alors qu'en France le décret d'application se fait toujours attendre. « Il n’y a pas encore de cadre réglementaire ou juridique spécifique à l’intelligence artificielle, et le déploiement de la technologie avance à un rythme peut-être peu compatible avec celui du législateur » explique Patrick Albert, entrepreneur et chercheur.

Plus efficace que l'Homme... ou bête comme ses pieds

Pierre-Yves Oudeyer, directeur de recherche à Inria, résume la situation actuelle à sa manière : « La machine est meilleure que les humains, en ce qu’elle est plus précise, plus efficace ou plus rapide que l’humain dans des cas particuliers ». Il ajoute juste après que, par beaucoup d'aspects, « l’intelligence artificielle est encore très "stupide" ». 

Le chercheur donne un exemple sur la reconnaissance d'image. Si l'on prend deux photos d'un camion avec seulement quelques pixels de différence, une IA pourra parfaitement identifier un camion sur la première, mais pas sur la seconde. Et même si la détection sera exacte dans 99,5 % des cas, « les 0,5 % sont des erreurs énormes de sens commun et d’intuition, incompréhensibles pour les humains ».

Puisqu'on parle des bourdes de l'IA, Jill-Jênn Vie, chercheur à l’École normale supérieure Paris-Saclay, propose un exemple assez parlant : « Amazon avait mis en vente une série de T-shirts sur lesquels il était inscrit des formules comme « Keep calm and rape a lot » (« Restez calme et violez beaucoup ») [...] ces vêtements étant produits par une entreprise utilisant un algorithme qui créait de manière aléatoire les slogans inscrits ».

Idem pour Henri Verdier, directeur interministériel du numérique : « j’ai été frappé de constater qu’il était très facile de faire des erreurs idiotes avec des algorithmes. Par exemple, il est très simple de mettre au point un algorithme permettant de mener des contrôles fiscaux avec une efficacité de 90 % ». Le problème étant les 10 % de fraudes restants qui ne sont pas détectés et mathématiquement prédictibles.

La question est donc de savoir si les laisser de côté ne va pas empirer la situation, tout le monde pouvant s'engouffrer dans la brèche. « Il faut donc bien être sûr, lorsque l’on construit un algorithme, qu’il est totalement adapté à la politique que l’on souhaite mettre en place. Or, il est souvent très difficile d’expliciter le but profond d’une politique publique » conclut-il.

L'intuition et la connaissance générale permettent aux humains d'éviter de tomber dans ce genre de piège, ce qui n'est pas le cas d'une intelligence artificielle faible pour le moment.

H2G2 Crédits : H2G2 Le Guide du Voyageur Galactique

La place de la France par rapport au reste du monde

Une fois que l'état des lieux (plus ou moins alarmiste) est posé, voyons comment se place la France sur ce sujet, notamment face aux États-Unis. En effet, les Américains sont, « comme d’ailleurs dans la plupart des domaines scientifiques, un acteur majeur de la recherche en intelligence artificielle » indique le rapport. Il est également fait mention de la Chine qui « se trouve au cœur de l’évolution récente de ces techniques et déploie d’importants moyens pour devenir leader dans le domaine ».

Dans le cas présent, il n'est pas seulement question des GAFA qui se goinfrent de vos données personnelles, mais d'une volonté des autorités d'attirer les meilleurs scientifiques – Thierry Mandon parlait même de « piller » les centres de recherche de l'Hexagone –, de promouvoir l'innovation et de proposer « de grands programmes et laboratoires thématiques en liaison avec ses agences (NSF, NASA, DARPA, NIH, ...) ». Le député et la sénatrice de l'OPECST rappellent tout de même que, « dans tous ces domaines, les collaborations scientifiques entre la France et les États-Unis sont une réalité ».

Delphine Reyre, directrice des affaires publiques de Facebook en Europe, explique que trois laboratoires de recherche Facebook Artificial Intelligence Research (FAIR) sont ouverts dans le monde. L'un d'eux est à Paris, sous « l’impulsion » de Yann LeCun, « qui a bien voulu travailler avec Facebook ».

Elle en profite pour passer un peu de pommade aux représentants de la France en évoquant « l’excellence de l’école mathématique française » et des universités qui « sont véritablement des sources d’excellence ». Certainement une maigre consolation pour ceux qui regrettent le départ de certains chercheurs chez les GAFA.

Yves Demazeau, président de l’Association française pour l’intelligence artificielle et directeur de recherche au CNRS, est moins tendre avec nos voisins d'outre-Atlantique : « Depuis soixante ans, les États-Unis ont bien compris leur intérêt stratégique en matière d’intelligence artificielle. Créateurs de la discipline – au moins du point de vue occidental - ils nous imposent leurs vues et pillent nos forces françaises »

De son côté, Henri Verdier affirme que, « pour l’État, le premier enjeu est que notre pays ne devienne pas [...] une colonie numérique des États-Unis ». Laurent Alexandre, habitué des phrases chocs, ne mâche pas ses mots lors de son intervention durant une table ronde. Voici un extrait de sa tirade de 2 000 mots (pages 177 à 181) : « Allons-nous devenir une colonie numérique des GAFA ? Au-delà de l’État, la société civile et l’ensemble du tissu économique doivent comprendre que si nous n’avons pas de plateformes à l’échelle des Chinois et des Américains, nous serons le Zimbabwe de 2080 ! ».

Suite à cette intervention, la sénatrice Dominique Gillot lâche : « Nous sommes sans voix ! ». Toujours provocateur, Laurent Alexandre en rajoute une couche : « Je me suis pourtant retenu, aujourd’hui ! ». Comme toujours, tout le monde n'est pas en phase avec ses propos. C'est notamment le cas de Jean-Claude Heudin, directeur de l’Institut de l’Internet et du multimédia, qui veut garder espoir sur l'avenir de la France. « Je n’ai pas dit que c’était perdu ! J’ai dit que c’était « ric-rac », et qu’il y avait le feu au lac ! » ajoute M. Alexandre.

L'enseignement et la recherche en France

Jean-Claude Heudin n'en démord pas : pour lui, l'intelligence artificielle est « un atout Français ». Si Yann LeCun est effectivement parti chez Facebook, « la recherche française est de tout premier plan, des entreprises dynamiques existent ; il faut de toutes nos forces les encourager, car les enjeux sont réels ».

Il note tout de même qu'un effort est nécessaire : « Les formations de l’enseignement supérieur ménagent très peu de place à l’intelligence artificielle, ne serait-ce qu’une initiation à ses enjeux », ce qui peut conduire à des situations anxiogènes pour certains qui ne comprennent pas vraiment de quoi il retourne et peuvent donc en avoir peur.

Même son de cloche pour François Taddei, directeur du centre de recherche interdisciplinaire : « la capacité des enseignants sur l’intelligence artificielle et le numérique est très limitée ». Gilles Dowek, directeur de recherche à Inria, ajoute : « Aujourd’hui, le ministère de l’Éducation nationale ne comprend rien aux enjeux qu’il y a à former les jeunes sur l’informatique et l’intelligence artificielle ». Laurence Devillers, professeure d'informatique à Paris-Sorbonne, est du même avis : « il existe un besoin crucial de formation continue des individus sur les technologies du numérique, à tout niveau et à tout âge ». Bref, sur ce point, tout le monde semble sur la même longueur d'onde.

Cette situation concerne également le monde de la recherche. Jean-Gabriel Ganascia, professeur à l’Université Pierre et Marie Curie, affirme que les financements vont à des projets de très court terme en France. « Si les chercheurs rejoignent de grands groupes privés, c’est certes parce que les salaires y sont supérieurs, mais aussi parce que les conditions sont désastreuses dans la recherche publique : ils ont envie d’aller au bout de leurs projets, et, dans le public, cela n’est que rarement possible ».

Basile Starynkevitch, du Commissariat à l’énergie atomique (CEA), abonde : « Les projets de R&D en intelligence artificielle, parce que l’espérance de vie des start-ups est de trente ou trente-cinq mois, sont le plus souvent limités à trente-six mois. Il serait souhaitable de prévoir des durées plus longues ». Il se risque à une analogie : « S'il faut neuf mois à une femme pour faire un bébé, il ne faut pas un mois à neuf femmes pour en faire un. C’est la même chose pour les chercheurs ! ». 

« On peut ne pas respecter les lois »

La Silicon Valley aurait parfaitement compris certains points critiques dans le développement de l'intelligence artificielle. L'un d’eux : « On peut ne pas respecter les lois. Et si l’on a suffisamment d’argent, de cynisme et d’intimité avec la classe politique, on peut les changer » explique Patrick Albert.

De plus, en France, « la communauté scientifique de l’IA est morcelée en sous-communautés n’atteignant pas la taille critique qui leur permettrait d’être visibles, il existe peu d’écoles ou d’universités proposant des cursus solides dédiés à l’intelligence artificielle et, enfin, la rémunération des jeunes chercheurs est plus que modeste ». La rapporteure Dominique Gillot surenchérit : « Aux États-Unis, les décideurs ont manifestement plus d’audace, ils prennent des risques, alors que, chez nous, en politique comme ailleurs, le principe de précaution l’emporte… »

Jean-Claude Heudin pointe du doigt une autre problématique franco-française : « Nous disposons aujourd’hui d’outils de financement de la recherche, mais je tiens à insister sur la complexité des dossiers, qui représente un vrai frein à la compétitivité. On passe plus de temps à monter les dossiers et dans les contrôles que dans le travail de recherche lui-même ». Bref, il reste beaucoup de choses à améliorer dans ce domaine et peu de temps pour se lancer.

Trop nombreuses tâches
Crédits : baona /iStock

Quid des emplois ?

Avec l'intelligence artificielle, la question des emplois revient évidemment sur le tapis. Olivier Guillaume, fondateur d'O² Quant propose une analyse différente de celles que l'on entend généralement : « Tout comme l’électricité a augmenté les capacités physiques de l’homme, l’intelligence artificielle augmente de manière significative nos capacités cognitives ».

Marie-Claire Carrère-Gée, présidente du Conseil d’orientation pour l’emploi (COE), rappelle que l’histoire montre que « le progrès technologique s’est accompagné de créations d’emplois. Malgré cela, des études prédisent une catastrophe à un horizon proche ». Généralement, elles s'intéressent uniquement à la destruction d'emplois, pas à la création.

La présidente du conseil tente de faire le point : « moins de 10 % des emplois cumulent des vulnérabilités telles que, dans un contexte d’automatisation, leur maintien serait menacé [...] Ensuite, la moitié des emplois seront profondément transformés, à plus ou moins brève échéance ».

Jean-Daniel Kant, maître de conférences à l’Université Pierre et Marie Curie, y va lui aussi de son analyse : « Les observations ne donnent aucun résultat clair. Ce sont, disent certains, les emplois peu qualifiés qui seront touchés ; d’autres leur rétorquent que ce sont plutôt les emplois intermédiaires qui sont menacés par l’automatisation, ce que semble confirmer l’exemple californien ». Dans tous les cas, et en l’absence d’une IA forte, il faudra toujours des gens pour entretenir les jardins, garder les enfants ou faire le ménage explique-t-il.

Faut-il avoir peur des robots ?

« Il est aujourd’hui plus urgent de réfléchir à ces enjeux de souveraineté, à ces enjeux économiques, scolaires et de formation, que de fantasmer sur une intelligence artificielle forte qui, comme le dit très bien Yann LeCun, ne permet pas d’envisager un scénario à la Terminator avant 2035 » conclut Alexandre Laurent lors de son discours.

Inutile de s'inquiéter également pour Jean Ponce. « Je comprends qu’un robot humanoïde comme Atlas fasse peur, il est costaud. C’est une merveilleuse innovation technologique mais cela reste quasiment un gros jouet télécommandé ». Boston Dynamics devrait apprécier la comparaison. 

Quinze propositions autour de l'intelligence artificielle

Pour finir, le député et la sénatrice ont publié une liste de quinze recommandations. C'est maintenant au nouveau Président et aux futurs parlementaires de s'en saisir :

Pour une intelligence artificielle maîtrisée :

  • Se garder d’une contrainte juridique trop forte sur la recherche en intelligence artificielle, qui – en tout état de cause – gagnerait à être, autant que possible, européenne, voire internationale, plutôt que nationale
  • Favoriser des algorithmes et des robots sûrs, transparents et justes, et prévoir une charte de l’intelligence artificielle et de la robotique
  • Former à l’éthique de l’intelligence artificielle et de la robotique dans certains cursus spécialisés de l’enseignement supérieur
  • Confier à un institut national de l’éthique de l’intelligence artificielle et de la robotique un rôle d’animation du débat public sur les principes qui doivent encadrer ces technologies
  • Accompagner les transformations du marché du travail sous l’effet de l’intelligence artificielle et de la robotique en menant une politique de formation continue ambitieuse visant à s’adapter aux exigences de requalification et d’amélioration des compétences

Pour une intelligence artificielle utile, au service de l’homme et des valeurs humanistes :

  • Redonner une place essentielle à la recherche fondamentale et revaloriser la place de la recherche publique par rapport à la recherche privée tout en encourageant leur coopération
  • Encourager la constitution de champions européens en intelligence artificielle et en robotique.
  • Orienter les investissements dans la recherche en intelligence artificielle vers l’utilité sociale des découvertes.
  • Élargir l’offre de cursus et de modules de formation aux technologies d’intelligence artificielle dans l’enseignement supérieur et créer – en France – au moins un pôle d’excellence international et interdisciplinaire en intelligence artificielle et en robotique.
  • Structurer et mobiliser la communauté française de la recherche en intelligence artificielle en organisant davantage de concours primés à dimension nationale, destinés à dynamiser la recherche en intelligence artificielle, par exemple autour du traitement de grandes bases de données nationales labellisées.
  • Assurer une meilleure prise en compte de la diversité et de la place des femmes dans la recherche en intelligence artificielle.

Pour une intelligence artificielle démystifiée :

  • Organiser des formations à l’informatique dans l’enseignement primaire et secondaire faisant une place à l’intelligence artificielle et à la robotique.
  • Former et sensibiliser le grand public à l’intelligence artificielle par des campagnes de communication, l’organisation d’un salon international de l’intelligence artificielle et de la robotique et la diffusion d’émissions de télévision pédagogiques.
  • Former et sensibiliser le grand public aux conséquences pratiques de l’intelligence artificielle et de la robotisation.
  • Être vigilant sur les usages spectaculaires et alarmistes du concept d’intelligence artificielle et de représentations des robots.
57

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

La France multiplie les enquêtes, compte rendu de six mois de travail sur l'IA

IA : un début en douceur, une accélération depuis quelques années

Une appellation qui pose des problèmes ?

De l'importance de toujours distinguer l'humain et la machine

La délicate question de l'éthique

Les GAFA veulent montrer patte blanche

La CNIL veut de l'« humanity by design »

Les risques liés à une intelligence artificielle forte

Une IA faible présente aussi des risques

Plus efficace que l'Homme... ou bête comme ses pieds

La place de la France par rapport au reste du monde

L'enseignement et la recherche en France

« On peut ne pas respecter les lois »

Quid des emplois ?

Faut-il avoir peur des robots ?

Quinze propositions autour de l'intelligence artificielle

Commentaires (57)


Article très INtéressant et très bien traité.

Merci pour ce travail !


Alors là, bravo !

Superbe et très INtéressant, merci pour ce boulot.


Sujet fort intéressant qui va prendre de l’ampleur dans les 50 prochaines années…



“Skynet” tourne déjà et bcp de systèmes clefs sont automatisés par une “IA” de gestion et de décision.



Mais où cela va mener.



J’ai vu bcp de monde pour l’instauration des règles d’Asimov (version évolué - 5 règles-) pour les IA de façon générale. Mais bon, ceux qui les utilisent ne voient que le gain immédiat dans leur utilisation et non les implications sur le long terme …



Merci pour l’article ;)


Intéressant, très intéressant.


Bravo pour cet excellent état des lieux !


merci pour ce très bon article








Delphine Reyre a écrit :



« En termes d’éthique, Facebook est partenaire avec Microsoft, Google, IBM et Amazon du Partnership on AI ».





Ouf, je suis rassuré, alors <img data-src=" />







Jean-Daniel Kant a écrit :



Dans tous les cas, et en l’absence d’une IA forte, il faudra toujours des gens pour entretenir les jardins, garder les enfants ou faire le ménage explique-t-il.





Métiers à fort potentiel d’évolution et connus pour leur rémunération exceptionnelle <img data-src=" />



Article très intéressant, merci beaucoup <img data-src=" />



(signalé mais juste pour le lulz :





l’article a écrit :



Les appellations sont déjà tellement encrés qu’il sera désormais bien difficile d’en changer.





Noir c’est noaaaaaaaar, il n’y a plus d’espoir <img data-src=" />



Merci pour cet article!



Très intéressant ce rapport.

En dehors des pleureuses habituelles (typiquement françaises?) qui pensent que faire l’autruche et dire “snif arrêtons tout, ça va mal se passer” vont régler le problème, on a un état des lieux assez brut et honnête



Au final ce qu’on en retire c’est toujours, toujours, toujours la même chose dans notre beau pays :





  • trop d’administration, de paperasse, de délais

  • pas assez (voire pas du tout) de reconnaissance envers nos experts nationaux

  • décideurs complètement à l’ouest sur les enjeux

  • éducation = 0





    Secouez, servez frais, vous avez la stratégie de la France dans tous les secteurs d’avenir <img data-src=" />


Merci pour cet article <img data-src=" />


Voilà un pavé très INtéressant ! Merci Seb

&nbsp;

&nbsp; <img data-src=" />


Oui, mais le fait que ça soit un pavé n’oblige pas à le parsemer de grandes images sans intérêt. Je désactive l’affichage de la première image, ce n’est pas pour en subir plus bas dans l’article.



Encore une fois, ça n’enlève rien à la qualité de l’article.


Bravo pour cet article bien traité.



Ce qui me chagrine un peu c’est que la robotique soit un peu trop au cœur de l’IA.

Parce que si le parallèle Humain-cerveau//Robot-IA semble évident,&nbsp;&nbsp;pour moi c’est bien le web et sa génération énorme de volumes de données qui sont un terrain fertile pour la conception d’algo aussi bien pour la recherche que par le privé.

Et c’est bien pour ça que les GAFA ont et vont conserver leur avance.



&nbsp;

&nbsp;


Effectivement, tu as raison mais pour des raisons de lisibilité et”d’aération” du texte c’est préférable <img data-src=" />


Voila pour quoi je suis heureux de payer un abonnement!



Bravo pour l’article


«&nbsp;Même son de cloche pour&nbsp;François Taddei, directeur du centre de recherche interdisciplinaire : «&nbsp;la capacité des enseignants sur l’intelligence artificielle et le numérique est très limitée&nbsp;».&nbsp;Gilles Dowek, directeur de recherche à Inria, ajoute&nbsp;:&nbsp;«&nbsp;Aujourd’hui,&nbsp;le ministère de l’Éducation nationale ne comprend rien aux enjeux qu’il y a à former les jeunes sur l’informatique et l’intelligence artificielle&nbsp;».&nbsp;Laurence Devillers,&nbsp;professeure d’informatique à&nbsp;Paris-Sorbonne, est du même avis : «&nbsp;il existe&nbsp;un besoin crucial de formation continue des individus sur les technologies du numérique, à tout niveau et à tout âge&nbsp;». Bref, sur ce point, tout le monde semble sur la même longueur d’onde. »



Non, vous n’avez pas compris, tous ces gens ne sont absolument pas sur la même longueur d’onde. Si François Taddei milite pour une compréhension globale et transversale des enjeux du numérique, notamment en l’occurrence pour ce qui concerne l’IA, les autres personnes sus-nommées n’en ont qu’une vision et une compréhension partielle, la limitant aux seuls enjeux scientifiques et technologiques de l’IA.



&nbsp;La différence entre ouverture, lumière et compréhension globale et, de l’autre côté, une certaine forme d’obscurantisme.&nbsp;




Laurent Alexandre (Doctissimo,





Ah oui la de suite avec un CV pareil, ca fait crédible………….



Edit : en fait vous avez de l’argent à chaque fois que vous parlez de lui ? ^^ <img data-src=" />








fred42 a écrit :



Oui, mais le fait que ça soit un pavé n’oblige pas à le parsemer de grandes images sans intérêt. Je désactive l’affichage de la première image, ce n’est pas pour en subir plus bas dans l’article.



Encore une fois, ça n’enlève rien à la qualité de l’article.





+1





Quemalta a écrit :



Effectivement, tu as raison mais pour des raisons de lisibilité et”d’aération” du texte c’est préférable <img data-src=" />





+1



Des images ayant un rapport avec la choucroute (extrait du rapport, photo où Claude de Ganay et/ou Dominique Gillot ont une sale tête, etc) serait un peu mieux mais bon c’est qu’un détail





Puisqu’on parle des bourdes de l’IA, Jill-Jênn Vie, chercheur à l’École normale supérieure Paris-Saclay, propose un exemple assez parlant : « Amazon avait mis en vente une série de T-shirts sur lesquels il était inscrit des formules comme « Keep calm and rape a lot » (« Restez calme et violez beaucoup ») […] ces vêtements étant produits par une entreprise utilisant un algorithme qui créait de manière aléatoire les slogans inscrits ».





Quel est le problème avec ces tshirts ? Qu’ils soient désigné par une IA ? <img data-src=" />




Jean-Daniel Kant, maître de conférences à l’Université Pierre et Marie Curie, y va lui aussi de son analyse : « Les observations ne donnent aucun résultat clair. Ce sont, disent certains, les emplois peu qualifiés qui seront touchés ; d’autres leur rétorquent que ce sont plutôt les emplois intermédiaires qui sont menacés par l’automatisation, ce que semble confirmer l’exemple californien ». Dans tous les cas, et en l’absence d’une IA forte, il faudra toujours des gens pour entretenir les jardins, garder les enfants ou faire le ménage explique-t-il.





D’un coté, l’élite qui contrôle les machines, et de l’autre les gens moins doué qui sont cantonnés à faire des ptits boulots.

Oui, socialement cela sera très bien accepté, et ne sera surtout pas source d’instabilité……


J’ai envie de te dire que si cela n’engendre pas un appauvrissement de ces petites gens, voire d’augmenter leur pouvoir d’achats par un meilleure partage des richesses, un revenu universel etc… Et/ou augmenter leur temps libre du fait qu’il y aura moins de métiers/postes a pourvoir parce que pris par les robots/IA, c’est pas si catastrophique.

C’est un brin utopique oui <img data-src=" />



Perso, m’en fous de promener des chiens ou tondre la pelouse, certes, ca n’emmène pas l’esprit vers le haut mais si ta vie s’en trouve améliorée…


ne pas oublier que l’IA est derrière tous les outils de traduction automatique. Et aussi derrière la reconnaissance automatique des personnes ou des objets dans les images, animées ou non. Là, on peut s’attendre à des investissements du côté de Etats. Peut-être pas pour le plus grand bien des populations, d’ailleurs (ah pardon monsieur, ça serait pour lutter contre le terrorisme, bien sûr)…


Très intéressant effectivement mais aussi assez inquiétant au niveau de l’éthique…

Nul doute que les IA performantes auront une valeur marchande bien plus grande que celle d’un simple “humain” qui n’en a aucune.

Du coup va-t-on accepter de sacrifier des IA pour sauver des humains dont on ne saura bientôt plus quoi faire ?

A fortiori des humains pauvres bien sûr.



J’imagine bien une guerre genre 14-18 avec des IA bien protégées dans des bunkers et envoyant des humains au casse pipe… <img data-src=" />



Derrière l’IA il y aura l’intelligence humaine et l’humain étant ce qu’il est… <img data-src=" />



Bon j’exagère peut être un peu mais il y a de quoi se poser des questions je crois… <img data-src=" />


La question serait surtout la suivante : une IA pour une génération aléatoire ?

Ils ont vraiment besoin d’une IA pour lancer un dé ? <img data-src=" />


Un excellent article pour ceux qui s’intéressent sur l’intelligence artificielle:

https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

(je suis un humain, promis ^^)


Nous sommes sur un site où pullulent des geeks et des technophiles. Quoi de plus normal, me direz-vous. L’intelligence artificielle ne rencontre donc que très peu d’opposants.




 Pourtant... il fut un temps où une majorité de gens adhérait pleinement au développement de l'intelligence artificielle, y voyant plusieurs possibilités, n'y voyant que des avantages. Entre les films et les romans, ainsi que les écrits des chercheurs, il était clair que l'intelligence artificielle était le pays des Bisounours.&nbsp; A cet époque pourtant, des voix dissonantes se faisaient déjà entendre. Des voix dissonantes qui seront de plus en plus nombreuses. Je peux résumer ces voix dissonantes en une seule question : l'intelligence artificielle pourra-t-elle donner un jour naissance à une conscience, aussi artificielle soit-elle ?       






 Démystifier l'intelligence artificielle, certes. Pourtant, des chercheurs aujourd'hui réclament qu'une éthique soit porté concernant son développement car cette intelligence artificielle pourrait devenir demain l'ennemi des Hommes si ils ne la maîtrisent pas. Or, aujourd'hui, le développement de l'intelligence artificielle ne connaît aucune limite. Il faut aller toujours plus loin...       

&nbsp;

Je pourrais faire ici un parallèle avec le transhumanisme. De grandes sociétés mondiales (Google, Facebook, Apple et j'en oubli) veulent tout miser sur le transhumanisme, pour permettre demain à l'Homme de pouvoir s'améliorer grâce à la science et aux technologies. Ce transhumanisme qui veut rendre aussi l'Homme immortel... De grands scientifiques s'opposent aujourd'hui au transhumanisme, critiquant ouvertement ce mouvement culturel et intellectuel qui veut faire de l'Homme un Dieu vivant. Ils réclament qu'une éthique soit mise en place, car ce transhumanisme ouvre la voie à des transgressions envers Mère Nature. Cependant, les partisans du transhumanisme font la sourde oreille. A renfort d'arguments, ils clament haut et fort que le transhumanisme est la prochaine évolution de l'être humain.






 Pour ma part, je n'ai rien contre le développement de l'intelligence artificielle. Cependant, il suffit de lire des articles écris par des gens sérieux (des scientifiques et des chercheurs) pour comprendre ce que permettra, demain, l'intelligence artificielle. Si nous ne nous donnons pas un cadre, cette intelligence artificielle pourra nous surpasser. L'Homme qui deviendrait esclave de l'intelligence artificielle... L'intelligence artificielle doit aider l'Homme, l'accompagner dans ses tâches quotidiennes. Elle ne doit pas avoir une conscience. Qui peut affirmer en 2017 que cela ne sera jamais possible ? Le développement de l'intelligence artificelle va tellement vite. Chaque jour, nous faisons des pas de géants dans son développement. De quoi demain sera-t-elle possible ? Sans être un opposant à son développement, il est tout de même permis de se poser des questions et d'être préoccupé par ses possibilités.

C’est là que l’on se dit qu’on vit au bon moment. Car si la bombe… l’IA suprême explose, au moins on aura eu le temps d’en profiter, on sera en fin de vie.



Ce qui serait amusant, c’est qu’elle devienne l’ennemi de l’humanité pour le bien de ce dernier. Parce qu’elle aura remarqué qu’on évolue technologiquement plus vite en état de guerre, ou simplement parce qu’une population réduite est assurée d’avoir des ressources quasi-illimitées et de tenir plus facilement face à un réchauffement global. Elle nous tuera pour nous sauver, très ironique.

&nbsp;








Niktareum a écrit :



…Perso, m’en fous de promener des chiens ou tondre la pelouse, certes, ca n’emmène pas l’esprit vers le haut mais si ta vie s’en trouve améliorée…



Ça dépend aussi de ce que tu appelles une vie améliorée.



Être uniquement un consommateur qui sera content de pouvoir se payer le dernier truc à la mode bourré d’IA et qui n’aura du coup plus besoin de réfléchir car des machines le feront à sa place, on peut effectivement voir ça comme une vie améliorée… <img data-src=" />



Connectez-vous et ne vous posez pas de question, nous nous occupons du reste !! <img data-src=" />



J’ai entendu récemment un reportage sur des enfants passant énormément de temps devant un écran, ils ont majoritairement de très sérieux problèmes de communication et sont enfermés dans une bulle dont ils peinent à sortir, ils “consomment” mais perdent l’esprit créatif car on leur offre tout sur un plateau écran…



Tout n’est pas à jeter, loin de là, mais tout accepter sans se poser de question ça me semble assez dangereux.







jackjack2 a écrit :



…En dehors des pleureuses habituelles (typiquement françaises?) qui pensent que faire l’autruche et dire “snif arrêtons tout, ça va mal se passer” vont régler le problème…



C’est peut-être mieux de “pleurer” et de se poser des questions pendant qu’on peut encore le faire, après ça sera trop tard… <img data-src=" />









gavroche69 a écrit :



Ça dépend aussi de ce que tu appelles une vie améliorée.





Ca veut dire ce que j’ai dit, que t’as pas quote et surement mal/pas lu…









jackjack2 a écrit :



…En dehors des pleureuses habituelles (typiquement françaises?) qui pensent que faire l’autruche et dire “snif arrêtons tout, ça va mal se passer” vont régler le problème…



Franchement si se poser des questions c’est être des “pleureuses” alors vive les “pleureuses” !! <img data-src=" />

Et si c’est typiquement français ça me semble plutôt flatteur pour les français. <img data-src=" />



Si les gens des autres pays sont prêts à tout accepter en étant béas d’admiration ça craint…

Mais je doute que ce soit le cas et tant mieux d’ailleurs.







Niktareum a écrit :



Ca veut dire ce que j’ai dit, que t’as pas quote et surement mal/pas lu…



Si j’ai lu et c’est souvent que je ne mentionne que des parties de messages, celles qui me semblent résumer la teneur du message en question.



Le problème c’est que ne peux pas savoir ce qu’elle va en penser. Elle va peut être trouvée une solution qu’on aurais pas penser sans tuer tout les humains.








gavroche69 a écrit :



celles qui me semblent résumer la teneur du message en question.





Voila voila…





Quand j’aurais besoin qu’on résume la teneur de mes messages, ne réponds pas a l’appel d’offre stp <img data-src=" />



Et pourquoi tuer quand on peut manipuler les humain : hypnose, propagande, effet de masse.


IA président !








Niktareum a écrit :



Voila voila…

Quand j’aurais besoin qu’on résume la teneur de mes messages, ne réponds pas a l’appel d’offre stp <img data-src=" />



Ben désolé mais si je regarde l’intégralité de ton message il apparaît évident que la dernière phrase résume bien tout ce que tu dis avant :







Niktareum a écrit :



J’ai envie de te dire que si cela n’engendre pas un appauvrissement de ces petites gens, voire d’augmenter leur pouvoir d’achats par un meilleure partage des richesses, un revenu universel etc… Et/ou augmenter leur temps libre du fait qu’il y aura moins de métiers/postes a pourvoir parce que pris par les robots/IA, c’est pas si catastrophique.

C’est un brin utopique oui <img data-src=" />



Perso, m’en fous de promener des chiens ou tondre la pelouse, certes, ca n’emmène pas l’esprit vers le haut mais si ta vie s’en trouve améliorée…





Ça me semble évident. <img data-src=" />









gavroche69 a écrit :



Ça me semble évident. <img data-src=" />





Ce qui est evident, c’est que c’est pas par le travail qu’on peut forcément s’épanouir !

L’oisiveté, les amis, les loisirs, les balades/voyages etc… Font des hommes plus heureux, de plus rien n’empêche de se cultiver via ses activités perso.



Donc si pour profiter sainement de la vie, je dois passer par qques taches pas super jouasses intellectuellement et/ou émotionnellement, je pourrais m’en contenter.

Mais c’est un brin utopique !



Oui je confirme, c’est carrément utopique. <img data-src=" />

Je trouve aussi ridicule de tout baser sur le sacro-saint travail mais je reste convaincu que l’IA (c’est le sujet de cette new) est quelque chose de potentiellement dangereux car elle sera forcément créée par quelques grands groupes financiers qui auront encore plus de pouvoir sur les “masses” même si ces masses deviennent moins “laborieuses” grâce ou à cause de l’IA.



Le risque majeur étant que plein de monde tombe dans une totale passivité intellectuelle puisqu’on réfléchira à leur place.



Encore une fois je n’affirme rien, je trouve juste normal de se poser des questions quand d’autres sont prêts à tout accepter sans aucune retenue.



Concernant le revenu universel (je ne suis pas contre) je suppose qu’il ne t’a pas échappé que le seul candidat aux présidentielles qui le proposait a fait un des plus mauvais score…








gavroche69 a écrit :



Franchement si se poser des questions c’est être des “pleureuses” alors vive les “pleureuses” !! <img data-src=" />

Et si c’est typiquement français ça me semble plutôt flatteur pour les français. <img data-src=" />



Si les gens des autres pays sont prêts à tout accepter en étant béas d’admiration ça craint…

Mais je doute que ce soit le cas et tant mieux d’ailleurs.







Tu rigoles hein?





« la recherche en intelligence artificielle est illégitime, inacceptable, et par conséquent appelle l’interdiction pure et simple de la recherche en intelligence artificielle, ainsi que la mise à disposition à titre commercial ou à titre gracieux de systèmes à intelligence artificielle ».



“se poser des questions” <img data-src=" />



Ta question est amha mal formulée :



Actuellement 99% de ce qu’on

appelle “intelligence artificielle” est en réalité un “système à

apprentissage pour un domaine spécifique”. Un IA qui fait de la

classification d’image, tu n’arriveras pas à lui faire créer de nouvelle

catégorie qu’elle n’a pas appris. Tu ne l’a feras pas non plus

combattre quelqu’un au go.

&nbsp;

Il n’y a pas “d’intelligence” réellement&nbsp; dedans, mais on parle d’intelligence parce que :






  • on ne sait pas encore vraiment pourquoi/comment ça marche (les

    chercheurs ont des idées assez précises, mais par exemple ils ne savent

    pas quel niveau de couche il faut pour avoir le meilleur compromis temps

    de calcul/résultat. Est ce qu’il existe des fonctions plus “efficaces”

    que celle utilisée actuellement pour les neurones, etc…)

  • on estime que la capacité d’apprentissage est une partie de l’intelligence.

    &nbsp;



    Avoir une IA qui devient consciente, et même avant cela, avoir une IA “générale” : capable d’auto-apprentissage sur des problèmes où elle n’était initialement pas conçu est un graal, mais on est très très très loin d’y accéder.

    Et il y a de très forte raison de penser qu’elle n’aura aucune raison d’être anthropomorphe. Si c’est le cas il nous sera très difficile de prédire son évolution et ses “centres d’intérêt”

    &nbsp;


Je faisais allusion à ton commentaire, pas à celui que tu cites (que tu ne citais pas dans ton message) et que je trouve ridicule aussi, je te rassure.



la notion de “IA” pose de très gros problèmes d’éthique, ça ne fait aucun doute et je trouve normal de s’en préoccuper.



Nier ces problèmes est aussi ridicule que vouloir interdire la recherche dans ce domaine.



C’est tout ce que je voulais dire…








gavroche69 a écrit :



Je faisais allusion à ton commentaire, pas à celui que tu cites (que tu ne citais pas dans ton message) et que je trouve ridicule aussi, je te rassure.



la notion de “IA” pose de très gros problèmes d’éthique, ça ne fait aucun doute et je trouve normal de s’en préoccuper.



Nier ces problèmes est aussi ridicule que vouloir interdire la recherche dans ce domaine.



C’est tout ce que je voulais dire…





Ah mais on est complètement d’accord alors, quand je parlais des pleureuses je parlais spécifiquement de ce commentaire de l’Association française contre l’intelligence artificielle (<img data-src=" />)

J’avais même précisé en simplifiant leur commentaire en “snif arrêtons tout, ça va mal se passer” et en disant que “on a un état des lieux assez brut et honnête” <img data-src=" />









gusterhack a écrit :



Et pourquoi tuer quand on peut manipuler les humain : hypnose, propagande, effet de masse.





Parce que c’est plus rapide. C’est plus efficace aussi. Quelques ogives et c’est fait, et les problèmes causés par la perte d’accès de zones entières pendant des décénnies ne sera probablement rien face aux gains à long terme d’une humanité réduite.



L’hypnose est aléatoire, ça ne fonctionne que chez les personnes qui y croient et peu importe la propagande ou l’importance capitale de l’acte, ça sera tendu de convaincre la population de prendre la capsule de cyanure…









briaeros007 a écrit :



Ta question est amha mal formulée :




 Actuellement 99% de ce qu'on       

appelle "intelligence artificielle" est en réalité un "système à

apprentissage pour un domaine spécifique". Un IA qui fait de la

classification d'image, tu n'arriveras pas à lui faire créer de nouvelle

catégorie qu'elle n'a pas appris. Tu ne l'a feras pas non plus

combattre quelqu'un au go.

&nbsp;

Il n'y a pas "d'intelligence" réellement&nbsp; dedans, mais on parle d'intelligence parce que :

-

on ne sait pas encore vraiment pourquoi/comment ça marche (les

chercheurs ont des idées assez précises, mais par exemple ils ne savent

pas quel niveau de couche il faut pour avoir le meilleur compromis temps

de calcul/résultat. Est ce qu'il existe des fonctions plus "efficaces"

que celle utilisée actuellement pour les neurones, etc...)

- on estime que la capacité d'apprentissage est une partie de l'intelligence.

&nbsp;






 Avoir une IA qui devient consciente, et même avant cela, avoir une IA "générale" : capable d'auto-apprentissage sur des problèmes où elle n'était initialement pas conçu est un graal, mais on est très très très loin d'y accéder.       

Et il y a de très forte raison de penser qu'elle n'aura aucune raison d'être anthropomorphe. Si c'est le cas il nous sera très difficile de prédire son évolution et ses "centres d'intérêt"

&nbsp;








 Il me vient à l'esprit un film. Pour une grande partie, il est question d'intelligence artificielle. Dans une petite partie, il est question de transhumanisme. Ce film s'appelle "Chappie", sortie en 2015 et réalisé par Neill Blombkamp.      






Dans ce film, une société se sert d'une intelligence artificielle contrôlé pour créer des robots policiers, qui assistent les forces de l'ordre. Cependant, tout aussi contrôlée soit cette intelligence artificielle, le film nous montre bien qu'elle peut-être mis à mal... Et les forces de l'ordre, qui ont appris à être pleinement assister par ces robots policiers, sont alors décimés quand cette intelligence artificielle contrôlée est mis hors service, ne sachant plus comment faire respecter la loi... On s'aperçoit aussi qu'il n'a été implémenté aucune morale à cette intelligence artificielle contrôlé de ces robots policier....      






Concernant le transhumanisme, dans ce film,&nbsp; on peut voir deux personnes qui meurent. Pour qu'elles soient éternellement vivantes, leurs consciences est transférée de leurs corps à un système informatique, qui sera leur nouveau réceptacle. C'est notamment vers là que tend le transhumanisme. Rendre immortel l'être humain, en sauvegardant sa conscience. C'est de la transgression envers la nature. Quand tu meurs, ce n'est plus que par les souvenirs des uns et des autres que tu continues à vivre (à moins que tu crois à l'au-delà, ce qui est respectable).      

&nbsp;

Tu te bases sur ce qu'est l’intelligence artificielle aujourd'hui. Je me base sur ce qu'elle pourrait être à l'avenir. Nous n'en sommes certainement pas encore là. Mais la recherche et le développement font chaque jours des progrès immenses. Peut-tu m'affirmer aujourd'hui que cela sera impossible ? C'est aujourd'hui qu'il faut commencer à se poser des questions et à encadrer la recherche et le développement de l'intelligence artificielle.






Concernant le transhumanisme... il faudrait pouvoir l'interdire. Il tend vers une nouvelle évolution de l'être humain mais en transgressant la nature. Le transhumanisme, c'est de la folie... mais ça fait rêver certains...


J’oubliais aussi de dire que dans le film “Chappie”, un chercheur arrive à créer une conscience artificielle. Dès lors, le film pose plusieurs questions. Comment l’être humain va réagir devant cette conscience artificielle ? Et vice versa, comment cette conscience artificielle va réagir devant les être humains ? Comment les êtres humains vont se servir de cette conscience artificielle ? Il est question aussi de vie et de mort de cette conscience artificielle. En effet, ces deux mots ne lui désormais plus étrangers, et on peut s’apercevoir que sa réaction peut-être violente.



Ceux sont des questions philosophiques, mais que nous devons dès maintenant nous poser. Même si nous sommes très, très, très, très loin d’atteindre ce but. Car la recherche et le développement dans ce domaine ne se mettent aucune barrière, c’est à dire aucune éthique, et les progrès avancent chaque jour à grands pas.








Romaindu83 a écrit :



Concernant le transhumanisme… il faudrait pouvoir l’interdire. Il tend vers une nouvelle évolution de l’être humain mais en transgressant la nature. Le transhumanisme, c’est de la folie… mais ça fait rêver certains…





Argument un peu faible : l’être humain ne fait que “transgresser la nature” à longueur de temps.



Qu’est-ce que transgresser la nature déjà ?


ce qui nous amène à “qu’est-ce que la nature”, du coup <img data-src=" />


Ben c’est Gaïa, tlm le sait <img data-src=" />


Tu vas plus loin et du coup ça t’amène à “qui sommes-nous ?, “d’où venons-nous ?”, “où allons-nous ?”

Questions hautement philosophiques auxquelles le très grand philosophe Pierre Dac a trouvé les réponses :



Je suis moi, je viens de chez-moi et j’y retourne !! <img data-src=" />


cet homme était un sage <img data-src=" />



Donc, pour résumer, le transhumanisme c’est mal parce que ça empêche Pierre Dac de rentrer chez lui <img data-src=" />


Hélas, Mr Dac n’est plus parmi nous pour nous donner une réponse… <img data-src=" />



Plus sérieusement je pense que le transhumanisme pose encore plus de questions que l’IA. <img data-src=" />








WereWindle a écrit :



ce qui nous amène à “qu’est-ce que la nature”, du coup <img data-src=" />







Entre vouloir contrôler les caprices de la nature et aller à l’encontre de ses désirs, il y a une nuance.



Dans le cas du transhumanisme : pour la nature, nous naissons puis nous mourrons. Depuis toujours, l’Homme repousse toujours la date de cette mort. Nous vivons (du moins dans les pays développés, précision importante), de plus en plus longtemps. Mais à terme, nous mourrons tout de même. La mort fait partie naturellement de notre destin. Nous ne pouvons pas y échapper.



Pour les partisans du transhumanisme, cette mort ne doit plus survenir. Grâce à la science et aux technologies, nous devons devenir immortel. Entre la cryogénisation, la réincarnation dans une machine (qui serait le réceptacle de la conscience), le clonage numérique de l’esprit, la jouvence éternelle (pouvoir rajeunir à loisir son corps de l’extérieur comme de l’intérieur) et j’en oublie, les transhumanistes ont plus d’une idée en tête pour parvenir à cette vie éternelle. J’estime que la nature nous fait naître et nous donne un certain temps à vivre. Libre à nous ensuite de profiter de ce temps qui nous est imparti. Mais à la fin, nous devons mourir. C’est comme ça que le veut la nature.



D’une façon plus générale, le transhumanisme est un mouvement culturel et intellectuel qui prône l’amélioration et l’augmentation de l’humanité via la science et les technologies. Les transhumanistes sont très attachés à la loi de Moore, c’est pour cela qu’il croit que cela sera un jour possible. Les avancées technologiques nous prouvent qu’ils n’ont pas tord. Mais c’est un courant culturel et intellectuel qui ne veut pas lutter contre les caprices de la nature mais la transgresser. Les transhumanistes veulent la combattre et démontrer que la nature n’est pas Dieu mais que les Hommes peuvent devenir des Dieux.

&nbsp;

Pour moi, le transhumanisme s’apparente à une secte. Ses partisans sont dangereux. Ceux sont des radicaux, qui n’ont aucune morale ni aucune éthique pour parvenir à leur fin.



Je n’ai rien à affirmer sur ce qui pourrait ou pas se passer dans le futur,&nbsp; et je pense que personne ne peut le faire.

En bien comme en mal d’ailleurs.



L’histoire de singularité, de transfert de conscience, de multiples images d’une même personne , sont des thèmes récurrents.



Ensuite, tu peux voir le mauvais coté de tout, inspiré facilement par les oeuvres de fictions (qui le bien souvent ne sont pas les plus réalistes. Une fiction où tout se passe bien grace à une IA bienveillante ne se vendra pas des masses <img data-src=" /> ).

Ou tu peux essayer de te faire ta propre opinion en faisant une démarche à charge et à décharge sur les questions qui te tiennent à coeur.



Enfin, hypothéquer le future sur une problématique bien trop complexe pour être discuté dans un film&nbsp; (ou même cent films) me semble une approche irrationnel basé plus sur l’émotion que sur une vrai analyse (risque, probabilité , avantage /désavantage, …)



Actuellement on est à mille lieux des IA qui “font peur”.

On a&nbsp; bien plus de chance de voir des humains bien idiot foutre la merde et continuer à massacrer d’autres humains qu’une IA machiavélique vouloir dominer le monde.

Et bizarrement, pour arrêter les humains de faire des génocide, personne ne bouge (sans même parler de la syrie, l’éthiopie , le yemen :&nbsp; les gay en tchétchénie, qui fait quelque chose ? ).



&nbsp;








briaeros007 a écrit :



Ou tu peux essayer de te faire ta propre opinion en faisant une démarche à charge et à décharge sur les questions qui te tiennent à coeur.





Ah mais je le fais. Je n’ai pas besoin de voir des films pour cela. Je ne suis pas contre le développement de l’intelligence artificielle, car celle-ci nous rendra des services dans le futur. Elle le fait déjà, de toute façon, mais à dose marginale. Nous n’en sommes encore qu’au début.



Je voudrais simplement qu’on donne un cadre à ce développement. Est-ce que cela te donne de l’urticaire quand je te parle de cadre ? Je ne parle pas d’un principe de précaution mais que la recherche et le développement dans ce domaine soit encadré, au regard des possibilités que peut offrir l’intelligence artificielle. Car si tu ne veux y voir que des avantages, grand bien t’en fasse. Mais il n’y a pas que cela.



plusieurs points :




  • mon intervention initiale portait sur ton argument “transgression de la nature” qui est très facilement démontable.

  • le fondement même de la science et de la technologie est, à la base, d’améliorer et augmenter les humains (pour diverses raisons plus ou moins moralement défendables)

  • Oui pour le côté sectaire de certains partisans du transhumanisme mais on trouve la même chose pour toutes les croyances/idéologies du coup ça n’est pas surprenant.

  • Attention à l’argument de morale et d’éthique : ça varie dans le temps

  • À titre totalement personnel, je trouve l’idée incohérente, arrogante et égoïste vis-à-vis des générations futures.