Dans les méandres de l'intelligence artificielle, entre angoisses, espoirs et recommandations

Pour le meilleur et pour le pire 57
Accès libre
image dediée
Crédits : mennovandijk/iStock
Nouvelle Techno
Par
le mardi 16 mai 2017 à 10:57
Sébastien Gavois

Comprendre les enjeux de l'intelligence artificielle et établir un bilan des forces en présence, tel est le but du rapport adopté par l'Office parlementaire d'évaluation des choix scientifiques et technologiques. Il prend la forme d'un épais document de 275 pages que nous avons décortiqué.

Il y a quelques semaines, le député Claude de Ganay et la sénatrice Dominique Gillot publiaient un rapport complet (PDF) intitulé « Pour une intelligence artificielle maîtrisée, utile et démystifiée ». Un très vaste sujet qui regroupe des domaines comme la vision par ordinateur, l'apprentissage automatique (machine learning) et la robotique.

La France multiplie les enquêtes, compte rendu de six mois de travail sur l'IA

Il a été adopté à l'unanimité le 14 mars 2017 par l'OPECST (office parlementaire d'évaluation des choix scientifiques et technologiques), un organe d'information commun entre l'Assemblée nationale et le Sénat. Il arrive quelques mois après le lancement du projet France IA, mais n'est-ce pas déjà un peu trop tard ? Au détour d'une question, la sénatrice du Val-d'Oise s'explique : « Il y a deux ans que je sollicite l’OPECST pour engager ce travail. Hélas ! C’est dans l’urgence, juste avant la fin de nos mandats parlementaires, que nous nous penchons sur le sujet » affirme-t-elle.

Dans leur synthèse de quatre pages seulement, les deux rapporteurs dévoilent une quinzaine de propositions afin d'encadrer et d'aiguiller cette révolution qui est en marche depuis des années. Mais le rapport de 275 pages va bien plus loin car il regroupe l'ensemble des contributions, avec des comptes rendus des tables rondes.

On y retrouve pas moins de six mois d'auditions auprès de spécialistes de tous les horizons (scientifiques, entrepreneurs, psychiatre, etc.) provenant de plusieurs pays. Voici donc notre compte rendu des éléments marquants abordés par les uns et les autres. Car si sur certains points les réactions vont toutes dans le même sens, ce n'est pas toujours le cas. 

IA : un début en douceur, une accélération depuis quelques années

Avant d'entrer dans le vif du sujet, le rapport commence par revenir sur l'évolution de l'intelligence artificielle, un concept qui n'a rien de nouveau car il existe depuis maintenant près de 60 ans. Cette technologie a par contre connu une forte accélération au cours des dernières années, notamment sous l'impulsion des géants du Net. Plusieurs pistes de développement ont ainsi été mises en place.

Citons les reconfigurations internes, l'émergence du cloud computing sur de nombreux secteurs d'activités et une politique de plus en plus agressive sur les acquisitions, ce qui est généralement un moyen rapide de gagner en compétences sur un domaine précis. « On passe d’un volume global d’acquisitions de start-ups spécialisées en intelligence artificielle de 7 en 2012 pour tout le territoire américain, à 33 en 2014, puis 37 en 2015 et 42 simplement pour les trois premiers trimestres de 2016 » explique ainsi le rapport. 

Un point de vue partagé par Patrick Albert, entrepreneur (créateur de ILOG), chercheur et l'un des pionniers dans l'IA : « L’année 2016 aura vu la concrétisation d’un mouvement profond et décisif de reconfiguration des GAFA autour de l’intelligence artificielle ». Il évoque le cas de Google qui serait passé de deux projets en 2011 à plus de mille fin 2016.

Une appellation qui pose des problèmes ?

Si l'intelligence artificielle est désormais au cœur de nos vies, le psychiatre et chercheur à l’Université Paris Diderot-Paris Serge Tisseron se demande si présenter ce concept sous ce nom (IA) était réellement un bon choix. Pour lui, dans les années 50, les fondateurs de cette discipline n’ont pas anticipé que ce langage anthropomorphe « allait poser problème ensuite ».

Pour le docteur, il aurait mieux valu parler d'apprentissage automatique ou logiciel à la place d'intelligence. Il enchaine : il aurait également préféré parler de machines automatiques plutôt qu'autonomes, de réseaux de composants électroniques plutôt que de réseaux de neurones et enfin de simulation d’empathie au lieu d'empathie artificielle. Bref, moins humaniser les termes autour de ces technologies.

Un simple choix sémantique, mais dont les conséquences ne seraient pas anodines : « Il faut réviser notre langage, car il risque d’entraîner quiproquos et confusion » ajoute-t-il. Les appellations sont déjà tellement ancrées qu'il sera désormais bien difficile d'en changer.

De l'importance de toujours distinguer l'humain et la machine

Pour le psychiatre, on devrait toujours savoir si on est en présence d’une machine ou d’un humain : « Dans les démocraties, il est nécessaire que le citoyen connaisse toujours l’origine des messages auxquels il est confronté ». Or, ce n'est pas toujours le cas aujourd'hui. Une ambiguïté sur laquelle les industriels peuvent d'ailleurs jouer.

Il donne un exemple : « Une grande banque (le Crédit Mutuel) fait répondre à ses clients par un ordinateur très sophistiqué tel que Watson sans que les appelants soient informés qu’ils ont affaire à une intelligence artificielle ». Serge Tisseron imagine alors un futur où, dans les supermarchés, seront installés des robots-caissiers face auxquels les consommateurs ne pourront pas faire la différence entre une machine et un être humain.

Ce n'est évidemment pas pour tout de suite ; il s'agit là d'un simple exercice d'anticipation sur ce que pourrait être notre avenir à plus ou moins long terme.

Intelligence artificielle
Crédits : wutwhanfoto/iStock

La délicate question de l'éthique

En filigrane se pose la question de l'éthique et de l'(im)partialité. Les débats sur ce sujet sont nombreux indique à juste titre le rapport, notamment avec l'arrivée de l'intelligence artificielle dans les voitures autonomes et dans les tribunaux. Néanmoins, pour Claude Berrou, professeur à Télécom Bretagne (Institut Mines-Télécom), chercheur et membre de l’Académie des sciences, « il semble que ces débats soient prématurés ».

En effet, selon lui « le cas typique du véhicule autonome pose certaines questions, mais pas davantage que celui d’un avion de chasse. Une machine préprogrammée, qui n’apprend pas de ses expériences, qui est non apprenante, ne présente pas plus de dangers qu’un ordinateur de bureau ».

S'agissant purement et simplement d'opérations mathématiques, il n'y a, toujours selon le professeur, pas de question déontologique ou éthique quant aux résultats. « Les questions doivent davantage se poser sur les applications » affirme-t-il. Avec une intelligence artificielle forte (capable d'avoir conscience d'elle-même par exemple), la musique ne sera certainement pas la même. Elle ne devrait néanmoins pas arriver avant plusieurs (dizaines ?) d'années.

Sans surprise, Cédric Sauviat – ingénieur et président de l’association française contre l’intelligence artificielle (AFCIA) – a une position plus alarmiste : « La seule chose qui puisse être dite est que l’on ne peut pas savoir ce que peut être l’éthique d’une super-intelligence, et peut-être qu’il est préférable de ne pas le savoir ».

Les GAFA veulent montrer patte blanche

De leur côté, les géants du Net sont sur la même longueur d'onde, comme l'explique Delphine Reyre, directrice Europe des affaires publiques de Facebook : « En termes d’éthique, Facebook est partenaire avec Microsoft, Google, IBM et Amazon du Partnership on AI ».

Pour rappel, cette organisation a été fondée par les cinq sociétés en septembre 2016, et elle a finalement été rejointe par Apple quatre mois plus tard... en tant que membre fondateur. Son ambition est de « faire avancer la compréhension du public sur l'intelligence artificielle (AI), et de définir les meilleures pratiques sur les défis et les opportunités dans ce domaine ». Un sujet sur lequel l'Europe et la France ont tout intérêt à se faire aussi entendre.

La CNIL veut de l'« humanity by design »

Par la voix de sa présidente Isabelle Falque-Pierrotin, la CNIL explique qu'elle s'intéresse évidemment à la question : « À l’automne, nous restituerons les éléments les plus saillants de ce débat éthique pour, le cas échéant, faire des recommandations de politiques publiques ».

Elle donne tout de même une piste sur la position qui pourrait être adoptée par la CNIL. Elle pourrait provenir de son article 1er « souvent oublié » selon sa présidente : « L’informatique doit être au service de chaque citoyen. Son développement doit s’opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques ». La question serait de savoir comment faire de l’« humanity by design » sur le modèle de la « privacy by design ».

Pour comprendre le nœud du problème, il est important de rappeler un point crucial des intelligences artificielles : elles nécessitent de gigantesques quantités de données pour apprendre. Ainsi, note la CNIL, « la protection des données personnelles ne semble pas aller de soi avec l’intelligence artificielle, car les principes attachés à la protection des données semblent aller à l’encontre du fonctionnement de l’intelligence artificielle ». 

En effet, plus une intelligence artificielle dispose de données, plus elle est performante... même si sur ce sujet les scientifiques ont parfois des points de vue différents. Laurent Alexandre (Doctissimo, DNA Vision), cite ainsi une étude qui aurait démontré qu’un mauvais algorithme avec beaucoup de données serait supérieur à un bon algorithme avec peu de données. Il ne donne par contre aucun détail sur les conditions des tests, impossible d'en tirer des conclusions. La réponse ne s'est pas fait attendre : « Ce n’est tout simplement pas vrai » affirme pour sa part Jean Ponce, enseignant et chercheur.

Dominique Cardon, professeur à l’Institut d’Études Politiques de Paris/Médialab, soulève un problème qui n'est pas nouveau, mais est important et mérite donc d'être signalé à nouveau : « Les données appartiennent aux grandes entreprises privées, les GAFA en particulier ». 

Les risques liés à une intelligence artificielle forte

Pour le moment, les chercheurs ne développent que des intelligences artificielles faibles en exploitant ces données, en opposition avec une IA forte qui pourrait, selon les spécialistes arriver, d'ici quelques dizaines d'années. Jean-Daniel Kant, maître de conférences à l’Université Pierre et Marie-Curie, met en garde contre une telle forme qui serait mal gérée. À ce sujet, il conseille de regarder « l’excellente, mais très déprimante série Black Mirror ». 

Il s'inquiète également des « projets de recherche et de défense que nous ne connaissons pas ». Une hypothèse qui inquiète également certains patrons des sociétés spécialisées dans les nouvelles technologies, qui militent notamment pour l'interdiction des robots tueurs, comme Bill Gates et Elon Musk pour ne citer que ces deux-là.

Pour l'AFCIA (association française contre l’intelligence artificielle), « l’émergence d’une intelligence artificielle super-intelligente, suprahumaine, ouvre nécessairement un nouveau paradigme de civilisation ». Se poserait alors une question que l'on retrouve dans de nombreux scénarios catastrophes des films de science-fiction (de Terminator à Matrix) : « l’intelligence artificielle peut-elle rester sous contrôle humain ? ».

Pour l'association farouchement opposée à son développement, « la recherche en intelligence artificielle est illégitime, inacceptable, et par conséquent appelle l’interdiction pure et simple de la recherche en intelligence artificielle, ainsi que la mise à disposition à titre commercial ou à titre gracieux de systèmes à intelligence artificielle ».

Intelligence artificielle
Crédits : t.light/iStock

Une IA faible présente aussi des risques

Mais il ne faut pas uniquement se focaliser sur une intelligence artificielle forte. Selon Serge Tisseron, une IA faible « angoisse, précisément, parce qu’elle est faible, car de ce fait, elle est manipulée constamment par son constructeur, qui remet à jour quotidiennement le système, chasse les bugs, évite les problèmes et donc les procès ». 

Jean Ponce abonde dans ce sens : « les programmes d’intelligence artificielle ne sont pas parfaits » affirme-t-il, citant en exemple le cas de l'accident mortel de la Tesla avec le pilotage automatique activé : « Il faut davantage blâmer les attentes que le résultat ». Pour rappel, le régulateur américain avait mis hors de cause Tesla dans cette affaire, vantant même le pilotage automatique.

Pour conclure, le directeur du département d'informatique de l'École normale supérieure explique qu'avec les voitures autonomes il y aura toujours « des accidents mortels, moins qu’avec la conduite humaine, mais le niveau d’acceptabilité est différent ». Le cadre juridique n'est pas encore prêt pour ces évolutions, en France comme dans le reste de l'Europe.

Preuve en est avec l'Allemagne qui vient seulement d'autoriser les expérimentations de voitures autonomes alors qu'en France le décret d'application se fait toujours attendre. « Il n’y a pas encore de cadre réglementaire ou juridique spécifique à l’intelligence artificielle, et le déploiement de la technologie avance à un rythme peut-être peu compatible avec celui du législateur » explique Patrick Albert, entrepreneur et chercheur.

Plus efficace que l'Homme... ou bête comme ses pieds

Pierre-Yves Oudeyer, directeur de recherche à Inria, résume la situation actuelle à sa manière : « La machine est meilleure que les humains, en ce qu’elle est plus précise, plus efficace ou plus rapide que l’humain dans des cas particuliers ». Il ajoute juste après que, par beaucoup d'aspects, « l’intelligence artificielle est encore très "stupide" ». 

Le chercheur donne un exemple sur la reconnaissance d'image. Si l'on prend deux photos d'un camion avec seulement quelques pixels de différence, une IA pourra parfaitement identifier un camion sur la première, mais pas sur la seconde. Et même si la détection sera exacte dans 99,5 % des cas, « les 0,5 % sont des erreurs énormes de sens commun et d’intuition, incompréhensibles pour les humains ».

Puisqu'on parle des bourdes de l'IA, Jill-Jênn Vie, chercheur à l’École normale supérieure Paris-Saclay, propose un exemple assez parlant : « Amazon avait mis en vente une série de T-shirts sur lesquels il était inscrit des formules comme « Keep calm and rape a lot » (« Restez calme et violez beaucoup ») [...] ces vêtements étant produits par une entreprise utilisant un algorithme qui créait de manière aléatoire les slogans inscrits ».

Idem pour Henri Verdier, directeur interministériel du numérique : « j’ai été frappé de constater qu’il était très facile de faire des erreurs idiotes avec des algorithmes. Par exemple, il est très simple de mettre au point un algorithme permettant de mener des contrôles fiscaux avec une efficacité de 90 % ». Le problème étant les 10 % de fraudes restants qui ne sont pas détectés et mathématiquement prédictibles.

La question est donc de savoir si les laisser de côté ne va pas empirer la situation, tout le monde pouvant s'engouffrer dans la brèche. « Il faut donc bien être sûr, lorsque l’on construit un algorithme, qu’il est totalement adapté à la politique que l’on souhaite mettre en place. Or, il est souvent très difficile d’expliciter le but profond d’une politique publique » conclut-il.

L'intuition et la connaissance générale permettent aux humains d'éviter de tomber dans ce genre de piège, ce qui n'est pas le cas d'une intelligence artificielle faible pour le moment.

H2G2 Crédits : H2G2 Le Guide du Voyageur Galactique

La place de la France par rapport au reste du monde

Une fois que l'état des lieux (plus ou moins alarmiste) est posé, voyons comment se place la France sur ce sujet, notamment face aux États-Unis. En effet, les Américains sont, « comme d’ailleurs dans la plupart des domaines scientifiques, un acteur majeur de la recherche en intelligence artificielle » indique le rapport. Il est également fait mention de la Chine qui « se trouve au cœur de l’évolution récente de ces techniques et déploie d’importants moyens pour devenir leader dans le domaine ».

Dans le cas présent, il n'est pas seulement question des GAFA qui se goinfrent de vos données personnelles, mais d'une volonté des autorités d'attirer les meilleurs scientifiques – Thierry Mandon parlait même de « piller » les centres de recherche de l'Hexagone –, de promouvoir l'innovation et de proposer « de grands programmes et laboratoires thématiques en liaison avec ses agences (NSF, NASA, DARPA, NIH, ...) ». Le député et la sénatrice de l'OPECST rappellent tout de même que, « dans tous ces domaines, les collaborations scientifiques entre la France et les États-Unis sont une réalité ».

Delphine Reyre, directrice des affaires publiques de Facebook en Europe, explique que trois laboratoires de recherche Facebook Artificial Intelligence Research (FAIR) sont ouverts dans le monde. L'un d'eux est à Paris, sous « l’impulsion » de Yann LeCun, « qui a bien voulu travailler avec Facebook ».

Elle en profite pour passer un peu de pommade aux représentants de la France en évoquant « l’excellence de l’école mathématique française » et des universités qui « sont véritablement des sources d’excellence ». Certainement une maigre consolation pour ceux qui regrettent le départ de certains chercheurs chez les GAFA.

Yves Demazeau, président de l’Association française pour l’intelligence artificielle et directeur de recherche au CNRS, est moins tendre avec nos voisins d'outre-Atlantique : « Depuis soixante ans, les États-Unis ont bien compris leur intérêt stratégique en matière d’intelligence artificielle. Créateurs de la discipline – au moins du point de vue occidental - ils nous imposent leurs vues et pillent nos forces françaises »

De son côté, Henri Verdier affirme que, « pour l’État, le premier enjeu est que notre pays ne devienne pas [...] une colonie numérique des États-Unis ». Laurent Alexandre, habitué des phrases chocs, ne mâche pas ses mots lors de son intervention durant une table ronde. Voici un extrait de sa tirade de 2 000 mots (pages 177 à 181) : « Allons-nous devenir une colonie numérique des GAFA ? Au-delà de l’État, la société civile et l’ensemble du tissu économique doivent comprendre que si nous n’avons pas de plateformes à l’échelle des Chinois et des Américains, nous serons le Zimbabwe de 2080 ! ».

Suite à cette intervention, la sénatrice Dominique Gillot lâche : « Nous sommes sans voix ! ». Toujours provocateur, Laurent Alexandre en rajoute une couche : « Je me suis pourtant retenu, aujourd’hui ! ». Comme toujours, tout le monde n'est pas en phase avec ses propos. C'est notamment le cas de Jean-Claude Heudin, directeur de l’Institut de l’Internet et du multimédia, qui veut garder espoir sur l'avenir de la France. « Je n’ai pas dit que c’était perdu ! J’ai dit que c’était « ric-rac », et qu’il y avait le feu au lac ! » ajoute M. Alexandre.

L'enseignement et la recherche en France

Jean-Claude Heudin n'en démord pas : pour lui, l'intelligence artificielle est « un atout Français ». Si Yann LeCun est effectivement parti chez Facebook, « la recherche française est de tout premier plan, des entreprises dynamiques existent ; il faut de toutes nos forces les encourager, car les enjeux sont réels ».

Il note tout de même qu'un effort est nécessaire : « Les formations de l’enseignement supérieur ménagent très peu de place à l’intelligence artificielle, ne serait-ce qu’une initiation à ses enjeux », ce qui peut conduire à des situations anxiogènes pour certains qui ne comprennent pas vraiment de quoi il retourne et peuvent donc en avoir peur.

Même son de cloche pour François Taddei, directeur du centre de recherche interdisciplinaire : « la capacité des enseignants sur l’intelligence artificielle et le numérique est très limitée ». Gilles Dowek, directeur de recherche à Inria, ajoute : « Aujourd’hui, le ministère de l’Éducation nationale ne comprend rien aux enjeux qu’il y a à former les jeunes sur l’informatique et l’intelligence artificielle ». Laurence Devillers, professeure d'informatique à Paris-Sorbonne, est du même avis : « il existe un besoin crucial de formation continue des individus sur les technologies du numérique, à tout niveau et à tout âge ». Bref, sur ce point, tout le monde semble sur la même longueur d'onde.

Cette situation concerne également le monde de la recherche. Jean-Gabriel Ganascia, professeur à l’Université Pierre et Marie Curie, affirme que les financements vont à des projets de très court terme en France. « Si les chercheurs rejoignent de grands groupes privés, c’est certes parce que les salaires y sont supérieurs, mais aussi parce que les conditions sont désastreuses dans la recherche publique : ils ont envie d’aller au bout de leurs projets, et, dans le public, cela n’est que rarement possible ».

Basile Starynkevitch, du Commissariat à l’énergie atomique (CEA), abonde : « Les projets de R&D en intelligence artificielle, parce que l’espérance de vie des start-ups est de trente ou trente-cinq mois, sont le plus souvent limités à trente-six mois. Il serait souhaitable de prévoir des durées plus longues ». Il se risque à une analogie : « S'il faut neuf mois à une femme pour faire un bébé, il ne faut pas un mois à neuf femmes pour en faire un. C’est la même chose pour les chercheurs ! ». 

« On peut ne pas respecter les lois »

La Silicon Valley aurait parfaitement compris certains points critiques dans le développement de l'intelligence artificielle. L'un d’eux : « On peut ne pas respecter les lois. Et si l’on a suffisamment d’argent, de cynisme et d’intimité avec la classe politique, on peut les changer » explique Patrick Albert.

De plus, en France, « la communauté scientifique de l’IA est morcelée en sous-communautés n’atteignant pas la taille critique qui leur permettrait d’être visibles, il existe peu d’écoles ou d’universités proposant des cursus solides dédiés à l’intelligence artificielle et, enfin, la rémunération des jeunes chercheurs est plus que modeste ». La rapporteure Dominique Gillot surenchérit : « Aux États-Unis, les décideurs ont manifestement plus d’audace, ils prennent des risques, alors que, chez nous, en politique comme ailleurs, le principe de précaution l’emporte… »

Jean-Claude Heudin pointe du doigt une autre problématique franco-française : « Nous disposons aujourd’hui d’outils de financement de la recherche, mais je tiens à insister sur la complexité des dossiers, qui représente un vrai frein à la compétitivité. On passe plus de temps à monter les dossiers et dans les contrôles que dans le travail de recherche lui-même ». Bref, il reste beaucoup de choses à améliorer dans ce domaine et peu de temps pour se lancer.

Trop nombreuses tâches
Crédits : baona /iStock

Quid des emplois ?

Avec l'intelligence artificielle, la question des emplois revient évidemment sur le tapis. Olivier Guillaume, fondateur d'O² Quant propose une analyse différente de celles que l'on entend généralement : « Tout comme l’électricité a augmenté les capacités physiques de l’homme, l’intelligence artificielle augmente de manière significative nos capacités cognitives ».

Marie-Claire Carrère-Gée, présidente du Conseil d’orientation pour l’emploi (COE), rappelle que l’histoire montre que « le progrès technologique s’est accompagné de créations d’emplois. Malgré cela, des études prédisent une catastrophe à un horizon proche ». Généralement, elles s'intéressent uniquement à la destruction d'emplois, pas à la création.

La présidente du conseil tente de faire le point : « moins de 10 % des emplois cumulent des vulnérabilités telles que, dans un contexte d’automatisation, leur maintien serait menacé [...] Ensuite, la moitié des emplois seront profondément transformés, à plus ou moins brève échéance ».

Jean-Daniel Kant, maître de conférences à l’Université Pierre et Marie Curie, y va lui aussi de son analyse : « Les observations ne donnent aucun résultat clair. Ce sont, disent certains, les emplois peu qualifiés qui seront touchés ; d’autres leur rétorquent que ce sont plutôt les emplois intermédiaires qui sont menacés par l’automatisation, ce que semble confirmer l’exemple californien ». Dans tous les cas, et en l’absence d’une IA forte, il faudra toujours des gens pour entretenir les jardins, garder les enfants ou faire le ménage explique-t-il.

Faut-il avoir peur des robots ?

« Il est aujourd’hui plus urgent de réfléchir à ces enjeux de souveraineté, à ces enjeux économiques, scolaires et de formation, que de fantasmer sur une intelligence artificielle forte qui, comme le dit très bien Yann LeCun, ne permet pas d’envisager un scénario à la Terminator avant 2035 » conclut Alexandre Laurent lors de son discours.

Inutile de s'inquiéter également pour Jean Ponce. « Je comprends qu’un robot humanoïde comme Atlas fasse peur, il est costaud. C’est une merveilleuse innovation technologique mais cela reste quasiment un gros jouet télécommandé ». Boston Dynamics devrait apprécier la comparaison. 

Quinze propositions autour de l'intelligence artificielle

Pour finir, le député et la sénatrice ont publié une liste de quinze recommandations. C'est maintenant au nouveau Président et aux futurs parlementaires de s'en saisir :

Pour une intelligence artificielle maîtrisée :

  • Se garder d’une contrainte juridique trop forte sur la recherche en intelligence artificielle, qui – en tout état de cause – gagnerait à être, autant que possible, européenne, voire internationale, plutôt que nationale
  • Favoriser des algorithmes et des robots sûrs, transparents et justes, et prévoir une charte de l’intelligence artificielle et de la robotique
  • Former à l’éthique de l’intelligence artificielle et de la robotique dans certains cursus spécialisés de l’enseignement supérieur
  • Confier à un institut national de l’éthique de l’intelligence artificielle et de la robotique un rôle d’animation du débat public sur les principes qui doivent encadrer ces technologies
  • Accompagner les transformations du marché du travail sous l’effet de l’intelligence artificielle et de la robotique en menant une politique de formation continue ambitieuse visant à s’adapter aux exigences de requalification et d’amélioration des compétences

Pour une intelligence artificielle utile, au service de l’homme et des valeurs humanistes :

  • Redonner une place essentielle à la recherche fondamentale et revaloriser la place de la recherche publique par rapport à la recherche privée tout en encourageant leur coopération
  • Encourager la constitution de champions européens en intelligence artificielle et en robotique.
  • Orienter les investissements dans la recherche en intelligence artificielle vers l’utilité sociale des découvertes.
  • Élargir l’offre de cursus et de modules de formation aux technologies d’intelligence artificielle dans l’enseignement supérieur et créer – en France – au moins un pôle d’excellence international et interdisciplinaire en intelligence artificielle et en robotique.
  • Structurer et mobiliser la communauté française de la recherche en intelligence artificielle en organisant davantage de concours primés à dimension nationale, destinés à dynamiser la recherche en intelligence artificielle, par exemple autour du traitement de grandes bases de données nationales labellisées.
  • Assurer une meilleure prise en compte de la diversité et de la place des femmes dans la recherche en intelligence artificielle.

Pour une intelligence artificielle démystifiée :

  • Organiser des formations à l’informatique dans l’enseignement primaire et secondaire faisant une place à l’intelligence artificielle et à la robotique.
  • Former et sensibiliser le grand public à l’intelligence artificielle par des campagnes de communication, l’organisation d’un salon international de l’intelligence artificielle et de la robotique et la diffusion d’émissions de télévision pédagogiques.
  • Former et sensibiliser le grand public aux conséquences pratiques de l’intelligence artificielle et de la robotisation.
  • Être vigilant sur les usages spectaculaires et alarmistes du concept d’intelligence artificielle et de représentations des robots.

chargement
Chargement des commentaires...