Plus de 2 300 personnes (dont près de 900 chercheurs sur la robotique et l'intelligence artificielle) ont signé les « 23 principes d'Asilomar ». Des règles de base qui devraient selon eux être appliquées pour le développement de l'IA qui promet d'être un bouleversement important. La question est toujours la même : faut-il en avoir peur ?
Future of Life Institute (FLI) est une association basée dans la région de Boston qui s'est fixé une mission : « Catalyser et appuyer la recherche et les initiatives visant à sauvegarder la vie et à développer des visions optimistes du futur ». On y retrouve des membres de renom comme Stephen Hawking, Morgan Freeman et Elon Musk pour ne citer qu'eux.
Avec l'IA, « un changement majeur est à venir »
Au début du mois de janvier, FLI avait organisé une grande rencontre – Beneficial AI – autour d'un sujet d'actualité : l'intelligence artificielle. Elle s'est déroulée pendant plusieurs jours à Asilomar, au sud de San Francisco en Californie. Il en ressort, et ce n'est pas une surprise, qu'« un changement majeur est à venir, sur une échelle de temps inconnue, mais sur tous les segments de la société ».
De petits groupes ont ainsi travaillé sur des « idées » afin d'encadrer le développement des IA. Celles-ci ont ensuite été présentées à l'ensemble des participants pour un vote. Si au moins 90% des participants étaient d'accord avec le concept présenté, il était alors adopté. Il en ressort « une liste de 23 principes » qui « n'est en aucun cas exhaustive et est certainement ouverte à des interprétations divergentes » explique FIL. De quoi établir une version moderne des trois lois de la robotique d'Asimov ?
Néanmoins, et c'est tout aussi intéressant, l'organisation explique que cette liste « met en avant le fait que le comportement "par défaut" actuel autour de nombreux sujets pourrait enfreindre des principes qui sont pourtant importants pour la plupart des participants ». Avec cette publication, Future of Life Institute espère ainsi ouvrir le dialogue sur le sujet.
23 principes sur la recherche, l'éthique et l'anticipation
Voici sans plus attendre la liste que l'on présente parfois comme les « 23 principes d'Asilomar » :
La recherche :
- Objectif de la recherche : le but visé n'est pas de créer une IA incontrôlable, mais une IA « bénéfique »
- Investissements : les investissements devraient être accompagnés de garanties sur un usage « bénéfique » de l'IA. Ce point se décompose en quatre sous-parties :
- Comment pouvons-nous rendre les IA très robustes, afin qu'elles fassent ce que nous voulons sans dysfonctionnement ou sans piratage ?
- Comment pouvons-nous accroître notre prospérité grâce à l'automatisation, tout en maintenant les ressources des hommes ?
- Comment pouvons-nous adapter nos systèmes juridiques pour être plus équitables et plus efficaces afin de gérer les risques associés aux IA ?
- Quelles devraient être les valeurs , statuts juridique et éthique des IA ?
- Relations entre scientifiques, décideurs et législateurs : il devrait toujours y avoir un échange constructif et sain
- Culture de la recherche : encourager une culture de la coopération, de la confiance et de la transparence
- Prévention : encourager la coopération afin d'éviter une course qui pourrait conduire à des erreurs à vouloir aller trop vite
Les questions éthiques :
- Sécurité : les IA devraient être sécurisées et vérifiables durant toute leur vie opérationnelle
- Transparence de panne : en cas de problème, il devrait être possible d'en déterminer la cause
- Transparence judiciaire : en cas de décision judiciaire prise par une IA, un audit doit être possible par un humain
- Responsabilité : concepteurs et constructeurs d'IA devraient être responsables des conséquences morales
- Alignement des valeurs : le comportement des IA devrait être conforme aux valeurs humaines
- Valeurs humaines : respecter les idéaux de la dignité humaine, les droits les libertés et la diversité culturelle
- Données personnelles : tout le monde devrait pouvoir accéder, gérer et contrôler ses données personnelles
- Liberté et vie privée : une IA sur des données personnelles ne doit pas restreindre la liberté réelle ou perçue des personnes
- Bénéfices partagés : les bénéfices des IA devraient toucher autant de personnes que possible
- Prospérité partagée : la prospérité économique devrait bénéficier à toute l'humanité
- Contrôle humain : les humains devraient choisir s'ils veulent ou non déléguer des tâches ou des décisions aux IA
- Anti-subversion : contrôler les pouvoirs conférés à la personne qui contrôle des intelligences artificielles
- Course à l'armement : une course vers les armes autonomes devrait être évitée
Les questions à plus long terme :
- Attention aux capacités des IA : s'il n'y a pas de consensus, il est conseillé d'éviter de faire des hypothèses sur les limites futures des IA
- Une avancée importante : les IA fortes pourraient être le vecteur d'un important changement dans l’histoire de la vie sur Terre
- Prévisions des risques : les risques susceptibles d'être causés doivent faire l'objet de planifications afin d'atténuer les risques de manière proportionnée à leur impact
- Développement autonome : les IA conçues pour s'améliorer ou se répliquer automatiquement doivent faire l’objet de contrôles de sécurité rigoureux
- Bien commun : les super IA ne doivent être développées que pour des idéaux éthiques partagés par une large majorité et pour le bien de l'humanité. De plus, elles ne devraient donc pas être destinées à un État ou une organisation
La longue liste des signatures : employés des GAFAM, universitaires, scientifiques...
Des règles de bon sens (même si certaines sont assez simplistes) et qui ont recueilli l'aval de nombreux spécialistes et scientifiques. En effet, plus de 2 350 personnes ont actuellement signé cette charte, parmi lesquels nous retrouvons Stephen Hawking, Elon Musk, Jaan Tallinn (cofondateur de Skype), Sam Altman (OpenIA et Y Combinator), Gill Pratt (PDG de Toyota Research Institute), Demis Hassabis (DeepMind/Google), Ilya Sutskever (OpenIA) et Yann LeCun (Facebook).
Pêle-mêle, figurent dans cette liste des chercheurs provenant d'Apple, Facebook, Google, IBM, Microsoft, Tesla, des universitaires, des professeurs de renom, des gens du CNRS, du CEA et de la NASA, ainsi qu'une multitude d'autres personnes. Bref du beau monde venus de tous les horizons.
IA forte : pour le moment, « on n’a absolument aucune idée de comment la faire »
Si certains applaudissent cette initiative, d'autres la trouveront certainement superficielle avec certaines règles qui enfoncent des portes ouvertes, ou qui restent assez absconses. De plus, il est encore trop tôt pour savoir de quoi sera exactement capable une intelligence artificielle forte (c'est-à-dire une IA qui peut penser et avoir conscience d'elle-même).
Pour Yann LeCun, interrogé par nos confrères de France Culture, on est « très loin » de faire une telle IA pour le moment et, plus embêtant, « on n’a absolument aucune idée de comment la faire ». Impossible donc de savoir à quel point il faudra fixer des règles, des limites et surtout s'inquiéter de ses possibilités et de ses « désirs ». Les films de science-fiction regorgent d'idées en tous genres sur le sujet.
Pour le moment, « personne au monde ne peut dire si l'intelligence artificielle peut dépasser l'intelligence humaine et devenir hostile, c'est un débat entre spécialistes » affirmait récemment le spécialiste Laurent Alexandre. Une seule certitude pour l'instant, il faut envisager toutes les possibilités.
Quid du complexe de Frankenstein ?
Parmi les signataires de ce guide, plusieurs considèrent que les robots peuvent devenir une grave menace pour l'humanité. Dans un entretien avec la BBC, Stephen Hawking expliquait que « les formes primitives d'intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d'une intelligence artificielle complète pourrait mettre fin à la race humaine ». En 2014, Elon Musk tirait lui aussi la sonnette d'alarme : « Avec l’intelligence artificielle, nous invoquons le démon. Vous savez, ces histoires où vous avez un homme avec un pentagramme, et l’eau bénite, et il fait comme s’il pouvait contrôler le démon ? Ça ne fonctionne jamais »... Ambiance.
Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes.
— Elon Musk (@elonmusk) 3 août 2014
Cette peur porte un nom que l'on retrouve dans la littérature d'Asimov : le complexe (ou parfois syndrome) de Frankenstein. Cette référence puise son inspiration dans le roman éponyme d'un savant fou qui « assemble » une créature à partir de chairs mortes et lui donne la vie. Abandonné par son créateur, le « monstre » doté d'une intelligence va décider de se venger. Le parallèle avec les machines et une IA forte est donc assez facile à établir.
23 principes contre trois lois
Le complexe de Frankenstein est par contre battu en brèche par le célèbre auteur de science-fiction Isaac Asimov en personne. Pour ce dernier, il ne faut pas avoir peur du futur et des machines, une idée qu'il développe à loisir dans ses récits.
Pour rappel, il est certainement aussi connu pour ses romans que pour ses trois lois de la robotique :
- Première loi : un robot ne peut porter atteinte à un être humain ni, en restant passif, permettre qu'un être humain soit exposé au danger ;
- Deuxième loi : un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
- Troisième loi : un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.
Elles ne sont évidemment pas parfaites, loin de là. Afin de tenter d'améliorer les choses, Asimov ajoutera une quatrième règle, baptisée loi zéro car elle se place avant les trois autres : « Un robot ne peut pas porter atteinte à l'humanité ni, par son inaction, permettre que l'humanité soit exposée au danger ». Le but est de protéger l'espèce plutôt que l'individu si besoin.
D'une certaine manière, les 23 principes d'Asilomar ne sont donc pas sans rappeler les trois règles d'Asimov.
Pour le moment, le plus gros danger de l'intelligence artificielle c'est... l'homme
Quoi qu'il en soit, le problème ne doit pas uniquement être regardé par la lorgnette des machines. Comme il est coutume de le dire, « l'homme est un loup pour l'homme ». Alors certes la citation originale était un peu plus longue – elle se terminait par « quand on ne sait pas qui il est » – mais l'analogie reste intéressante et aujourd'hui plus que jamais, elle est toujours d'actualité. Pour résumer, l'homme est son pire ennemi et l'IA ne va rien y changer, au contraire.
Yann Ollivier, chercheur au CNRS, en donnait une vision moderne de cette maxime il y a quelques mois : « si l'intelligence artificielle devient hostile avec les capacités qu'on a aujourd'hui, c'est parce que quelqu'un aura fabriqué une intelligence artificielle hostile, volontairement ».
L'intelligence artificielle, un sujet d'actualité qui intéresse de plus en plus
Quoi qu'il en soit, et au-delà de la signature de ce guide qui n'engage finalement que ceux qui y croient, il faudra voir comment cela se déroulera dans la pratique. Entre les belles promesses des uns et la réalité du terrain, il y a souvent un fossé. Idem pour le monde de la recherche académique et celui des sociétés côtés en bourse (ou pas d'ailleurs).
Pour rappel, plusieurs organisations se sont déjà mises en place, notamment avec OpenAI et Partnership on AI que Apple vient de rejoindre en tant que membre fondateur... quatre mois après son lancement (voir cette actualité). Dans l'Hexagone, le gouvernement a lancé son projet France IA et tente de fédérer les acteurs du secteur, notamment pour éviter une fuite trop importante des cerveaux à l'étranger.
En Europe, le Parlement européen se prépare à adopter un projet de loi en matière de droit des robots, aussi bien sur les conséquences qu'ils peuvent avoir sur le plan social que juridique. Une partie de ce projet n'est d'ailleurs pas sans rappeler certains des 23 principes dont il est ici question.
Bref, la guerre de l'intelligence artificielle ne fait que commencer...