Un député LREM veut faire référence aux lois d’Asimov dans la Constitution

Un député LREM veut faire référence aux lois d’Asimov dans la Constitution

Goldorak, go !

Avatar de l'auteur
Marc Rees

Publié dans

Droit

16/01/2020 4 minutes
48

Un député LREM veut faire référence aux lois d’Asimov dans la Constitution

Le député Pierre-Alain Raphan (LREM) veut faire inscrire dans le préambule de la Constitution la référence à la « Charte de l’Intelligence Artificielle et des algorithmes de 2020 » déposée à l'occasion d’une proposition de loi constitutionnelle. Le texte, diffusé par Next INpact, reprend les lois d’Asimov sur la robotique. 

Inscrire l’IA dans la Constitution de la Ve République. Voilà le cœur de la proposition de loi déposée par l’élu, articulée autour de deux dispositions. La première consacre cette inscription, la seconde dévoile une charte qui servirait de référence. 

Le député tente à ce titre une définition de l’IA, à savoir « un algorithme évolutif dans sa structure, apprenant, au regard de sa rédaction initiale ». Il n’entend pas reconnaître de personnalité juridique à cet amas d’instructions informatiques, mais compte bien faire découler des obligations sur les épaules de « la personne morale ou physique qui héberge ou distribue le dit système », considérée comme son représentant juridique. 

Concrètement, sa charte sur l'IA affirme qu’un système (robot ou algorithme) :  

  • Ne peut porter atteinte à un être ou un groupe d’êtres humains, ni, en restant passif, permettre qu'un être ou un groupe d’êtres humains soit exposé au danger ;
  • Doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec le point précédent ;
  • Doit protéger son existence tant que cette protection n'entre pas en conflit avec les deux points précédents.

Des références qui s’inspirent à plein nez des trois lois d’Asimov, à savoir que :

  • Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger
  • Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi
  • Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi

Selon l'auteur de la proposition, ce système devrait aussi être conçu « pour satisfaire la mise en application pleinement effective des articles composant la Déclaration Universelle des Droits de l’Homme du 10 décembre 1948 ». L'hébergeur ou l'émetteur devrait de même respecter plusieurs contraintes, comme assurer des audits réguliers « dont la fréquence de mise en œuvre [serait] basée sur celle d’évolution vers une autonomie décisionnelle du ou des algorithme(s) composant le système ». 

Prévenir un retard irrattrapable

« Le Législateur doit se saisir de ces questions majeures et de leurs enjeux potentiels » insiste le parlementaire dans l’exposé des motifs. « Cette loi a pour ambition de prévenir un retard irrattrapable dû à des outils créés par quelques individus mais impactant le plus grand nombre ».

Estimant que « les avancées sont tellement intégrées à notre quotidien de citoyen qu’elles ne permettent plus d’imaginer de vivre sans elles », les citoyens sont en passe aujourd’hui de devenir « des êtres humains assistés ou augmentés sans avoir exprimé un choix éclairé ». 

La PPL aurait surtout pour ambition d'alerter chaque citoyen : « au même titre que les virus s’intègrent au long cours au patrimoine génétique des Humains, les technologies du quotidien entrent de fait dans les réflexions. Or après l’ignorance, la plupart de nos réactions confinent au dédain l’analyse des avancées technologiques. Cette loi vise donc à interpeller tout un chacun quant à son rôle et sa responsabilité, ses droits et ses devoirs, pour être acteur et garant de ses libertés. » 

En conclusion, indique-t-il, « se positionner sur les algorithmes, revient à protéger les Droits de l’Homme dans leur ensemble. Il y a des choix qui sont irréversibles et aujourd’hui dans cette Assemblée, nous sommes à l’aube de l’un d’entre eux ».

Écrit par Marc Rees

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Prévenir un retard irrattrapable

Fermer

Commentaires (48)


Et la loi Zéro, alors ? Il n’a pas lu tous les romans le député ? ;)

“Un robot ne peut pas porter atteinte à l’humanité, ni, par son inaction, permettre que l’humanité soit exposée au danger”


Encore un qui n’a pas compris que globalement, l’idée des romans est de démonter ces lois, dans la pratique.



On n’a pas mieux aujourd’hui, mais elles sont loin d’être suffisantes.








Ler van keeg a écrit :



Encore un qui n’a pas compris que globalement, l’idée des romans est de démonter ces lois, dans la pratique.



On n’a pas mieux aujourd’hui, mais elles sont loin d’être suffisantes.





+1



Comme les dix commandements.<img data-src=" />


Il n’a pas du aller jusqu’à la fin des romans …


Ca serait toujours mieux que suivre les “lois” de 1984, comme le gouvernement le fait actuellement <img data-src=" />


Cela passera jamais ainsi, c’est toute l’industrie militaire qui serait mis de coté, notamment celles des drones autonomes…


Du coup, les IA qui font du high-frequency trading, elles seraient forcées de se rendre inactives, pour « ne pas porter atteinte à un être ou un groupe d’êtres humains » ?


Et ça pose pas un petit souci de droits d’auteur sa petite blague financée par nos impôts ?


Les lois d’Asimov sont au nombre de quatre. Extrait de&nbsp;Social and juristic challenges of artificial intelligence,&nbsp;Matjaž Perc, Mahmut Ozer & Janja Hojnik, Palgrave Communications:



Later on, Asimov added the fourth law, which states that a robot may not harm humanity, or, by inaction, allow humanity to come to harm. But this does not cover social dilemmas, or situations, where the machine inevitably has to select between two evils. Recently, Nagler et al. (2019) proposed an extension of these laws, precisely for a world where artificial intelligence will decide about increasingly many issues, including life and death, thus inevitably facing ethical dilemmas. In a nutshell, since all humans are to be judged equally, when an ethical dilemma is met, let the chance decide.








setaou2 a écrit :



Et la loi Zéro, alors ? Il n’a pas lu tous les romans le député ? ;)

“Un robot ne peut pas porter atteinte à l’humanité, ni, par son inaction, permettre que l’humanité soit exposée au danger”



Vu que la loi proposée prend en compte les groupes d’humains et que l’humanité est juste le plus grand groupe d’humain possible, ça marche aussi.



Par contre on est juste dans l’impossibilité totale de faire

appliquer ce genre de règles aux IA actuelles qui ne sont pas assez

généralistes pour prendre en compte ce genre de considération.



Ce n’est pas un copier-coller non plus, elles ont été reformulées. Et il n’est pas possible de protéger des idées, des concepts, seulement les mises en application (livre…).


A noter, si j’ai bien compris la niouze,, que cette proposition de loi les gens qui contrôlent les IA, pas les IA elles-mêmes…


Ou bien sinon on pourrait juste considérer qu’une IA est un outil, et que son utilisateur est soumis aux lois usuelles. Par exemple si je tue quelqu’un via une IA, je suis un meurtrier/assassin/homicideur involontaire selon le contexte… Nul besoin d’ajouter une loi n°1.

Fascinant cette manie de vouloir rajouter des lois spécifiques dès qu’un sujet fait la une. Pour un peu on croirait que certains veulent juste se faire mousser.


Pas besoin de lire quoi que ce soit pour qu’un problème se pose: qu’est-ce qu’un système, dans sa loi?

bref, qu’est-ce qu’une IA?

A partir de quoi décide-t-on que la voiture autonome n’a plus un problème d’algorithme mais un problème d’IA? (au sens de cette loi)





  • du coup, la loi zéro n’a aucun sens à notre époque. Quand on voit que les machines à voter sont bannies, alors voir un jour une IA aux commande d’un truc dangereux pour l’humanité… c’est pas pour demain.


+1, tu résumes ma pensée.


+1, ça fait parti du bluff surement <img data-src=" />



Sinon je vois bien un contournement du genre:





  • Mais non, t’inquiète pas robot, ce ne sont pas des humains mais des signaux visuels, sonores et thermiques, regarde.

  • Ok continu le massacre



    (-Hahaha, ils l’ont bien cherché ces cons, des siècles de philosophie, d’intelligence et de psychologie sans être foutu de se définir…)


C’est comme pour les sites porno : “y’a qu’a faut qu’on”

il te balance une obligation de moyen sans la moindre once d’un début de solution en accompagnement.



Si ça passe je souhaite bien du courage aux entreprises qui se lanceront dans l’IA pour déterminer et implémenter les concept d’humain, de nuisance de ces dis humains ou encore l’auto-protection, tous ses concpet ayant l’air relativement simple (et encore), en les combinant on fait face à une notion de porté des décisions qu’il va falloir arbitrarement limiter et fatalement les lois ne pourront plus être respecter.



Bref encore une fois un truc bien bancale, même si ça par surement d’une bonne intention.


Chômage, Insécurité, Retraitres… Heureusement, les députés, avec le sens des priorités ont le temps de s’occuper des sujets importants.


Tiens, encore un député LREM qui brasse du vent.

Je suis sûr que la majorité pourrait subvenir aux besoins électrique d’une commune de 10.000 habitants si on les mettait face à des éoliennes. Ils y seraient bien plus efficient qu’à l’Assemblée :)


Je trouve qu’on le critique beaucoup le monsieur LREM, mais en attendant, il a raison de vouloir mettre ça en avant. Et même si ce n’est pas parfait, au moins ça permet de faire progresser le dialogue autour de ce sujet.



Faudrait pas attendre que Skynet soit en ligne pour vouloir changer les règles du jeu.


Pour Skynet, t’inquiètes pas, je suis dessus. <img data-src=" />

Le proto est déployé et en cours de validation. <img data-src=" />


mouih, enfin ça dépend ce que tu entend par “démonter”

si c’est pour leur intérêt, quand on les lit elles sont pourtant “logiques” et nécessaires

mais c’est leur interprétation (et surtout les biais dans les définitions) qui pose problème et qui est à la base de chacune des histoires



j’apprécie notamment les aventures de Grégory Powel et Mike Donovan, qui sont toujours envoyés sur des cas improbables avec comme consigne de réparer XD

faudrait que je relise tout ça d’ailleurs, ça doit bien faire 20 ans oO



le problème immédiat avec les formulations de la charte, c’est les capacités de ce qu’on appelle IA aujourd’hui : extrêmement limité / spécialisées

je pense qu’aucune n’a de notion “d’être humain”, alors pour identifier un “danger” c’est pas gagné.



je pense que là on est pile dans la nouvelle d’Assimov (j’ai plus le titre en tête) où Grégory et Mike sont envoyés sur je sais plus quelle station spatiale/ satellite qui est un générateur qui envoie de l’énergie (à la terre ? me souvient plus trop) et dont les robots ont créé une espèce de religion autour de leur générateur. les robots n’identifient pas Grégory et Mike comme des humains donc ignorent royalement leurs directives, mais comme ils suivent l’état du générateur les robots corrigent correctement le problème qui risquait de carboniser la terre, ignorant totalement l’humanité pour le coup, la sauvant par effet de bord, plutôt que par volonté


Cadeau <img data-src=" />


haha, exactement, bien joué

tu connaissais le nom et t’as trouvé l’article pour fournir un lien, ou t’as décortiqué mon explication et fait des recherches à partir de là ?



edit, j’avais oublié le coup du “on dit rien au tech’ qui vient d’arriver” XD


J’ai fait une recherche sur : nouvelle asimov gregory mike

Et le hasard a voulu que le premier résultat était le bon. <img data-src=" />


L’IA n’est jamais qu’une copie fonctionnelle et sous d’autres modalités pratiques de nos pensées.

Le risque de perte de maîtrise apparaît seulement si ces programmes très pointus sont mis en réseau et peuvent se positionner individuellement vis-à-vis de celui-ci.

Là on pourrait parler d’espèce singulière et non plus seulement d’un de ses attributs sur le mode du “cerveau artificiel”.



Quant aux algorithmes c’est la distribution du programme qui est en cause, non son résultat. Il faudrait donc choisir sans emphase au nom de quel statut appliquer une sanction.


Si on se fie à la définition donnée par le député :



Un algorithme évolutif dans sa structure, apprenant, au regard de sa rédaction initiale



Nul besoin d’un utilisateur à proprement parler.


Il y a forcément quelqu’un qui a lancé l’exécution de cet algorithme. C’est lui que j’appelle utilisateur.


Utilisateur : IA, trouve le moyen de réduire la pollution dans le monde.

IA : La pollution est provoquée par les humains, lancement du programme de nettoyage…


d’où l’émergence de la loi zéro d’Assimov


pas trop compris l’utilité de cette loi sachant que la 1ere est suffisante.


Elle permet au robot de violer la 1ère loi pour “sauver” l’humanité.



ah oui dans ce sens ça s’explique, merci. :)


c’est pas trop une “utilité” de cette loi, elle est apparue plus tard en tant que dérive et est visible dans le film “I robot” (qui est plus un mix de plusieurs nouvelles réarangées à la sauce hollywood qu’une adaptation d’une des nouvelles (et encore moins de celle dont le titre est tiré), j’aime bien will smith, j’aime bien l’univers et un certain nombre de choses dans ce film, mais le nom (entre autres, susan calvin pas du tout fidèle aux nouvelles) me hérisse au plus haut poil)



elle apparaît comme extrapolation de la loi 1, mais ne peut pas fonctionner pour un robot au champ d’action / connaissances limitées, elle ne peut fonctionner qu’avec une entité omnisciente ou pas loin


(…)

Juge: Utilisateur, 30 ans de prison pour avoir programmé une IA qui tue les gens



Je ne dis pas que la règle 1 est mauvaise, juste qu’elle découle naturellement du fait de considérer que les utilisateurs sont responsables des outils qu’ils utilisent. Par exemple, on n’a pas eu besoin de faire une loi n° pour les fusils, imposant à leurs utilisateurs ne pas faire en sorte que leur fusil tuent des êtres humains: c’est implicitement contenu dans la notion de meurtre.

Mon opinion est que le fait que l’utilisateur tue les humains avec une IA ou avec un fusil n’a qu’une importance très marginale.



Là où je reconnais être un peu de mauvaise foi c’est sur la composante ‘restant passif, permettre qu’un être humain soit exposé au danger’, qui semble aller bien au-delà de la simple non-assistance à personne en danger.

Là ma critique est que c’est totalement liberticide (laisser manger du gras? danger de cholestérol! piscine? danger de noyade!), en plus d’être difficilement applicable (que considérera-t-on comme étant une passivité coupable, sachant que dans les millions de cas, la passivité sera expliquée par le fait que l’IA n’était pas capable de savoir qu’il y avait danger? cette loi est pensée pour un robot humanoïde dont les moyens de perception sont similaires à ceux d’un humain)


Je me rappelle plus, y a-t-il une nouvelle pre-loi 0 qui traite du problème de trolley?

Parce que quelque part, cette notion de loi 0 n’en est qu’une généralisation, avec le même problème de savoir comment on pondère les différents critères pour juger de ce qui est bon pour l’humanité ou non (problème que fondation esquive piteusement en partant du principe que le blob est la quintessence de l’humanité, ce que je trouve assez critiquable…)


<img data-src=" /><img data-src=" />






<img data-src=" />








resa87 a écrit :



<img data-src=" /><img data-src=" />





<img data-src=" />









Tandhruil a écrit :



Si on se fie à la définition donnée par le député :



Un algorithme évolutif dans sa structure, apprenant, au regard de sa rédaction initiale










On est bien d’accord que cette définition correspond à un fantasme qui n’existe pas (encore) ?



boarf, je suis pas forcément d’accord avec le “esquive piteusement” (mais je le suis avec le reste du message et le précédent)



en analysant (maintenant et avec mes souvenirs d’il y a probablement plus de 20 que j’ai lu les bouquins) je me dit que c’est pas une esquive, car c’est pas le centre de la reflexion.

&nbsp;

la reflexion n’est pas tant de savoir “comment identifer ce qui est bon pour l’humanité”, mais “si on savait ce qui est bon pour l’humanité”, ce que fait je ne sais plus quelle entité qui “développe” la loi zéro, comment y arriver.

ça c’est le point de départ, on admet qu’une entité à identifié un état ultime et peut nous y guider. est-ce pour autant une raison pour bafouer le reste, ou comment choisir la route (longue, mais en pente douce et tout le monde survit, ou courte, mais c’est une falaise à pic et y’aura des pertes voire des sacrifices en chemin (les libertés individuelles)) ?

je pense que l’intérêt des romans ou des nouvelles est plus sur ce point que sur le “comment juger ce qui est bon pour l’humanité en général”


Et le reste du monde, il fait quoi avec ses robots ?


Le mot “robot” a été remplacé par “système”<img data-src=" />


Du coup, faut faire monter la radioactivité de la Terre pour favoriser SpaceX et la conquête de la galaxie par les américains l’humanité ?


Hello Marc,



je ne sais pas si la transcription est de vous mais elle comporte une erreur (tout un chacun) :



Cette loi vise donc à interpeller tout à chacun quant à son rôle…


C’est le robot humanoïde Daneel R. Olivaw de mémoire qui développe la loi 0 dans le cycle de fondation. Quand il l’explique à son comparse robot non humanoïde Giskard R. Rventlov, ce dernier crame son cerveau sur place tellement le concept devient abstrait pour son cerveau positronique « de base »