Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !

Reconnaître une personnalité juridique aux robots, « un risque moral inacceptable »

Ja tvoi sluga, ja tvoi rabotnik
Droit 3 min
Reconnaître une personnalité juridique aux robots, « un risque moral inacceptable »
Crédits : iLexx/iStock

Dans un avis d’initiative portant sur l’intelligence artificielle et ses retombées pour le marché unique, la production, la consommation, l’emploi et la société, le Comité économique et social européen s’oppose à accorder la moindre personnalité juridique aux robots.

Le Comité économique et social européen (ou CESE) est un organe consultatif de l'Union européenne. Composé de « représentants d'organisations de travailleurs et d’employeurs et d’autres groupes d’intérêts » a pour mission notamment de « veiller à ce que la politique et la législation de l'UE soient adaptées à la situation économique et sociale en recherchant un consensus favorable à l'intérêt général. »

Dans un avis publié sur l’IA et sur lequel nous reviendrons plus longuement, le CESE s’est penché sur une question épineuse. Celle de la possibilité d’accorder, ou non, la personnalité juridique aux robots. Dire qu’une entité dispose d’une telle capacité, c’est lui reconnaître des droits et des obligations. Des obligations : indemniser les personnes qui du fait d’un robot, auraient subi un préjudice matériel, corporel ou encore relatif à une violation de la vie privée. Des droits : percevoir une réparation, en cas d’atteinte à l’intégrité de cet amas de tôles et de circuits imprimés.

Un rapport du Parlement européen milite pour une telle reconnaissance

Le 16 février 2017, un rapport d’initiative avait été adopté en ce sens au Parlement européen. Parmi les pistes suggérées, il imaginait la création d’une telle personnalité juridique spécifique aux robots. « Il s’agirait du même principe que celui dont nous disposons actuellement pour les entreprises » exprimait alors la rapporteure Mady Delvaux, eurodéputée S&D.

Très en phase avec la proposition de Me Alain Bensoussan, le texte demandait particulièrement à la Commission européenne, dans le cadre d’une future étude d’impact, « la création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers ; il serait envisageable de conférer la personnalité électronique à tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers ».

Abus, risque moral et autres effets collatéraux

L’analyse du CESE est aux antipodes. Le comité « s’oppose à la mise en place d’une forme de personnalité juridique pour les robots ou l’IA » expose-t-il dans son avis. Et celui-ci d’expliquer pourquoi : « Les effets correctifs préventifs du droit de la responsabilité civile s’en trouveraient en effet vidés de leur substance. De plus, cela créerait des possibilités d’abus de même qu’un risque moral au niveau tant du développement que de l’utilisation de l’IA ».

Il épingle même un « risque moral inacceptable inhérent à une telle démarche » puisque selon lui, avec une telle réforme, « le fabricant n’assumera plus le risque de responsabilité, celui-ci ayant été transféré au robot (ou au système d’IA) ». Et ce n’est pas tout, « le risque d’utilisation impropre et d’abus d’une telle forme juridique existe » (voir sur ce sujet, notre intervention au GEM Digital Day 2016, à Grenoble).

En clair, reconnaître une personnalité juridique à ces systèmes aussi automatisés qu’autonomes entraînerait mécaniquement une déresponsabilisation des concepteurs de ces systèmes. Plutôt que le grand saut, le CESE juge plus opportun d’analyser la législation en cours et d’en combler les éventuelles lacunes. En juin 2016, le comité STOA (Science and Technology Options Assessment) au Parlement européen avait d'ailleurs identifié six domaines (transports, systèmes de double utilisation, libertés civiles, sécurité, santé et énergie) où les développements de la robotique et de l’IA pourraient exiger de telles révisions.

Autre piste, le souhait d’une réglementation mondiale, « étant donné qu’une réglementation régionale ne suffira pas et aura même des effets indésirables ». En creux, se dessine le risque de protectionnisme, ou de forum shopping qui consiste à élire une législation plus favorable aux intérêts des concepteurs. Sur ce point, le Comité demande à l’UE « de jouer un rôle moteur dans l’établissement de cadres stratégiques clairs et universels en matière d’IA et de stimuler ce processus au niveau mondial ». 

45 commentaires
Avatar de tpeg5stan Abonné
Avatar de tpeg5stantpeg5stan- 06/06/17 à 07:40:57

je veux pas engager un débat ou quoi que ce soit mais...

je suis le seul à découvrir l'existence du CESE ?:transpi:

Sinon, leur avis est assez intéressant, oui.

Avatar de bloossom Abonné
Avatar de bloossombloossom- 06/06/17 à 07:53:25

J'ai le sentiment qu'on a d'un côté des gens qui se posent des questions et essaient d'anticiper un peu les défis juridiques à venir, et de l'autre des gens qui n'ont pas envie ne serait-ce que d'entrer en matière sur l'examen de la question.

Qu'on le veuille ou non à un moment donné ces questions de responsabilité vont se poser. Le système actuel n'a pas été pensé pour ces situations. Il serait sain d'accepter au moins d'ouvrir le débat.

Parler de personnalité est une chose, mais on peut aussi examiner les effets qu'on veut accorder à celle-ci (apportant des obligations voire des droits). L'analogie avec la personnalité morale est plutôt pertinente. Peut-être que c'est trop tôt.

En bref, le "risque d'éluder la responsabilité civile" ne justifie pas qu'on ne réfléchisse pas à la question. Idem pour le fait qu'une réglementation régionale (à l'échelle de l'UE quand même) ne proposerait pas de solution convenable: c'est le cas pour tout d'internet au droit pénal, en passant par tous les autres domaines du droit.

Avatar de gavroche69 Abonné
Avatar de gavroche69gavroche69- 06/06/17 à 07:54:49

Génial !!

Alors que l'I.A en est seulement à ses balbutiements on commence déjà à discuter de ses éventuels droits alors que, après des millénaires de cohabitation, on commence tout juste à discuter (souvent à reculons) du droit des animaux qui eux sont pourtant des êtres bien vivants et donc sensibles...

Un jour il sera peut-être considéré comme un crime le fait de balancer un coup de marteau sur un tas de ferraille débile alors qu'on pourra continuer à massacrer un taureau innocent dans une arène pour le plus grand plaisir d'une bande d'excités et au nom de la culture et des traditions... :mad2:

Avatar de 127.0.0.1 INpactien
Avatar de 127.0.0.1127.0.0.1- 06/06/17 à 08:02:14

En clair, reconnaître une personnalité juridique à ces systèmes aussi automatisés qu’autonomes entraînerait mécaniquement une déresponsabilisation des concepteurs de ces systèmes.

Outre l'aspect "responsabilité en cas d'accident", la personnalité juridique permet de définir une subordination juridique robot/entreprise... et donc de créer un contrat de travail.

Et là c'est la porte ouverte a une nouvelle lutte des classes: concurrence humain/robot, gestion des ressources (non) humaines, ....

Groupe Renault
SIREN: 441 639 465,
effectif: 120 275 *

(*) dont 85 724 robots. :D

Avatar de CryoGen Abonné
Avatar de CryoGenCryoGen- 06/06/17 à 08:04:30

Et on pourra de rétorquer : "le droits des animaux ? Mais le droits des femmes alors ? Dans certains pays elles ne sont pas du tout considérées". Et là on répondra : "et le droits des hommes alors ? Avec des prisons horribles dans certains pays, les sévices etc." ... On répondra encore :"et le droit des enfants alors ? Le travail à 9 ans pour miner ou fabriquer des chaussures"...

Et là un mec ferra remarquer aux autres : le système n'est pas mono tâche.

Édité par CryoGen le 06/06/2017 à 08:07
Avatar de CryoGen Abonné
Avatar de CryoGenCryoGen- 06/06/17 à 08:06:25

Ca dépend comme on voit les choses effectivement. Mais je pense qu'il est bien trop tôt pour penser définir un droit à un robot complètement autonome...
Sinon on va se retrouver avec des robots tueurs, voleurs etc. et "ah bah c'est l'IA". Pratique pour les services de renseignements, les politiciens...

Avatar de levhieu INpactien
Avatar de levhieulevhieu- 06/06/17 à 08:11:46

Voici une conséquence de ce que je comprends des remarques du CESE:

Aujourd'hui, si je tue/blesse quelqu'un avec ma voiture:

  • Pas de défaut technique → Je suis responsable
  • Défaut technique avéré → Le constructeur est responsable (éventuellement le garagiste si c'est lui qui a introduit le défaut, cas typique: une roue mal ressérée).
    Être responsable signigifie, entre autre,  être celui qui dédommage (éventuellement par le biais d'une assurance à qui on a délégué ce risque).
    (Constructeur responsable: j'ai au moins un exemple en tête, il a fallu quelques années de procès)
    Avec un robot personne morale: Il est responsable, c'est donc lui qui dédommage. :singe:
Avatar de Poppu78 INpactien
Avatar de Poppu78Poppu78- 06/06/17 à 08:29:10

Et que dire du cas d'un robot-taureau de moins de 3 ans ?

Plus sérieusement, pour l'instant je ne vois pas li'ntérêt de cette legislation. Tant qu'on considère qu'un robot appartient à quelqu'un, et qu'il est incapable de lui désobéir, il ne peut être reconnu comme coupable, ou même responsible. Comme aurait dit Jessica, ce n'est pas de sa faute, il a été conçu ainsi.
Donc pour moi c'est beaucoup beaucoup trop tôt pour ça.

Avatar de maxoux Abonné
Avatar de maxouxmaxoux- 06/06/17 à 08:29:21

Tu as lu l'article ? Je suppose que non puisque ton commentaire n'as aucuns rapport avec le contenu.
On parle ici de personnalité juridique, donc de donner des droits et des devoirs (éventuellement différents des humains) à des IA. Ce qui est très différent de la protection des animaux.

De plus, les animaux en avaient bien au XIIIème siècle puisque plusieurs animaux ont été jugé dans des tribunaux, ce qui n'as bien entendu aucuns sens puisque les animaux ne comprennent ni notre langue ni nos lois.

C'est avec ce genre de coimmentaire que j'ai l'impression de régresser au moyen-âge :fumer:

Avatar de darkbeast Abonné
Avatar de darkbeastdarkbeast- 06/06/17 à 08:30:52

[mode beauf]on a déjà donné des droits aux femmes, maintenant il va falloir en filer aux robots[/mode beauf]

Il n'est plus possible de commenter cette actualité.
Page 1 / 5