Reconnaître une personnalité juridique aux robots, « un risque moral inacceptable »

Ja tvoi sluga, ja tvoi rabotnik 45
Accès libre
image dediée
Crédits : iLexx/iStock
Loi
Marc Rees

Dans un avis d’initiative portant sur l’intelligence artificielle et ses retombées pour le marché unique, la production, la consommation, l’emploi et la société, le Comité économique et social européen s’oppose à accorder la moindre personnalité juridique aux robots.

Le Comité économique et social européen (ou CESE) est un organe consultatif de l'Union européenne. Composé de « représentants d'organisations de travailleurs et d’employeurs et d’autres groupes d’intérêts » a pour mission notamment de « veiller à ce que la politique et la législation de l'UE soient adaptées à la situation économique et sociale en recherchant un consensus favorable à l'intérêt général. »

Dans un avis publié sur l’IA et sur lequel nous reviendrons plus longuement, le CESE s’est penché sur une question épineuse. Celle de la possibilité d’accorder, ou non, la personnalité juridique aux robots. Dire qu’une entité dispose d’une telle capacité, c’est lui reconnaître des droits et des obligations. Des obligations : indemniser les personnes qui du fait d’un robot, auraient subi un préjudice matériel, corporel ou encore relatif à une violation de la vie privée. Des droits : percevoir une réparation, en cas d’atteinte à l’intégrité de cet amas de tôles et de circuits imprimés.

Un rapport du Parlement européen milite pour une telle reconnaissance

Le 16 février 2017, un rapport d’initiative avait été adopté en ce sens au Parlement européen. Parmi les pistes suggérées, il imaginait la création d’une telle personnalité juridique spécifique aux robots. « Il s’agirait du même principe que celui dont nous disposons actuellement pour les entreprises » exprimait alors la rapporteure Mady Delvaux, eurodéputée S&D.

Très en phase avec la proposition de Me Alain Bensoussan, le texte demandait particulièrement à la Commission européenne, dans le cadre d’une future étude d’impact, « la création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers ; il serait envisageable de conférer la personnalité électronique à tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers ».

Abus, risque moral et autres effets collatéraux

L’analyse du CESE est aux antipodes. Le comité « s’oppose à la mise en place d’une forme de personnalité juridique pour les robots ou l’IA » expose-t-il dans son avis. Et celui-ci d’expliquer pourquoi : « Les effets correctifs préventifs du droit de la responsabilité civile s’en trouveraient en effet vidés de leur substance. De plus, cela créerait des possibilités d’abus de même qu’un risque moral au niveau tant du développement que de l’utilisation de l’IA ».

Il épingle même un « risque moral inacceptable inhérent à une telle démarche » puisque selon lui, avec une telle réforme, « le fabricant n’assumera plus le risque de responsabilité, celui-ci ayant été transféré au robot (ou au système d’IA) ». Et ce n’est pas tout, « le risque d’utilisation impropre et d’abus d’une telle forme juridique existe » (voir sur ce sujet, notre intervention au GEM Digital Day 2016, à Grenoble).

En clair, reconnaître une personnalité juridique à ces systèmes aussi automatisés qu’autonomes entraînerait mécaniquement une déresponsabilisation des concepteurs de ces systèmes. Plutôt que le grand saut, le CESE juge plus opportun d’analyser la législation en cours et d’en combler les éventuelles lacunes. En juin 2016, le comité STOA (Science and Technology Options Assessment) au Parlement européen avait d'ailleurs identifié six domaines (transports, systèmes de double utilisation, libertés civiles, sécurité, santé et énergie) où les développements de la robotique et de l’IA pourraient exiger de telles révisions.

Autre piste, le souhait d’une réglementation mondiale, « étant donné qu’une réglementation régionale ne suffira pas et aura même des effets indésirables ». En creux, se dessine le risque de protectionnisme, ou de forum shopping qui consiste à élire une législation plus favorable aux intérêts des concepteurs. Sur ce point, le Comité demande à l’UE « de jouer un rôle moteur dans l’établissement de cadres stratégiques clairs et universels en matière d’IA et de stimuler ce processus au niveau mondial ». 


chargement
Chargement des commentaires...