Reconnaître une personnalité juridique aux robots, « un risque moral inacceptable »

Reconnaître une personnalité juridique aux robots, « un risque moral inacceptable »

Ja tvoi sluga, ja tvoi rabotnik

Avatar de l'auteur
Marc Rees

Publié dans

Droit

06/06/2017 4 minutes
45

Reconnaître une personnalité juridique aux robots, « un risque moral inacceptable »

Dans un avis d’initiative portant sur l’intelligence artificielle et ses retombées pour le marché unique, la production, la consommation, l’emploi et la société, le Comité économique et social européen s’oppose à accorder la moindre personnalité juridique aux robots.

Le Comité économique et social européen (ou CESE) est un organe consultatif de l'Union européenne. Composé de « représentants d'organisations de travailleurs et d’employeurs et d’autres groupes d’intérêts » a pour mission notamment de « veiller à ce que la politique et la législation de l'UE soient adaptées à la situation économique et sociale en recherchant un consensus favorable à l'intérêt général. »

Dans un avis publié sur l’IA et sur lequel nous reviendrons plus longuement, le CESE s’est penché sur une question épineuse. Celle de la possibilité d’accorder, ou non, la personnalité juridique aux robots. Dire qu’une entité dispose d’une telle capacité, c’est lui reconnaître des droits et des obligations. Des obligations : indemniser les personnes qui du fait d’un robot, auraient subi un préjudice matériel, corporel ou encore relatif à une violation de la vie privée. Des droits : percevoir une réparation, en cas d’atteinte à l’intégrité de cet amas de tôles et de circuits imprimés.

Un rapport du Parlement européen milite pour une telle reconnaissance

Le 16 février 2017, un rapport d’initiative avait été adopté en ce sens au Parlement européen. Parmi les pistes suggérées, il imaginait la création d’une telle personnalité juridique spécifique aux robots. « Il s’agirait du même principe que celui dont nous disposons actuellement pour les entreprises » exprimait alors la rapporteure Mady Delvaux, eurodéputée S&D.

Très en phase avec la proposition de Me Alain Bensoussan, le texte demandait particulièrement à la Commission européenne, dans le cadre d’une future étude d’impact, « la création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers ; il serait envisageable de conférer la personnalité électronique à tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers ».

Abus, risque moral et autres effets collatéraux

L’analyse du CESE est aux antipodes. Le comité « s’oppose à la mise en place d’une forme de personnalité juridique pour les robots ou l’IA » expose-t-il dans son avis. Et celui-ci d’expliquer pourquoi : « Les effets correctifs préventifs du droit de la responsabilité civile s’en trouveraient en effet vidés de leur substance. De plus, cela créerait des possibilités d’abus de même qu’un risque moral au niveau tant du développement que de l’utilisation de l’IA ».

Il épingle même un « risque moral inacceptable inhérent à une telle démarche » puisque selon lui, avec une telle réforme, « le fabricant n’assumera plus le risque de responsabilité, celui-ci ayant été transféré au robot (ou au système d’IA) ». Et ce n’est pas tout, « le risque d’utilisation impropre et d’abus d’une telle forme juridique existe » (voir sur ce sujet, notre intervention au GEM Digital Day 2016, à Grenoble).

En clair, reconnaître une personnalité juridique à ces systèmes aussi automatisés qu’autonomes entraînerait mécaniquement une déresponsabilisation des concepteurs de ces systèmes. Plutôt que le grand saut, le CESE juge plus opportun d’analyser la législation en cours et d’en combler les éventuelles lacunes. En juin 2016, le comité STOA (Science and Technology Options Assessment) au Parlement européen avait d'ailleurs identifié six domaines (transports, systèmes de double utilisation, libertés civiles, sécurité, santé et énergie) où les développements de la robotique et de l’IA pourraient exiger de telles révisions.

Autre piste, le souhait d’une réglementation mondiale, « étant donné qu’une réglementation régionale ne suffira pas et aura même des effets indésirables ». En creux, se dessine le risque de protectionnisme, ou de forum shopping qui consiste à élire une législation plus favorable aux intérêts des concepteurs. Sur ce point, le Comité demande à l’UE « de jouer un rôle moteur dans l’établissement de cadres stratégiques clairs et universels en matière d’IA et de stimuler ce processus au niveau mondial ». 

Écrit par Marc Rees

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Un rapport du Parlement européen milite pour une telle reconnaissance

Abus, risque moral et autres effets collatéraux

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (45)


je veux pas engager un débat ou quoi que ce soit mais…



je suis le seul à découvrir l’existence du CESE ?<img data-src=" />



Sinon, leur avis est assez intéressant, oui.


J’ai le sentiment qu’on a d’un côté des gens qui se posent des questions et essaient d’anticiper un peu les défis juridiques à venir, et de l’autre des gens qui n’ont pas envie ne serait-ce que d’entrer en matière sur l’examen de la question.



Qu’on le veuille ou non à un moment donné ces questions de responsabilité vont se poser. Le système actuel n’a pas été pensé pour ces situations. Il serait sain d’accepter au moins d’ouvrir le débat.



Parler de personnalité est une chose, mais on peut aussi examiner les effets qu’on veut accorder à celle-ci (apportant des obligations voire des droits). L’analogie avec la personnalité morale est plutôt pertinente. Peut-être que c’est trop tôt.



En bref, le “risque d’éluder la responsabilité civile” ne justifie pas qu’on ne réfléchisse pas à la question. Idem pour le fait qu’une réglementation régionale (à l’échelle de l’UE quand même) ne proposerait pas de solution convenable: c’est le cas pour tout d’internet au droit pénal, en passant par tous les autres domaines du droit.


Génial !!



Alors que l’I.A en est seulement à ses balbutiements on commence déjà à discuter de ses éventuels droits alors que, après des millénaires de cohabitation, on commence tout juste à discuter (souvent à reculons) du droit des animaux qui eux sont pourtant des êtres bien vivants et donc sensibles…



Un jour il sera peut-être considéré comme un crime le fait de balancer un coup de marteau sur un tas de ferraille débile alors qu’on pourra continuer à massacrer un taureau innocent dans une arène pour le plus grand plaisir d’une bande d’excités et au nom de la culture et des traditions… <img data-src=" />




En clair, reconnaître une personnalité juridique à ces systèmes aussi automatisés qu’autonomes entraînerait mécaniquement une déresponsabilisation des concepteurs de ces systèmes.





Outre l’aspect “responsabilité en cas d’accident”, la personnalité juridique permet de définir une subordination juridique robot/entreprise… et donc de créer un contrat de travail.



Et là c’est la porte ouverte a une nouvelle lutte des classes: concurrence humain/robot, gestion des ressources (non) humaines, ….





Groupe Renault

SIREN: 441 639 465,

effectif: 120 275 *





(*) dont 85 724 robots. <img data-src=" />


Et on pourra de rétorquer : “le droits des animaux ? Mais le droits des femmes alors ? Dans certains pays elles ne sont pas du tout considérées”. Et là on répondra : “et le droits des hommes alors ? Avec des prisons horribles dans certains pays, les sévices etc.” … On répondra encore :“et le droit des enfants alors ? Le travail à 9 ans pour miner ou fabriquer des chaussures”…



Et là un mec ferra remarquer aux autres : le système n’est pas mono tâche.


Ca dépend comme on voit les choses effectivement. Mais je pense qu’il est bien trop tôt pour penser définir un droit à un robot complètement autonome…

Sinon on va se retrouver avec des robots tueurs, voleurs etc. et “ah bah c’est l’IA”. Pratique pour les services de renseignements, les politiciens…


Voici une conséquence de ce que je comprends des remarques du CESE:



Aujourd’hui, si je tue/blesse quelqu’un avec ma voiture:




  • Pas de défaut technique → Je suis responsable

  • Défaut technique avéré → Le constructeur est responsable (éventuellement le garagiste si c’est lui qui a introduit le défaut, cas typique: une roue mal ressérée).

    Être responsable signigifie, entre autre,&nbsp; être celui qui dédommage (éventuellement par le biais d’une assurance à qui on a délégué ce risque).

    (Constructeur responsable: j’ai au moins un exemple en tête, il a fallu quelques années de procès)

    Avec un robot personne morale: Il est responsable, c’est donc lui qui dédommage. <img data-src=" />


Et que dire du cas d’un robot-taureau de moins de 3 ans ?



Plus sérieusement, pour l’instant je ne vois pas li’ntérêt de cette legislation. Tant qu’on considère qu’un robot appartient à quelqu’un, et qu’il est incapable de lui désobéir, il ne peut être reconnu comme coupable, ou même responsible. Comme aurait dit Jessica, ce n’est pas de sa faute, il a été conçu ainsi.

Donc pour moi c’est beaucoup beaucoup trop tôt pour ça.


Tu as lu l’article ? Je suppose que non puisque ton commentaire n’as aucuns rapport avec le contenu.

On parle ici de personnalité juridique, donc de donner des droits et des devoirs (éventuellement différents des humains) à des IA. Ce qui est très différent de la protection des animaux.



De plus, les animaux en avaient bien au XIIIème siècle puisque plusieurs animaux ont été jugé dans des tribunaux, ce qui n’as bien entendu aucuns sens puisque les animaux ne comprennent ni notre langue ni nos lois.



C’est avec ce genre de coimmentaire que j’ai l’impression de régresser au moyen-âge&nbsp;<img data-src=" />


[mode beauf]on a déjà donné des droits aux femmes, maintenant il va falloir en filer aux robots[/mode beauf]


Bah si justement, le système actuel répond parfaitement à la question sans ambiguïté ni échappatoires : le propriétaire du robot est responsable.



Ensuite, donner des droits et devoirs à une entité qui n’a pas conscience de la loi, je ne pense pas que ce soit une bonne idée. Ça n’est pas pour rien que les enfants et les personnes aux facultés mentales altérés ne sont pas responsables et ont besoin d’un tuteur.


Sarah Connor <img data-src=" />








CryoGen a écrit :



Et on pourra de rétorquer : “le droits des animaux ? Mais le droits des femmes alors ? Dans certains pays elles ne sont pas du tout considérées”. Et là on répondra : “et le droits des hommes alors ? Avec des prisons horribles dans certains pays, les sévices etc.” … On répondra encore :“et le droit des enfants alors ? Le travail à 9 ans pour miner ou fabriquer des chaussures”…



Et là un mec ferra remarquer aux autres : le système n’est pas mono tâche.



Je faisais allusion aux animaux uniquement parce que on commence tout juste à s’y intéresser sur le plan juridique (“tout juste” par rapport au fait qu’on vit avec eux depuis toujours). Pour les exemples que tu donnes ça ne devrait même pas être sujet à débat vu que c’est tellement évident. Ça rend cette discussion sur l’I.A encore plus déplacée et pour le moins prématurée.



maxoux a écrit :



Tu as lu l’article ? Je suppose que non puisque ton commentaire n’as aucuns rapport avec le contenu.

On parle ici de personnalité juridique, donc de donner des droits et des devoirs (éventuellement différents des humains) à des IA. Ce qui est très différent de la protection des animaux.



De plus, les animaux en avaient bien au XIIIème siècle puisque plusieurs animaux ont été jugé dans des tribunaux, ce qui n’as bien entendu aucuns sens puisque les animaux ne comprennent ni notre langue ni nos lois.



C’est avec ce genre de coimmentaire que j’ai l’impression de régresser au moyen-âge <img data-src=" />



Oui j’ai lu et le rapport me semble évident : on parle déjà de personnalités juridiques et d’éventuels droits à des I.A là où beaucoup s’interrogent encore sur les mêmes points concernant les animaux.



Je ne vois pas trop le rapport avec le jugement des animaux à certaines époques, de tous temps les humains ont eu des comportements parfois incompréhensibles et c’est toujours le cas.



Le fait que tu trouves ce commentaire “moyenâgeux ” montre bien à quel point il y a encore du chemin à parcourir pour considérer les animaux autrement que comme de la bouffe et/ou des objets entièrement soumis à notre bon vouloir et à notre plaisir…






Donc si un robot est responsable de ses actes il faudra qu’il aille bosser pour gagner sa thune si jamais il doit verser des dommages et intérêts à quelqu’un?



À quand le robot humanoïde qui s’achète une tesla parce qu’il a la flemme de marcher? <img data-src=" />








gogo77 a écrit :



Donc si un robot est responsable de ses actes il faudra qu’il aille bosser pour gagner sa thune si jamais il doit verser des dommages et intérêts à quelqu’un?



À quand le robot humanoïde qui s’achète une tesla parce qu’il a la flemme de marcher? <img data-src=" />





Et si une Tesla cause un accident mortel ? On la met en prison ? <img data-src=" />



Non mais comme je le disais : le système n’est pas mono tâche.



Et puis les animaux ont déjà pas mal de droits. Les abattoirs qui doivent être mis en conformités, les règles à respecter pour obtenir des labels ou autorisation etc. On a aussi des lois contre la cruautés sur les animaux domestique, les zoo etc.



Donc ton argument “on commence à peine” faut pas déconner non plus… On s’en occupe. Et vu à la vitesse avec laquelle les “IA_qui_n’en_sont_pas_encore” progressent, il devient intéressant de s’en préoccuper.



Et puis, je ne comprend pas ton raisonnement : pour les animaux en gros on s’en occupe tardivement voir trop tard, mais si on veut s’en occuper (d’un problème) en avance, ca ne va pas non plus ? Le nombre de commentaires qu’on peut lire sur “notre gouvernement est toujours en retard”, “les lois ne sont jamais adaptées à temps” etc. et voilà que quand on veut réfléchir avec un peu d’avance, ca ne va pas non plus…


Les entreprises et les associations sont des entités juridiques : elles ont des dirigeants, des mandataires. Des responsables humains.

On fera pareil pour les robots. D’ici à ce qu’on les identifie à des personnes physiques sans tutelle …de l’eau aura coulé sous les ponts.








Mihashi a écrit :



Bah si justement, le système actuel répond parfaitement à la question sans ambiguïté ni échappatoires : le propriétaire du robot est responsable.



Ensuite, donner des droits et devoirs à une entité qui n’a pas conscience de la loi, je ne pense pas que ce soit une bonne idée. Ça n’est pas pour rien que les enfants et les personnes aux facultés mentales altérés ne sont pas responsables et ont besoin d’un tuteur.





le CESE aborde se sujet pour qu’il y est débat. sans ça rien ne se passerait.

Je comprend leur approche comme une question à un problème qui va se poser dans 2030 ans, lorsque les IA auront des capacités de raisonnement proche (voir dépassant)celles de l’être humain. A ce moment là il sera trop tard pour établir des règles et des lois.(car ce seront probablement déjà les IA qui s’en chargeront…)

Tout comme les 3 règles de la robotique de Asimov, qu’il a écrit en 1942 . et n’auront d ‘inpact réel que d’ici quelques années.

donc oui, tout comme les problèmes de climat, de pollution, de ressources minières….et j’en passe, c’est sujets sont à aborder par tous les bords possibles, même les plus farfelu.









CryoGen a écrit :



…Et puis, je ne comprend pas ton raisonnement : pour les animaux en gros on s’en occupe tardivement voir trop tard, mais si on veut s’en occuper (d’un problème) en avance, ca ne va pas non plus ? Le nombre de commentaires qu’on peut lire sur “notre gouvernement est toujours en retard”, “les lois ne sont jamais adaptées à temps” etc. et voilà que quand on veut réfléchir avec un peu d’avance, ca ne va pas non plus…



Là je dois dire que tu as raison, mieux vaut trop tôt que trop tard.



Ma réaction vis à vis des animaux est due au fait qu’il y a encore bien trop de monde qui pense qu’un animal ça ne peut pas avoir d’émotion et même il y a des cas extrêmes qui pensent carrément que ça ne peut pas souffrir, j’ai entendu un de ces abrutis il n’y a pas longtemps à la radio (un farouche défenseur des corridas avec mise à mort, c’est dire le niveau de ces mecs)…



D’ailleurs, certains philosophes très célèbres pensaient la même chose (c’était le cas d’un certain Descartes) mais à leur décharge ils raisonnaient avec les connaissances de leur époque, mais tenir de tels propos à notre époque ça laisse songeur quand-même… <img data-src=" />



Ça montre bien qu’il y a encore du chemin à parcourir… <img data-src=" />






Ca me semble une bonne décision. En tant que personne morale, une entreprise a droit a un compte bancaire et peut donc dédommager une autre personne (physique ou morale) dans le cas où elle serait jugée responsable d’un dommage.



Si on reconnait un robot comme une “personne électronique”, comment fait-on dans le cas où elle est jugée responsable d’un dommage ? Il faut aussi lui permettre d’avoir un compte pour qu’elle puisse dédommager ? Dans ce cas il faut la rémunérer pour le travail qu’elle fournit ?



Quelqu’un a un lien vers un article qui explique la position de ceux qui militent pour cette reconnaissance ?








moozkit a écrit :



. A ce moment là il sera trop tard pour établir des règles et des lois.(car ce seront probablement déjà les IA qui s’en chargeront…)







J’espère qu’on ne laissera jamais les IA avoir le moindre pouvoir juridique, ou du moins sur l’interprétation et la création de loi. Ce n’est pas absolument pas raisonnable.









gavroche69 a écrit :



Ma réaction vis à vis des animaux est due au fait qu’il y a encore bien trop de monde qui pense qu’un animal ça ne peut pas avoir d’émotion et même il y a des cas extrêmes qui pensent carrément que ça ne peut pas souffrir, j’ai entendu un de ces abrutis il n’y a pas longtemps à la radio (un farouche défenseur des corridas avec mise à mort, c’est dire le niveau de ces mecs)…







Oui mais là c’est un autre problème, il faut bien comprendre que tout le monde ne sera jamais 100% d’accord sur tous les points (de vue) et qu’il y en aura aussi toujours intéressé par l’illégal (gain, profit, problème psychologique, rebelz…)

Si on doit attendre tout le monde pour chaque points, on n’aurait pas quitté l’age de pierre <img data-src=" />









CryoGen a écrit :



…Si on doit attendre tout le monde pour chaque points, on n’aurait pas quitté l’age de pierre <img data-src=" />



C’est pas faux, je crois même qu’on y serait même pas arrivé… <img data-src=" />



La notion de “personne électronique” est surtout abordé dans le cas ou un robot serait capable d’un certain apprentissage et que au bout d’un certain temps ces actions ne pourraient plus être imputables entièrement à son créateur. On pourrait donc avoir des régimes de coresponsabilité entre le créateur du robot et une assurance à prendre par le titulaire du robot.

Pour prendre une analogie pas forcément la plus habile :

De la même façon qu’un enfant n’est pas responsable de tous ses actes pénalement et civilement avant un certain temps, au départ la responsabilité est au créateur (Parents) puis au fur et&nbsp; a mesure de son “apprentissage” il acquiert une responsabilité pénale puis civile autonome (Majorité/émancipation).








Mearwen a écrit :



La notion de “personne électronique” est surtout abordé dans le cas ou un robot serait capable d’un certain apprentissage et que au bout d’un certain temps ces actions ne pourraient plus être imputables entièrement à son créateur. On pourrait donc avoir des régimes de coresponsabilité entre le créateur du robot et une assurance à prendre par le titulaire du robot.

Pour prendre une analogie pas forcément la plus habile :

De la même façon qu’un enfant n’est pas responsable de tous ses actes pénalement et civilement avant un certain temps, au départ la responsabilité est au créateur (Parents) puis au fur et  a mesure de son “apprentissage” il acquiert une responsabilité pénale puis civile autonome (Majorité/émancipation).





Ok, mais donc à quoi sert cette reconnaissance d’une “personne électronique” ? Là tu parles de coresponsabilité entre le créature et le propriétaire du robot, lui n’intervient pas directement.









Rozgann a écrit :



Quelqu’un a un lien vers un article qui explique la position de ceux qui militent pour cette reconnaissance ?





alain bensoussan, un avocat “pointure” des nouvelles technologies, explique son point de vue sur son blog : &nbsphttps://www.alain-bensoussan.com/avocats/tag/personnalite-des-robots/









CryoGen a écrit :



J’espère qu’on ne laissera jamais les IA avoir le moindre pouvoir juridique, ou du moins sur l’interprétation et la création de loi. Ce n’est pas absolument pas raisonnable.





l’etre humain n’a jamais été raisonnable :).









CryoGen a écrit :



J’espère qu’on ne laissera jamais les IA avoir le moindre pouvoir juridique, ou du moins sur l’interprétation et la création de loi. Ce n’est pas absolument pas raisonnable.





C’est un point de vue qui se discute, car nous humain ne sommes pas irréprochables et les lois que l’on sort ne sont pas forcément les meilleurs qui puissent être pour gérer les différentes situations (pire certaines sont promulguées pour favoriser des intérêts personnels au détriment de l’intérêt général). Mais je pense que&nbsp;c’est des questions qui finiront par arriver sur le devant de la scène.



Enfin bon ce n’est pas demain la veille qu’on aura une IA capable de penser et réfléchir par elle même, ainsi que d’avoir un sens moral.



Ou peut-être que c’est déjà le cas et que la Machine nous surveille tous ou pire que Samaritain nous contrôle tous. <img data-src=" />



N’importe quelle machine mécanique est un robot.

Il n’y a pas besoin qu’elle “pense.”


Elle en a déjà et ce n’est pas codifié. Pense à l’influence des logiciels de Google dans son ensemble.


Je ne me rappelle pas que l’assistant de Google ait promulgué une loi…



De l’influence oui, c’est obligatoire vu qu’on “vit” avec. D’ailleurs c’est bien pour çà que nous, les humains, voulons commencer à légiférer. Mais donner le pouvoir aux IA de contrôler la justice des hommes, c’est franchement se diriger en courant et têtes baissées vers Terminator et Matrix <img data-src=" />








Yss a écrit :



C’est un point de vue qui se discute, car nous humain ne sommes pas irréprochables et les lois que l’on sort ne sont pas forcément les meilleurs qui puissent être pour gérer les différentes situations (pire certaines sont promulguées pour favoriser des intérêts personnels au détriment de l’intérêt général). Mais je pense que c’est des questions qui finiront par arriver sur le devant de la scène.







Notre justice est à notre image, à peine améliorée.

Mais si une IA est capable de nous gouverner pour un monde parfait alors cela tournera forcément à la dictature. Maintenant cela pourrait très bien être une bonne dictature dans un premier temps… puis devant certaines réticences étant dans la nature même de l’humain, l’IA serait forcée de contrebalancer en prenant des mesures plus draconiennes, et donc avoir de plus en plus de résistance et boom révolte. Ou alors l’IA est vraiment sympa et décide que le mieux est de s’auto désactiver ou d’abdiquer.









tpeg5stan a écrit :



alain bensoussan, un avocat “pointure” des nouvelles technologies, explique son point de vue sur son blog : &#160https://www.alain-bensoussan.com/avocats/tag/personnalite-des-robots/





Merci, j’irai lire ça ce soir. Je crois que je l’avais déjà entendu défendre son point de vue dans une émission de “Ce soir ou jamais”.







Yss a écrit :



C’est un point de vue qui se discute, car nous humain ne sommes pas irréprochables et les lois que l’on sort ne sont pas forcément les meilleurs qui puissent être pour gérer les différentes situations (pire certaines sont promulguées pour favoriser des intérêts personnels au détriment de l’intérêt général). Mais je pense que c’est des questions qui finiront par arriver sur le devant de la scène.





Mais ne serait-ce que donner une définition de l’intérêt général, c’est pas facile… Et il n’y a aucun moyen objectif d’en donner une définition. Par exemple, l’intérêt général à long terme et l’intérêt général à court terme ne sont pas toujours conciliables. Alors coder ça dans un algorithme, aussi sophistiqué soit-il, j’ai des doutes…



Il y a un biais dans pas mal de commentaires qui voudrait qu’une IA soit nécessairement meilleure (ou nécessairement pire) qu’une intelligence humaine.



On peut reconnaitre aux IA une intelligence comparable aux humains (dans une situation donnée).








CryoGen a écrit :



Notre justice est à notre image, à peine améliorée.

Mais si une IA est capable de nous gouverner pour un monde parfait alors cela tournera forcément à la dictature. Maintenant cela pourrait très bien être une bonne dictature dans un premier temps… puis devant certaines réticences étant dans la nature même de l’humain, l’IA serait forcée de contrebalancer en prenant des mesures plus draconiennes, et donc avoir de plus en plus de résistance et boom révolte. Ou alors l’IA est vraiment sympa et décide que le mieux est de s’auto désactiver ou d’abdiquer.





Clairement, ce ne serait pas tout blanc ou tout noir. Tout comme le système actuel n’est ni l’un ni l’autre. Mais quand on voit que les “IA” prennent de plus en plus de place dans le monde actuel, je pense qu’il faut s’attendre à terme à avoir se genre de questions se poser. Il faudra en débattre et prendre une décision.

&nbsp;



Rozgann a écrit :



Mais ne serait-ce que donner une définition de l’intérêt général, c’est pas facile… Et il n’y a aucun moyen objectif d’en donner une définition. Par exemple, l’intérêt général à long terme et l’intérêt général à court terme ne sont pas toujours conciliables. Alors coder ça dans un algorithme, aussi sophistiqué soit-il, j’ai des doutes…





Certes, mais où en sera-t-on dans 20 voir 30 ans ? On revient 30 ans en arrière est des choses aujourd’hui normales n’étaient probablement à l’époque que de la science fiction.

Mon avis est que même si cela nous apparait fou, rien ne nous empêche de nous poser des questions pour éviter d’être prit de court si cela se produit un jour.



voilà pourquoi on a justement besoin de définir juridiquement le statut des IA: Maintenant, il y a déjà des thématiques assez proches qui sont plutôt compliquées (quid du drone pourtant piloté par un humain dans un bureau qui lance un missile parce que tel identifiant de téléphone portable s’est connecté à tel réseau en même temps que tel téléphone présumé terroriste, qu’il a eu des interactions avec tel personne identifiée comme terroriste, ce qui fait qu’il y a 82% de probabilité d’être un terroriste?) alors qu’on est encore à des années lumières de la question de décisions purement prises par l’IA elle même.



En plus, si les androïdes ne sont pas pour tout-de suite, et si les robots à la i-robot sont de la musique d’avenir, les IA capables d’apprendre, et de faire des choix compliqués sans pour autant être parfaitement intelligentes sont beaucoup plus d’actualité.



Si on ajoute à ça un processus législatif en général très lent et beaucoup plus dans la réaction que dans la prévention, on peut ressentir le besoin de se lancer dans le processus. Au bas mot, il n’y aura pas de législation avant les 10 15 prochaines années, et à ce moment là, il y a de bonne chances que le besoin se fasse sentir.



Après, je n’ai pas porté de jugement de valeur sur le contenu de ce statut: on peut imaginer qu’à terme, les IA soient si développées qu’il deviendrait évident de leur reconnaitre des droits fondamentaux, ou certains droits, dans certaines situations. On peut aussi imaginer qu’à partir d’un certain degré d’intelligence, l’IA puisse être considérée comme devant payer des cotisations sociales, ou autre.

&nbsp;

Pour en revenir aux personnes morales, c’est pas parce que celles-ci ont la personnalité que les personnes physiques qui agissent derrière ne sont pas inquiétées. ça pourrait être pareil pour les IA.



C’est vraiment très réducteur et ça m’étonne un peu de ce CESE de dire que parce qu’on donnerait un statut à une entité on éviterait la responsabilité de son concepteur. Le droit de la responsabilité civile est bien plus efficace et robuste que ça.



&nbsp;


après il y a tout un tas de variations:



Un exemple:

Si la voiture appartient à l’employé d’une entreprise et qu’il est en mission, c’est la responsabilité de cette entité non physique que de payer les dégâts (sauf exception).

SI la voiture est pilotée par une IA, est-ce la responsabilité du concepteur ou de celui qui utilise l’IA pour ses travaux?

Plus compliqué: quid lorsque la voiture est pilotée par un humain mais qu’elle se permet de planter les freins dans certaines situations pour sa sécurité?



Encore une fois, tout dépend de ce qu’on va décider de lier à ce statut, et ce qu’on va associer à ce statut. Voilà pourquoi je trouve que la discussion mérite de se faire, et voilà pourquoi je suis en désaccord avec le refus brutal du CESE.



Après, quel incroyable bon en avant on aura fait lorsqu’on devra se demander s’il faudra étendre les déclarations des droits de l’homme aux intelligences artificielles parce qu’elles seront capable de ressentir! mais c’est encore, et pour longtemps à priori, de la science-fiction.


On en reparlera quand on en aura une, d’IA. Pour le moment, beaucoup d’agitation pour rien.

Ou alors ils parlent des robots actuels, et là c’est délirant.


Je ne suis pas sûr qu’il soit trop tôt pour se poser la question: on a bien vu avec l’IA de microsoft qui trollait sur twitter.



On condamne bien des humains pour de la diffamation.





Je ne sais pas jusqu’à quand il sera raisonnable de donsidérer les concepteurs comme “responsables légaux” de ces automates, qui de plus en plus vont apprendre, voire se programmer eux-mêmes.


Je l’avais oublié celle là.

Et qui est responsable ? Le concepteur de l’algorithme de l’IA ou celui du jeu de données d’apprentissage ? <img data-src=" />




Ja tvoi sluga, ja tvoi rabotnik





Oh cette référence ! :O



“We are the robots… Tin tin Tintin…” <img data-src=" />


Pour Descartes il faut ajouter la dimension religieuse très présente à l’époque (il comparait les animaux à des machines, et si ces dernières étaient plus complexes que les machines créées par l’homme, c’est juste parce qu’elles avaient été créées par Dieu…). Puis du coup si un chien ça a une âme alors un cafard aussi, et ça ça posait problème à l’époque <img data-src=" />


Tout à fait et c’est bien pour ça que j’ai bien précisé qu’il raisonnait avec les connaissances et éléments de son époque.



C’est un peu le problème des anciens philosophes dont beaucoup considèrent qu’ils parlaient “d’or” et les citent en exemple en permanence, même si certains de leurs propos sont devenus complètement irrationnels avec le temps.



Et oui, les temps changent et force est de constater beaucoup de leurs pensées sont devenues complètement obsolètes et même parfois à la limite du ridicule voire carrément ridicules comme cet avis de Descartes sur les animaux.



Tout philosophes qu’ils aient pu être ils étaient avant tout des humains comme les autres.



Les philosophes de l’Antiquité avaient déjà imaginé les androides.

Asimov en a parlé dans ses livres.


Oui mais déjà Asimov c’est un contemporain, pas un mec des siècles passés…

D’autre part tout ce qu’on pu dire des philosophes des siècles passés n’est pas à mettre à la poubelle, simplement certaines de leurs réflexions et pensées très liées à leur époque ne veulent plus rien dire de nos jours.

Et si on fait l’inventaire de leurs réflexions je crois que tous ont des trucs obsolètes en stock, ce qui n’empêche pas que ces trucs obsolètes sont souvent cités quand même.



Il est normal, compte tenu de l’explosion démographique, de l’arrivée de l’ère industrielle et des avancées scientifiques (entre autres), que des choses dites autrefois ne soient plus valables de nos jours, quel qu’en soit l’auteur. Encore qu’il y a encore des gens pour croire au créationnisme, comme quoi tout est possible. <img data-src=" />



Par contre si tu dis des évidences telles que l’eau ça mouille et le feu ça brûle, il est probable que ça sera encore vrai dans les siècles futurs, enfin on peut le supposer… <img data-src=" />