Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !

Robots tueurs : une centaine d'experts interpellent l’ONU

Avant de tous devenir des Sarah Connor
Mobilité 5 min
Robots tueurs : une centaine d'experts interpellent l’ONU
Crédits : davincidig/iStock

À partir d'aujourd'hui, des experts gouvernementaux devaient se réunir sous l'égide des Nations Unies pour se pencher sur la question des systèmes d’armes létaux autonomes. Le rendez-vous a été annulé et plus d'une centaine d'experts et dirigeants d'entreprise ont décidé de publier une lettre ouverte afin que le sujet ne soit pas oublié.

L'intelligence artificielle séduit autant qu'elle inquiète. Il faut dire qu'elle ouvre de très larges perspectives, dans quasiment tous les domaines. Afin de faire un point sur la situation, l'OPECST (office parlementaire d'évaluation des choix scientifiques et technologiques) publiait il y a quelques mois un épais rapport de 275 pages que nous avions résumé dans cette actualité.

Quelques semaines plus tard, le Comité économique et social européen se penchait également sur la question, en s'attardant principalement sur les risques. L'un d'entre eux concerne justement les armes létales autonomes et la cyberguerre au sens large du terme.

Aujourd'hui, plus d'une centaine d'experts et dirigeants provenant de 26 pays à travers le monde ont décidé de tirer une nouvelle fois la sonnette d'alarme via une lettre ouverte adressée aux Nations Unies. Elle est disponible sur le site de Future of Life Institute (FLI), une association qui s'est fixée pour mission de « catalyser et appuyer la recherche et les initiatives visant à sauvegarder la vie et à développer des visions optimistes du futur ». Elle a été publiée hier, une date symbolique qui ne doit rien au hasard.

Une réunion sur les armes létales autonomes prévue aux Nations Unies, puis annulée

En 2016, aux Nations Unies, se tenait une convention avec un intitulé à rallonge : la « cinquième conférence des Hautes Parties contractantes chargée de l’examen de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination ». Un des points abordés concernait les systèmes d’armes létaux autonomes (SALA).

Dans ce rapport des Nations Unies, de nombreuses délégations soulignaient l'importance de se pencher rapidement sur cette question. Un groupe d'experts gouvernementaux (GGE) baptisé Lethal Autonomous Weapons Systems (LAWS) avait alors été mis sur pied, avec à sa tête l'ambassadeur indien Amandeep Singh Gill. 

Une réunion était planifiée du 21 au 25 août 2017, suivi d'une seconde du 13 au 17 novembre de cette année. Malheureusement, la première a été annulée, comme l'indique les Nations Unies sur son site, sans plus de précision. D'après la lettre ouverte publiée hier, la faute incomberait à « un petit nombre d'états qui n'ont pas payé leurs contributions financières aux Nations Unies ». Une annonce aura lieu d'ici à la fin du mois concernant la réunion du mois de novembre précise les Nations Unies.

Cette question doit être traitée rapidement, avant que la boite de pandore ne soit ouverte

Ce décalage dans le calendrier inquiète les experts et dirigeants cosignataires de la missive adressée aux Nations Unies. Dans le lot on retrouve Elon Musk (Tesla, SpaceX), Mustafa Suleyman (DeepMind) et Jérôme Monceaux (Aldebaran Robotics, Spoon) pour ne citer qu'eux (la liste complète se trouve ici). Certains n'en sont pas à leur premier appel du genre. C'est notamment le cas d'Elon Musk et de plusieurs milliers de personnes qui ont signé une liste de 23 principes en février dernier lors d'une conférence organisée par... Future of Life Institute.

Quoi qu'il en soit, tous « demandent instamment » aux Nations Unies de redoubler d'efforts car les armes létales autonomes pourraient devenir la troisième évolution dans la guerre, après la poudre et le nucléaire. Une fois que des armes du genre auront été développées, elles permettront aux conflits de s'étendre sur des échelles bien plus grandes (temps et/ou espace) précise les auteurs.

Elles pourraient également servir à des terroristes et des dictateurs contre la population, mais aussi être piratées préviennent les cosignataires. « Nous n'avons pas beaucoup de temps pour agir. Une fois cette boîte de Pandore ouverte, il sera difficile de la fermer » ajoutent-ils en guise de conclusion.

Une machine peut-elle décider de la vie ou de la mort d'un être humain ?

Dans le compte rendu de la réunion d'experts sur les systèmes d'armes létaux autonomes de 2016, plusieurs points sont abordés. Tout d'abord, il en ressort qu'« il a été généralement admis qu’il n’existait encore aucun système d’armes pleinement autonome ». Par contre, les avis divergeaient concernant leur développement dans un avenir proche ou au contraire éloigné. Il est aussi indiqué que « plusieurs délégations ont affirmé qu’elles n’avaient pas l’intention d’en mettre au point », sans toutefois préciser lesquelles.

Aux Nations Unies, la question de l'éthique avait également été évoquée : « De l’avis général, la question, essentielle, de l’acceptabilité morale des systèmes d’armes létaux autonomes devait être abordée, et il était inenvisageable de déléguer à une machine la capacité de décider de la vie ou de la mort d’un être humain ».

Pour de nombreuses délégations, « il était inacceptable sur le plan éthique de confier à des machines la décision de vie ou de mort d’un être humain sans aucune forme d’intervention humaine ». Les experts en profitaient pour rappeler qu'une machine ne peut pas « mourir » (du moins pas encore) et qu'elles ne devraient donc pas pouvoir disposer de la vie d’un être humain.

Bref, bon nombres de questions restent en suspend et il faudra prendre des décisions avant que des systèmes d'armes létaux autonomes ne voient le jour. C'est dans cette optique qu'un groupe d'experts gouvernementaux devait se réunir à partir d'aujourd'hui afin « se pencher et de s’entendre sur d’éventuelles recommandations » pour le compte des Nations Unies.

De nombreux travaux attendent le groupe d'experts 

Le groupe devait envisager deux problématiques : « le recensement des caractéristiques des SALA et l’élaboration d’une définition fonctionnelle de ces systèmes » et « l’application et le respect des principes juridiques et des règles de droit international pertinents, en particulier du droit humanitaire international, dans le cadre des SALA ».

D'autres pistes de réflexion sont également évoquées : 

  • Le respect du droit international des droits de l’homme, le cas échéant
  • Les responsabilités et les obligations sur les plans juridique et politique
  • Les questions éthiques et morales
  • Les effets sur la sécurité et la stabilité régionales et mondiales
  • Les effets sur le seuil nécessaire pour les conflits armés
  • Le risque d’une course aux armements
  • L’intérêt et les risques militaires
  • Les risques de prolifération, y compris pour et par les acteurs non étatiques
  • Les risques posés par les cyberopérations eu égard aux SALA

Reste maintenant à voir si les Nations Unies vont programmer une autre date ou bien attendre novembre pour que la première réunion se tienne. Dans tous les cas, il sera intéressant d'en étudier les recommandations et conclusions.

41 commentaires
Avatar de Mimoza Abonné
Avatar de MimozaMimoza- 21/08/17 à 13:08:46

Des guerres sans pertes humaines … séduisant.
Déjà que les drones pilotés à des milliers de km réduise considérablement les pertes (pour un camp seulement).
Craintes compréhensible, même si je ne doute pas que de telles armes autonomes soient effectivement développer. Toute la question est de savoir si ça se fera de manière «légal» et par tout le monde ou seulement par les états «voyous» / terroristes.

Avatar de 127.0.0.1 INpactien
Avatar de 127.0.0.1127.0.0.1- 21/08/17 à 13:12:55

Vous imaginez des policiers ou des chirurgiens fabriqués par BostonDynamics ? :stress:

Avatar de Sans intérêt Abonné
Avatar de Sans intérêtSans intérêt- 21/08/17 à 13:13:35

En matière d'armes de guerre autonomes, puisqu'on en est encore dans la fiction, je recommande la lecture de la nouvelle Nouveau Modèle de Philip K. Dick, adaptée librement en film (assez moyen, mais qui se laisse regarder) Planète hurlante.

Pour en revenir à la triste réalité, en matière d'armes autonomes, rappelons que Samsung en a construites et déployées le long de la frontière de la zone démilitarisée coréenne. Les recherches dans ce domaine existent, comme le montre cette simulation de combat aérien où l'IA prend systématiquement le dessus sur l'humain.

Avatar de WereWindle INpactien
Avatar de WereWindleWereWindle- 21/08/17 à 13:15:21

Mimoza a écrit :

Des guerres sans pertes militaires humaines … séduisant.
Déjà que les drones pilotés à des milliers de km réduise considérablement les pertes (pour un camp seulement).
Craintes compréhensible, même si je ne doute pas que de telles armes autonomes soient effectivement développer. Toute la question est de savoir si ça se fera de manière «légal» et par tout le monde ou seulement par les états «voyous» / terroristes.

:cap: (sauf à ne se battre que dans des déserts... et même là, on peut croiser des populations)

En outre, la capacité d'envoyer des non-vivants au casse-pipe pourrait augmenter le nombre de guerres (puisque l'effet dissuasif des pertes ne jouerait plus...)

On se rassurera en se disant qu'on n'en est pas encore là mais bon...

Avatar de Drepanocytose Abonné
Avatar de DrepanocytoseDrepanocytose- 21/08/17 à 13:17:01

"Pour de nombreuses délégations, « il était inacceptable sur le plan éthique de confier à des machines la décision de vie ou de mort d’un être humain sans aucune forme d’intervention humaine ». Les experts en profitaient pour rappeler qu'une machine ne peut pas « mourir » (du moins pas encore) et qu'elles ne devraient donc pas pouvoir disposer de la vie d’un être humain"

Cool. Parce que bien entendu, disposer de la vue d'autrui sur une intervention humaine c'est acceptable, et comme un humain peut "mourir", lui il peut disposer de la vie d'un autre humain....

On devrait interdire les armes létales. Point.

Avatar de hellmut Abonné
Avatar de hellmuthellmut- 21/08/17 à 13:19:09

Vu les moyens qu'il faut pour développer ce style d'armes, les états voyous / terroristes ne seront pas le premiers à les mettre en oeuvre. on retrouvera les habituels exportateurs d'armes.

Avatar de Commentaire_supprime Abonné
Avatar de Commentaire_supprimeCommentaire_supprime- 21/08/17 à 13:20:15

Les clinkers façon Star Wars première trilogie, c'est pas encore ça si j'ai bien compris...

La question doit être posée, de toute façons.

Avatar de hellmut Abonné
Avatar de hellmuthellmut- 21/08/17 à 13:20:27

t'es en mode bisounours aujourd'hui? :transpi:

Avatar de WereWindle INpactien
Avatar de WereWindleWereWindle- 21/08/17 à 13:23:51

hellmut a écrit :

t'es en mode bisounours aujourd'hui? :transpi:

attention aussi : Batman ne tue personne mais v'la l'état des mecs qu'il tabasse. Rester dans le coma et/ou tétraplégique toute sa vie n'est pas spécialement plus enviable :transpi:

Avatar de tpeg5stan Abonné
Avatar de tpeg5stantpeg5stan- 21/08/17 à 13:24:39

Drepanocytose a écrit :

On devrait interdire les armes létales. Point.

mais comment le mettre en œuvre si ce n'est avec d'autres armes létales ?:windu:

Édité par tpeg5stan le 21/08/2017 à 13:24
Il n'est plus possible de commenter cette actualité.
Page 1 / 5