Robots tueurs : une centaine d'experts interpellent l’ONU

Avant de tous devenir des Sarah Connor
Mobilité 5 min
Robots tueurs : une centaine d'experts interpellent l’ONU
Crédits : davincidig/iStock

À partir d'aujourd'hui, des experts gouvernementaux devaient se réunir sous l'égide des Nations Unies pour se pencher sur la question des systèmes d’armes létaux autonomes. Le rendez-vous a été annulé et plus d'une centaine d'experts et dirigeants d'entreprise ont décidé de publier une lettre ouverte afin que le sujet ne soit pas oublié.

L'intelligence artificielle séduit autant qu'elle inquiète. Il faut dire qu'elle ouvre de très larges perspectives, dans quasiment tous les domaines. Afin de faire un point sur la situation, l'OPECST (office parlementaire d'évaluation des choix scientifiques et technologiques) publiait il y a quelques mois un épais rapport de 275 pages que nous avions résumé dans cette actualité.

Quelques semaines plus tard, le Comité économique et social européen se penchait également sur la question, en s'attardant principalement sur les risques. L'un d'entre eux concerne justement les armes létales autonomes et la cyberguerre au sens large du terme.

Aujourd'hui, plus d'une centaine d'experts et dirigeants provenant de 26 pays à travers le monde ont décidé de tirer une nouvelle fois la sonnette d'alarme via une lettre ouverte adressée aux Nations Unies. Elle est disponible sur le site de Future of Life Institute (FLI), une association qui s'est fixée pour mission de « catalyser et appuyer la recherche et les initiatives visant à sauvegarder la vie et à développer des visions optimistes du futur ». Elle a été publiée hier, une date symbolique qui ne doit rien au hasard.

Une réunion sur les armes létales autonomes prévue aux Nations Unies, puis annulée

En 2016, aux Nations Unies, se tenait une convention avec un intitulé à rallonge : la « cinquième conférence des Hautes Parties contractantes chargée de l’examen de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination ». Un des points abordés concernait les systèmes d’armes létaux autonomes (SALA).

Dans ce rapport des Nations Unies, de nombreuses délégations soulignaient l'importance de se pencher rapidement sur cette question. Un groupe d'experts gouvernementaux (GGE) baptisé Lethal Autonomous Weapons Systems (LAWS) avait alors été mis sur pied, avec à sa tête l'ambassadeur indien Amandeep Singh Gill. 

Une réunion était planifiée du 21 au 25 août 2017, suivi d'une seconde du 13 au 17 novembre de cette année. Malheureusement, la première a été annulée, comme l'indique les Nations Unies sur son site, sans plus de précision. D'après la lettre ouverte publiée hier, la faute incomberait à « un petit nombre d'états qui n'ont pas payé leurs contributions financières aux Nations Unies ». Une annonce aura lieu d'ici à la fin du mois concernant la réunion du mois de novembre précise les Nations Unies.

Cette question doit être traitée rapidement, avant que la boite de pandore ne soit ouverte

Ce décalage dans le calendrier inquiète les experts et dirigeants cosignataires de la missive adressée aux Nations Unies. Dans le lot on retrouve Elon Musk (Tesla, SpaceX), Mustafa Suleyman (DeepMind) et Jérôme Monceaux (Aldebaran Robotics, Spoon) pour ne citer qu'eux (la liste complète se trouve ici). Certains n'en sont pas à leur premier appel du genre. C'est notamment le cas d'Elon Musk et de plusieurs milliers de personnes qui ont signé une liste de 23 principes en février dernier lors d'une conférence organisée par... Future of Life Institute.

Quoi qu'il en soit, tous « demandent instamment » aux Nations Unies de redoubler d'efforts car les armes létales autonomes pourraient devenir la troisième évolution dans la guerre, après la poudre et le nucléaire. Une fois que des armes du genre auront été développées, elles permettront aux conflits de s'étendre sur des échelles bien plus grandes (temps et/ou espace) précise les auteurs.

Elles pourraient également servir à des terroristes et des dictateurs contre la population, mais aussi être piratées préviennent les cosignataires. « Nous n'avons pas beaucoup de temps pour agir. Une fois cette boîte de Pandore ouverte, il sera difficile de la fermer » ajoutent-ils en guise de conclusion.

Une machine peut-elle décider de la vie ou de la mort d'un être humain ?

Dans le compte rendu de la réunion d'experts sur les systèmes d'armes létaux autonomes de 2016, plusieurs points sont abordés. Tout d'abord, il en ressort qu'« il a été généralement admis qu’il n’existait encore aucun système d’armes pleinement autonome ». Par contre, les avis divergeaient concernant leur développement dans un avenir proche ou au contraire éloigné. Il est aussi indiqué que « plusieurs délégations ont affirmé qu’elles n’avaient pas l’intention d’en mettre au point », sans toutefois préciser lesquelles.

Aux Nations Unies, la question de l'éthique avait également été évoquée : « De l’avis général, la question, essentielle, de l’acceptabilité morale des systèmes d’armes létaux autonomes devait être abordée, et il était inenvisageable de déléguer à une machine la capacité de décider de la vie ou de la mort d’un être humain ».

Pour de nombreuses délégations, « il était inacceptable sur le plan éthique de confier à des machines la décision de vie ou de mort d’un être humain sans aucune forme d’intervention humaine ». Les experts en profitaient pour rappeler qu'une machine ne peut pas « mourir » (du moins pas encore) et qu'elles ne devraient donc pas pouvoir disposer de la vie d’un être humain.

Bref, bon nombres de questions restent en suspend et il faudra prendre des décisions avant que des systèmes d'armes létaux autonomes ne voient le jour. C'est dans cette optique qu'un groupe d'experts gouvernementaux devait se réunir à partir d'aujourd'hui afin « se pencher et de s’entendre sur d’éventuelles recommandations » pour le compte des Nations Unies.

De nombreux travaux attendent le groupe d'experts 

Le groupe devait envisager deux problématiques : « le recensement des caractéristiques des SALA et l’élaboration d’une définition fonctionnelle de ces systèmes » et « l’application et le respect des principes juridiques et des règles de droit international pertinents, en particulier du droit humanitaire international, dans le cadre des SALA ».

D'autres pistes de réflexion sont également évoquées : 

  • Le respect du droit international des droits de l’homme, le cas échéant
  • Les responsabilités et les obligations sur les plans juridique et politique
  • Les questions éthiques et morales
  • Les effets sur la sécurité et la stabilité régionales et mondiales
  • Les effets sur le seuil nécessaire pour les conflits armés
  • Le risque d’une course aux armements
  • L’intérêt et les risques militaires
  • Les risques de prolifération, y compris pour et par les acteurs non étatiques
  • Les risques posés par les cyberopérations eu égard aux SALA

Reste maintenant à voir si les Nations Unies vont programmer une autre date ou bien attendre novembre pour que la première réunion se tienne. Dans tous les cas, il sera intéressant d'en étudier les recommandations et conclusions.

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Abonné
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !