Robots tueurs : une centaine d'experts interpellent l’ONU

Avant de tous devenir des Sarah Connor

Robots tueurs : une centaine d’experts interpellent l’ONU

Robots tueurs : une centaine d'experts interpellent l’ONU

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

À partir d'aujourd'hui, des experts gouvernementaux devaient se réunir sous l'égide des Nations Unies pour se pencher sur la question des systèmes d’armes létaux autonomes. Le rendez-vous a été annulé et plus d'une centaine d'experts et dirigeants d'entreprise ont décidé de publier une lettre ouverte afin que le sujet ne soit pas oublié.

L'intelligence artificielle séduit autant qu'elle inquiète. Il faut dire qu'elle ouvre de très larges perspectives, dans quasiment tous les domaines. Afin de faire un point sur la situation, l'OPECST (office parlementaire d'évaluation des choix scientifiques et technologiques) publiait il y a quelques mois un épais rapport de 275 pages que nous avions résumé dans cette actualité.

Quelques semaines plus tard, le Comité économique et social européen se penchait également sur la question, en s'attardant principalement sur les risques. L'un d'entre eux concerne justement les armes létales autonomes et la cyberguerre au sens large du terme.

Aujourd'hui, plus d'une centaine d'experts et dirigeants provenant de 26 pays à travers le monde ont décidé de tirer une nouvelle fois la sonnette d'alarme via une lettre ouverte adressée aux Nations Unies. Elle est disponible sur le site de Future of Life Institute (FLI), une association qui s'est fixée pour mission de « catalyser et appuyer la recherche et les initiatives visant à sauvegarder la vie et à développer des visions optimistes du futur ». Elle a été publiée hier, une date symbolique qui ne doit rien au hasard.

Une réunion sur les armes létales autonomes prévue aux Nations Unies, puis annulée

En 2016, aux Nations Unies, se tenait une convention avec un intitulé à rallonge : la « cinquième conférence des Hautes Parties contractantes chargée de l’examen de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination ». Un des points abordés concernait les systèmes d’armes létaux autonomes (SALA).

Dans ce rapport des Nations Unies, de nombreuses délégations soulignaient l'importance de se pencher rapidement sur cette question. Un groupe d'experts gouvernementaux (GGE) baptisé Lethal Autonomous Weapons Systems (LAWS) avait alors été mis sur pied, avec à sa tête l'ambassadeur indien Amandeep Singh Gill. 

Une réunion était planifiée du 21 au 25 août 2017, suivi d'une seconde du 13 au 17 novembre de cette année. Malheureusement, la première a été annulée, comme l'indique les Nations Unies sur son site, sans plus de précision. D'après la lettre ouverte publiée hier, la faute incomberait à « un petit nombre d'états qui n'ont pas payé leurs contributions financières aux Nations Unies ». Une annonce aura lieu d'ici à la fin du mois concernant la réunion du mois de novembre précise les Nations Unies.

Cette question doit être traitée rapidement, avant que la boite de pandore ne soit ouverte

Ce décalage dans le calendrier inquiète les experts et dirigeants cosignataires de la missive adressée aux Nations Unies. Dans le lot on retrouve Elon Musk (Tesla, SpaceX), Mustafa Suleyman (DeepMind) et Jérôme Monceaux (Aldebaran Robotics, Spoon) pour ne citer qu'eux (la liste complète se trouve ici). Certains n'en sont pas à leur premier appel du genre. C'est notamment le cas d'Elon Musk et de plusieurs milliers de personnes qui ont signé une liste de 23 principes en février dernier lors d'une conférence organisée par... Future of Life Institute.

Quoi qu'il en soit, tous « demandent instamment » aux Nations Unies de redoubler d'efforts car les armes létales autonomes pourraient devenir la troisième évolution dans la guerre, après la poudre et le nucléaire. Une fois que des armes du genre auront été développées, elles permettront aux conflits de s'étendre sur des échelles bien plus grandes (temps et/ou espace) précise les auteurs.

Elles pourraient également servir à des terroristes et des dictateurs contre la population, mais aussi être piratées préviennent les cosignataires. « Nous n'avons pas beaucoup de temps pour agir. Une fois cette boîte de Pandore ouverte, il sera difficile de la fermer » ajoutent-ils en guise de conclusion.

Une machine peut-elle décider de la vie ou de la mort d'un être humain ?

Dans le compte rendu de la réunion d'experts sur les systèmes d'armes létaux autonomes de 2016, plusieurs points sont abordés. Tout d'abord, il en ressort qu'« il a été généralement admis qu’il n’existait encore aucun système d’armes pleinement autonome ». Par contre, les avis divergeaient concernant leur développement dans un avenir proche ou au contraire éloigné. Il est aussi indiqué que « plusieurs délégations ont affirmé qu’elles n’avaient pas l’intention d’en mettre au point », sans toutefois préciser lesquelles.

Aux Nations Unies, la question de l'éthique avait également été évoquée : « De l’avis général, la question, essentielle, de l’acceptabilité morale des systèmes d’armes létaux autonomes devait être abordée, et il était inenvisageable de déléguer à une machine la capacité de décider de la vie ou de la mort d’un être humain ».

Pour de nombreuses délégations, « il était inacceptable sur le plan éthique de confier à des machines la décision de vie ou de mort d’un être humain sans aucune forme d’intervention humaine ». Les experts en profitaient pour rappeler qu'une machine ne peut pas « mourir » (du moins pas encore) et qu'elles ne devraient donc pas pouvoir disposer de la vie d’un être humain.

Bref, bon nombres de questions restent en suspend et il faudra prendre des décisions avant que des systèmes d'armes létaux autonomes ne voient le jour. C'est dans cette optique qu'un groupe d'experts gouvernementaux devait se réunir à partir d'aujourd'hui afin « se pencher et de s’entendre sur d’éventuelles recommandations » pour le compte des Nations Unies.

De nombreux travaux attendent le groupe d'experts 

Le groupe devait envisager deux problématiques : « le recensement des caractéristiques des SALA et l’élaboration d’une définition fonctionnelle de ces systèmes » et « l’application et le respect des principes juridiques et des règles de droit international pertinents, en particulier du droit humanitaire international, dans le cadre des SALA ».

D'autres pistes de réflexion sont également évoquées : 

  • Le respect du droit international des droits de l’homme, le cas échéant
  • Les responsabilités et les obligations sur les plans juridique et politique
  • Les questions éthiques et morales
  • Les effets sur la sécurité et la stabilité régionales et mondiales
  • Les effets sur le seuil nécessaire pour les conflits armés
  • Le risque d’une course aux armements
  • L’intérêt et les risques militaires
  • Les risques de prolifération, y compris pour et par les acteurs non étatiques
  • Les risques posés par les cyberopérations eu égard aux SALA

Reste maintenant à voir si les Nations Unies vont programmer une autre date ou bien attendre novembre pour que la première réunion se tienne. Dans tous les cas, il sera intéressant d'en étudier les recommandations et conclusions.

Commentaires (41)


Des guerres sans pertes humaines … séduisant.

Déjà que les drones pilotés à des milliers de km réduise considérablement les pertes (pour un camp seulement).

Craintes compréhensible, même si je ne doute pas que de telles armes autonomes soient effectivement développer. Toute la question est de savoir si ça se fera de manière «légal» et par tout le monde ou seulement par les états «voyous» / terroristes.


Vous imaginez des policiers ou des chirurgiens fabriqués par BostonDynamics ? <img data-src=" />


En matière d’armes de guerre autonomes, puisqu’on en est encore dans la fiction, je recommande la lecture de la nouvelle Nouveau Modèle de Philip K. Dick, adaptée librement en film (assez moyen, mais qui se laisse regarder) Planète hurlante.



Pour en revenir à la triste réalité, en matière d’armes autonomes, rappelons que Samsung en a construites et déployées le long de la frontière de la zone démilitarisée coréenne. Les recherches dans ce domaine existent, comme le montre cette simulation de combat aérien où l’IA prend systématiquement le dessus sur l’humain.








Mimoza a écrit :



Des guerres sans pertes militaires humaines … séduisant.

Déjà que les drones pilotés à des milliers de km réduise considérablement les pertes (pour un camp seulement).

Craintes compréhensible, même si je ne doute pas que de telles armes autonomes soient effectivement développer. Toute la question est de savoir si ça se fera de manière «légal» et par tout le monde ou seulement par les états «voyous» / terroristes.





<img data-src=" /> (sauf à ne se battre que dans des déserts… et même là, on peut croiser des populations)



En outre, la capacité d’envoyer des non-vivants au casse-pipe pourrait augmenter le nombre de guerres (puisque l’effet dissuasif des pertes ne jouerait plus…)



On se rassurera en se disant qu’on n’en est pas encore là mais bon…



“Pour de nombreuses délégations, « il était inacceptable sur le plan éthique de confier à des machines la décision de vie ou de mort d’un être humain sans aucune forme d’intervention humaine ». Les experts en profitaient pour rappeler qu’une machine ne peut pas « mourir » (du moins pas encore) et qu’elles ne devraient donc pas pouvoir disposer de la vie d’un être humain”



Cool. Parce que bien entendu, disposer de la vue d’autrui sur une intervention humaine c’est acceptable, et comme un humain peut “mourir”, lui il peut disposer de la vie d’un autre humain….



On devrait interdire les armes létales. Point.


Vu les moyens qu’il faut pour développer ce style d’armes, les états voyous / terroristes ne seront pas le premiers à les mettre en oeuvre. on retrouvera les habituels exportateurs d’armes.


Les clinkers façon Star Wars première trilogie, c’est pas encore ça si j’ai bien compris…



La question doit être posée, de toute façons.


t’es en mode bisounours aujourd’hui? <img data-src=" />








hellmut a écrit :



t’es en mode bisounours aujourd’hui? <img data-src=" />





attention aussi : Batman ne tue personne mais v’la l’état des mecs qu’il tabasse. Rester dans le coma et/ou tétraplégique toute sa vie n’est pas spécialement plus enviable <img data-src=" />









Drepanocytose a écrit :



On devrait interdire les armes létales. Point.





mais comment le mettre en œuvre si ce n’est avec d’autres armes létales ?<img data-src=" />



Sudo killall risque à l’avenir d’avoir des effets néfastes si on n’y prend garde…



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />


class Human : IDisposable {};



Human target;

target.Dispose();


ça dépend du point de vue.

avoir un ennemi tétraplégique est plus intéressant stratégiquement: le mec va coûter une blinde à entretenir, et le coût psychologique est peut-être même plus élevé que la mort.

d’un autre coté ça fait un cerveau disponible pour expérimenter la transplantation dans un corps mécanique (pour rester dans le thème du cinéma). <img data-src=" />








sephirostoy a écrit :



class Human : IDisposable {};



Human target;

target.Dispose();





Quel optimisme.&nbsp;<img data-src=" />



&nbsp;L’intelligence artificielle peut être très bénéfique, mais comme toute technologie elle comporte également de dangereuses dérives. Je crains à titre personnel que la missive rédigée par toutes ces personnalités ne soient pas considérée à sa juste valeur… ainsi que les mises en garde qu’elles contiennent.



STP

t’es prié de ne pas divulger mon bootloader.



Il est pas encore sous license GPL/BSD/CC








tpeg5stan a écrit :



mais comment le mettre en œuvre si ce n’est avec d’autres armes létales ?<img data-src=" />





faut acheter des actions Nerf



et tu tues ceux qui ne veulent pas se soumettre? ….


Une mine c’est pas déjà une arme létale autonome ?

C’est un peu basique comme IA, elle n’aime pas qu’on lui marche dessus.


Je pense que malheureusement pour la course à l’armement, il n’y a pas de meilleure solution que “Si tu veux la paix, prépares la guerre”.



Personne ne peut se désarmer de nos jours. Parce qu’il faudrait que tout le monde le fasse, sans secret et dans une absolue confiance… infaisable.



Les états vont s’en foutre royalement et généralement, ce genre de lettres ouvertes restent souvent lettres mortes…



Quand à l’utilisation de l’IA, si l’être humain peut en faire une utilisation malveillante, il le fera assurément…








Paratyphi a écrit :



Les états vont s’en foutre royalement et généralement, ce genre de lettres ouvertes restent souvent lettres mortes…



Quand à l’utilisation de l’IA, si l’être humain peut en faire une utilisation malveillante, il le fera assurément…





C’est bien là ce que je crains justement, oui.









WereWindle a écrit :



En outre, la capacité d’envoyer des non-vivants au casse-pipe pourrait augmenter le nombre de guerres (puisque l’effet dissuasif des pertes ne jouerait plus…)



On se rassurera en se disant qu’on n’en est pas encore là mais bon…







Des guerres sans militaires (les contrats suffisent).



On écarte ainsi le risque de tomber sur des connards qui pourraient contrarier les politiques qui ont besoin de remonter dans les sondages ou de renvoyer l’ascenseur à leurs sponsors. Les pleins pouvoirs aux industriels de l’armement, pour un monde meilleur.









Paratyphi a écrit :



Les états vont s’en foutre royalement et généralement, ce genre de lettres ouvertes restent souvent lettres mortes…



Quand à l’utilisation de l’IA, si l’être humain peut en faire une utilisation malveillante, il le fera assurément…







Mon côté parano m’incite à penser que, puisque la supériorité militaire assure la domination, si on en parle c’est que quelqu’un voudrait bien retarder les petits camarades et conserver une avance confortable.









NonMais a écrit :



et tu tues ceux qui ne veulent pas se soumettre? ….





Tu leur petes les jambes et tu les estropiés, avant de les enfermer. Mais tu ne les tue pas









lateo a écrit :



Des guerres sans militaires (les contrats suffisent).&nbsp;



tu sais que les USA ont justement des sociétés privées spécialisées dans la fourniture de mercenaires &nbsp;?



ça avait fait scandale il n’y a pas trop longtemps, à cause des exactions.

La page wp de la boite :&nbsphttps://fr.wikipedia.org/wiki/Academi



il s’agirait pas de tomber dans l’inhumanité, quoi&nbsp;<img data-src=" />


C’est marrant comment les sites anglophones ont eux, titrés cette news généralement en “Elon Musk interpelle l’ONU sur les robots tueurs”.

Rien a battre des autres scientifiques et experts, Elon Dieu s’est exprimé, que la raison soit.


Quelle différence avec des soldats qu’on conditionne pour qu’ils aillent assassiner leurs voisins en pensant rendre le monde meilleur? <img data-src=" />


simple delegation de responsabilite



Et puis comme ca on peut repondre: “mais c’est pas nous qu’on les forme, ils sont pas sous notre responsabilite ma p’tite dame”



Et si les gens ne sont pas contents, on fait un autre contrat avec des mercenaires garantis sans “Exactions” et promis on recommencera plus.


clinkers Clankers



<img data-src=" />



(pour ceux qui chercheraient sur Google de quoi tu parles)


L’intelligence dans l’armée ça donne ça:





  • Vietnam: la plus grosse armée du monde qui répand des armes chimiques en masse (agent orange), incapable de gagner contre des paysans dans leur jungle.

  • Afghanistan: on arme les rebelles (Taliban) à l’état, qui finissent par s’émanciper et partir en croisade (Daech) contre leurs soutiens belliqueux.

  • Libye: on assassine l’état, puis le pays devient la place forte des croisées du dessus, et la porte ouverte de millions de réfugiés qui envahissent l’Europe.



    <img data-src=" /> Les robots tueurs, même programmer par Einstein, ne pourront jamais faire autant d’actions “intelligentes” <img data-src=" />








CryoGen a écrit :



Je pense que malheureusement pour la course à l’armement, il n’y a pas de meilleure solution que “Si tu veux la paix, prépares la guerre”.



Personne ne peut se désarmer de nos jours. Parce qu’il faudrait que tout le monde le fasse, sans secret et dans une absolue confiance… infaisable.







Imaginons que la France se désarme, donc le lendemain l’Angleterre (ou la Belgique <img data-src=" />) envahit la France… et alors, ça change quoi concrètement pour toi? Surtout si il n’y a pas une balle d’échangée? Ils vont faire des fermes d’humain façon Matrix? Non ils vont juste récupérer le système bancaire et les bénéfices du travail des locaux, qui eux n’y verront aucune différence avec leur prédécesseurs <img data-src=" />









Drepanocytose a écrit :



Tu leur petes les jambes et tu les estropiés, avant de les enfermer. Mais tu ne les tue pas







La «reprogrammation volontaire» par le supplice des rats à la 1984 est quand même plus classe.









ProFesseur Onizuka a écrit :



Quelle différence avec des soldats qu’on conditionne pour qu’ils aillent assassiner leurs voisins en pensant rendre le monde meilleur? <img data-src=" />







Un petit nombre de ces humains a des actions décisives en envoyant chier les supérieurs (militaires ou politiques), parce qu’ils ont une conscience. C’est une minorité, mais une possibilité maintes fois vérifiée.









ProFesseur Onizuka a écrit :



Imaginons que la France se désarme, donc le lendemain l’Angleterre (ou la Belgique <img data-src=" />) envahit la France… et alors, ça change quoi concrètement pour toi? Surtout si il n’y a pas une balle d’échangée? Ils vont faire des fermes d’humain façon Matrix? Non ils vont juste récupérer le système bancaire et les bénéfices du travail des locaux, qui eux n’y verront aucune différence avec leur prédécesseurs <img data-src=" />







D’un côté je vois ce que tu veux dire et ce n’est pas con du tout. D’un autre côté, les poneys ne volent pas en faisant des arcs en ciel.









lateo a écrit :



D’un côté je vois ce que tu veux dire et ce n’est pas con du tout. D’un autre côté, les poneys ne volent pas en faisant des arcs en ciel.







Non, ce sont des chats qui font ça.



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />









ProFesseur Onizuka a écrit :



Imaginons que la France se désarme, donc le lendemain l’Angleterre (ou la Belgique <img data-src=" />) envahit la France… et alors, ça change quoi concrètement pour toi?







Concrètement je serai alors obligé de respecter la famille royale… et ca c’est juste pas possible. <img data-src=" />









Commentaire_supprime a écrit :



Non, ce sont des chats qui font ça.



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />





Bah il y a ça qui n’est pas loinhttps://www.youtube.com/watch?v=AMPTTACTho4 <img data-src=" />









Drepanocytose a écrit :



“Pour de nombreuses délégations, « il était inacceptable sur le plan éthique de confier à des machines la décision de vie ou de mort d’un être humain sans aucune forme d’intervention humaine ».





d’aileurs, en lisant ça, je me demandais “combien d’entre eux sont des croyants ?

Après tout “Dieu” est immortel et préside à la mort d’humains… Dans quelle mesure est-ce qu’il y a une espèce d’éthique là-dedans ?

L’argument est complètement con…









127.0.0.1 a écrit :





bof, c’est light les attaques à la famille royale en Belgique :&nbsphttp://www.lalibre.be/actu/belgique/peut-on-impunement-insulter-le-roi-51b88b3ae…



voix de dreadnought dans Warhammer 40K “I will purge the unclean !”


Fermer