La reconnaissance faciale pour combattre la guerre en Ukraine

Le poids des morts, le choc des photos
Droit 14 min
La reconnaissance faciale pour combattre la guerre en Ukraine
Crédits : Scharfsinn86/iStock

La société de reconnaissance faciale ClearView a offert sa technologie au ministère de la Défense ukrainien. Le ministère de l'Intérieur a de son côté publié des centaines de photos de soldats russes morts ou faits prisonniers. Et des experts OSINT utilisent d'ores et déjà la reconnaissance faciale pour identifier des soldats.

Le PDG de la société de reconnaissance biométrique faciale Clearview a déclaré à l'agence Reuters avoir offert gratuitement sa technologie au ministère de la Défense ukrainien afin d'identifier les soldats russes (y compris les morts), les agents russes infiltrés, réunir les réfugiés séparés de leurs familles, et aider le gouvernement à démystifier les infox sur les réseaux sociaux.

L'objectif serait aussi de « contrôler potentiellement les personnes d'intérêt aux points de contrôle, entre autres utilisations », a ajouté Lee Wolosky, conseiller de Clearview depuis avril 2021, et ancien diplomate sous les présidents Barack Obama et Joe Biden.

Hoan Ton-That, le fondateur de Clearview, a précisé que sa startup disposait de plus de 2 milliards d'images extraites du réseau social russe VKontakte, sur une base de données de plus de 10 milliards de photos au total.

Dans un courrier adressé aux autorités ukrainiennes, il rajoutait que sa technologie fonctionnait même si les visages étaient abimés.

Des recherches effectuées par le Laboratoire national d'Oak Ridge du département américain de l'énergie ont démontré que « certaines méthodes inspirées du réseau de neurones à convolution (CNN) fournissent des résultats prometteurs même dans les cas de visages gravement décomposés ».

Une étude sur la reconnaissance faciale automatique pour les urgences humanitaires, la première du genre, avait par ailleurs proposé une méthodologie de reconnaissance de différentes méthodes biométriques basées sur des stratégies d'apprentissage profond basées sur des données issues de migrants décédés en mer Méditerranée :

« Les résultats obtenus sont satisfaisants et suggèrent que les méthodes de reconnaissance automatique basées sur des stratégies d'apprentissage en profondeur pourraient être efficacement adoptées comme outils d'aide à l'identification médico-légale. »

Le ministère ukrainien de la Défense n'a pas répondu aux sollicitations de Reuters, qui souligne cela dit qu'un porte-parole du ministère ukrainien de la transformation numérique avait déclaré qu'il envisageait des offres de sociétés d'intelligence artificielle basées aux États-Unis comme Clearview.

Si Ton-That a déclaré ne pas connaître exactement l'utilisation que ferait le ministère de la Défense de sa technologie, lui et Wolosky ont précisé que d'autres parties du gouvernement ukrainien devraient déployer Clearview dans les prochains jours.

L'Ukraine diffuse déjà des centaines de photos de soldats russes

Elle pourrait ainsi être utilisée pour identifier les centaines de soldats morts et prisonniers de guerre russes dont les photos sont mises en ligne par des représentants du ministère de l'Intérieur de l'Ukraine sur 200rf.com, et sa chaîne Telegram, qui dénombre plus de 840 000 abonnés.

Un second site, invaders-rf.com, répertorie de son côté 389 prisonniers de guerre identifiés avec pour nombre d'entre eux, un lien vers la photo ou vidéo partagée sur la chaîne Telegram.

200rf Ukraine invaders200rf Ukraine invaders

Libération et l'AFP expliquaient fin février que le nombre 200 fait référence au poids en kilos d’un cercueil en zinc avec un corps à l’intérieur et que l’expression « cargaison 200 » est employée dans le jargon militaire – et plus largement dans la société russe – depuis l’époque de l’Union soviétique pour désigner le rapatriement par avion des dépouilles des militaires morts au front. Quant au « rf », il renvoie à «Russian Federation», le nom officiel de la Russie.

Présenté par le ministère ukrainien de l'Intérieur comme un « projet humanitaire visant à informer les proches des personnes tuées sur leur sort », l'objectif est également de permettre aux familles des prisonniers de guerre d'obtenir des nouvelles de leurs proches, mais également de s'en servir comme d'une « arme psychologique ».

CheckNews rappelait cela dit que la diffusion de ces images, qu’elles montrent des prisonniers bien ou mal traités, est strictement interdite par le droit international.

En effet, la Convention de Genève précise ainsi que « les prisonniers de guerre doivent […] être protégés en tout temps, notamment contre tout acte de violence ou d’intimidation, contre les insultes et la curiosité publique. Les mesures de représailles à leur égard sont interdites ».

« Ce que dit le droit humanitaire est très clair. Les prisonniers doivent être traités avec humanité », expliquait à Libé Frédéric Joli, représentant du Comité international de la Croix-Rouge (CICR) à Paris : « Exposer les gens à la curiosité publique peut aussi, dans certaines situations, mettre en péril leur famille, leurs proches ».

Les exhiber « comme des trophées » est évidemment aussi une arme de « propagande », soulignait Ilya Nuzof, directeur du bureau Europe de l’Est et Asie centrale à la Fédération internationale des droits de l’homme :

« On n’avait jamais observé ce phénomène sur une telle échelle. Mais en même temps, on n’avait rarement vu un tel déni d’un Etat belligérant. Les Russes nient le conflit, nient les pertes, ils ne disent même pas qui participe à l’“opération spéciale”. Il y avait en face cette volonté compréhensible de briser le déni russe. »

« Les conventions de Genève imposent traditionnellement des obligations à la charge des parties au conflit –normalement les Etats et leurs forces régulières, leurs combattants », précisait en outre à CheckNews Joanne Kirkham, doctorante en droit des conflits armés à l’Université Paris II Panthéon-Assas :

« Ici, considérant la forte participation des civils aux hostilités [on parle aussi de “levée de masse”], certains d’entre eux se voient appliquer les règles du droit des conflits armés au même titre que les combattants. Ces catégories sont bien entendu relativement plus confuses en fonction des circonstances, surtout dans le conflit ukrainien. »

La Convention de Genève, Internet et Abou Ghraib

Slate rappelle de son côté qu' « en 1949, lorsque cet article a été rédigé, il n'y avait évidemment pas internet, pas de téléviseurs dans les foyers, et que les images disponibles à la diffusion étaient uniquement celles des journaux, des affiches et des actualités cinématographiques » :

« S'il est évident que diffuser des images de soldats maltraités, torturés ou humiliés porte atteinte aux lois de la guerre ("Les prisonniers de guerre ont droit en toutes circonstances au respect de leur personne et de leur honneur", précise l'article 14 de la troisième convention de Genève), nul ne peut nier que la diffusion d'images de soldats russes faisant défection, ou étant bien traités par la population ukrainienne fait partie de l'arsenal des armes psychologiques dont disposent les belligérants. »

« Il n'est pas question d'autoriser sans son accord la divulgation de l'identité d'un soldat prisonnier », précise cela dit l'article. « Cela l'exposerait, lui et sa famille, à des représailles » :

« Mais nous sommes en 2022, pas en 1949. Nous avons, tous, les moyens de relayer des images en floutant des visages. Il est possible d'utiliser les images dont nous disposons pour dénoncer, dévoiler, aider la communication ukrainienne, sans pour autant exciter "la curiosité publique". Plus de soixante-dix ans plus tard, il est temps, non pas d'amender l'article 13 de la troisième convention de Genève, mais de la réinterpréter, et d'encadrer cette réinterprétation. »

Et ce, d'autant que c'est aussi la diffusion par les médias américains de photos de la torture des prisonniers de guerre irakiens par des soldates et des soldats américains à la prison d'Abou Ghraib en 2003 et 2004, « et qui selon les conventions de Genève n'auraient pas dû circuler », qui a poussé les autorités américaines à mettre un terme aux exactions qui s'y déroulaient dans la plus grande impunité.

La reconnaissance faciale est déjà utilisée pour « outer » des soldats

Ces considérations mises à part, le diplomate de Clearview avançait que sa technologie serait plus efficace que le moteur de recherche de visages et outil de reconnaissance faciale gratuit polonais PimEyes, qui prétendait autrefois avoir compilé 900 millions de visages. Présenté comme permettant de vérifier « quels sites web publient des photos de vous », il est d'ores et déjà été utilisé pour identifier des soldats russes.

Wired racontait ainsi la semaine passée comment le PDG de TACTICAL SYSTEMS (TAC-SYS), un organisme français de « formations réservées aux militaires, forces de l'ordre, et professionnels de la sécurité intérieure sur présentation d'un justificatif professionnel », avait ainsi identifié un soldat tchétchène dont Ramzan Kadyrov, le chef de la Tchétchénie, avait posté une vidéo sur Telegram à l'occasion de l'invasion de l'Ukraine.

Dans le thread où il détaille son enquête, @OSINT_tactical explique avoir d'abord utilisé un outil payant russe, FindClone, pour trouver plusieurs autres photos de lui, puis le service d'IA de Microsoft de reconnaissance faciale avancée pour confirmer l'authentification.

Il a ensuite découvert plusieurs photos montrant des selfies du soldat posant en compagnie de Ramzan Kadyrov, ou arborant de nombreuses médailles militaires. Pimeyes lui a ensuite permis de retrouver de très nombreuses autres photos du tchétchène, dont plusieurs en compagnie de Kadyrov, ainsi que son compte Instagram, où il dénombre 293 000 followers, et où il affiche sa véritable identité, son grade et son unité.

« Le simple fait d'avoir accès à un ordinateur et à Internet, vous pouvez fondamentalement être comme une agence de renseignement tout en restant chez soi », explique le PDG de Tac-Sys, qui a demandé à ne pas être identifié pour éviter les répercussions potentielles de son enquête.

Il espère inspirer d'autres personnes afin de permettre de demander des comptes aux combattants en Ukraine ou d'autres conflits : « Plus ces individus sont publiquement identifiés et savent que la communauté OSINT suit leurs mouvements, moins ils risquent de commettre des crimes de guerre », précise-t-il à Wired.

Le groupe ukrainien de renseignement en sources ouvertes (OSINT) InformNapalm a de même identifié deux des prisonniers de guerre et confirmé dans un message à Wired qu'il s'était en partie appuyé sur la reconnaissance faciale.

La reconnaissance faciale peut également être utilisée pour démystifier les allégations d'identification. Le week-end dernier, Tactical Systems et le collectif Bellingcat se sont ainsi tous deux tournés vers le service de vérification faciale de Microsoft après des informations, notamment du journal ukrainien Ukrayinska Pravda, selon lesquelles le visage bandé d'un homme qui serait un pilote russe abattu en Ukraine correspondait à celui d'un pilote photographié aux côtés de Vladimir Poutine dans une photo d'actualité syrienne de 2017.

Or, et contrairement au soldat tchétchène, les algorithmes de Microsoft ont calculé un faible score et estimé que les visages ne correspondaient pas. @OSINT_Tactical avait en outre trouvé d'autres photos du pilote photographié à côté de Poutine, et précisait dans son thread qu'il ne fallait pas se fier aux seules technologies, notant certains détails que seuls des êtres humains pourraient reconnaître.

Wired rappelle que Bellingcat inclut d'ailleurs des conseils sur l'utilisation des outils de reconnaissance faciale dans ses guides et manuels d'enquêtes OSINT. Le groupe avait aussi crédité FindClone dans un rapport de 2019 ayant identifié plusieurs personnes qui auraient été impliquées dans la destruction d'un vol de la Malaysian Airlines au-dessus de l'est de l'Ukraine en 2014.

Même les meilleurs algorithmes peuvent se tromper

Si la reconnaissance faciale a d'ordinaire plutôt tendance à faire peur dès lors qu'elle est utilisée par les forces de l'ordre et les autorités, Wired relève qu'a contrario le thread d'@OSINT_Tactical a été recueilli plutôt chaleureusement.

Jameson Spivack, associé au Centre sur la confidentialité et la technologie de Georgetown, explique cela dit à Wired que « les préoccupations concernant les utilisations gouvernementales de la technologie s'appliquent également lorsqu'elle est utilisée pour des identifications dans une Ukraine déchirée par la guerre » :

« La première est que la reconnaissance faciale fonctionne de manière peu fiable sur des images qui ne capturent pas les gens de front, une limitation pour les détectives de la police et ceux qui se procurent des images dans les zones de guerre. Un autre est les conséquences involontaires potentielles d'identifications correctes ou incorrectes. Les individus qui utilisent la technologie n'ont pas le pouvoir de l'État derrière eux comme les forces de l'ordre, mais Internet peut mettre le pouvoir collectif de la foule derrière eux. »

@OSINT_Tactical est d'accord, et précise qu'il prend toujours soin d'étayer les évaluations des algorithmes par d'autres indices visuels ou des informations contextuelles. Dans le cas du Tchétchène barbu, une encoche distinctive dans la barbe de l'homme lui avait permis de confirmer certaines correspondances, à l'instar des détails lui ayant permis d'authentifier le pilote russe.

Dans une autre enquête, Wired revient d'ailleurs sur « le rôle caché de la technologie de reconnaissance faciale dans de nombreuses arrestations ». Une utilisation qui peut s'avérer kafkaïenne à mesure que dans la plupart des États américains, « ni la police ni les procureurs ne sont tenus de divulguer quand la reconnaissance faciale est utilisée pour identifier un suspect », empêchant les avocats de questionner le recours à de telles technologies, ainsi que les potentielles erreurs afférentes : 

« Cela soulève également des questions d'équité, puisque des études ont montré que les systèmes de reconnaissance faciale sont plus susceptibles de mal identifier les personnes qui ne sont pas des hommes blancs, y compris les personnes à la peau foncée, les femmes et les jeunes. »

Dans un rapport de 2019, le centre de Georgetown a déclaré, souligne Wired, que « la police de New York avait procédé à plus de 2 800 arrestations à la suite de recherches de reconnaissance faciale entre 2011 et 2017 ». L'année dernière, BuzzFeed News avait de son côté rapporté que les forces de l'ordre de 49 États et plus de 20 agences fédérales avaient au moins testé les produits de technologie de reconnaissance faciale de Clearview AI.

Les taux d'erreur ont chuté de 90 % depuis que l'Institut national des normes et de la technologie (NIST) a commencé à tester les systèmes en 2018, explique à Wired Patrick Grother, du groupe Image du NIST qui évalue les logiciels de reconnaissance des empreintes digitales, de l'iris et du visage.

Pour autant, le test le plus récent du NIST, qui repose en grande partie sur une base de données de photos de haute qualité, a révélé que même les meilleurs algorithmes peuvent se tromper plus de 20 % du temps...

Wired rappelle à ce titre dans une troisième enquête que ce type d'erreurs et de biais ont d'ores et déjà entraîné l'arrestation de plusieurs afro-américains l'an passé, identifiés à tort par un logiciel de reconnaissance biométrique faciale utilisé par la police américaine.

Ton-That a d'ailleurs précisé à Reuters que Clearview ne devrait jamais être utilisé comme seule source d'identification, mais également qu'il ne voudrait pas que la technologie soit utilisée en violation des Conventions de Genève.

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Abonné
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !