La Chine industrialise la reconnaissance faciale (et raciste) des Ouïghours

Ethnic Minority Report
Droit 8 min
La Chine industrialise la reconnaissance faciale (et raciste) des Ouïghours
Crédits : imaginima/iStock

Huawei a testé une intelligence artificielle de reconnaissance faciale capable de reconnaître les Ouïghours et d'alerter la police, selon un rapport découvert par le spécialiste de la vidéosurveillance IPVM et partagé avec le Washington Post. D'autres industriels chinois proposent des systèmes totalitaires similaires. 

Le document, estampillé « confidentiel, interdit de diffusion sans autorisation », a été retiré du site web européen de Huawei où IPCM l'avait trouvé via une requête Google. Il révèle que le géant chinois des télécoms avait travaillé en 2018 avec la start-up de reconnaissance faciale Megvii pour tester un système de vidéosurveillance capable de scanner des visages dans une foule et de prendre en charge la « reconnaissance basée sur l'âge, le sexe, l'appartenance ethnique et l'angle des images faciales » :

IA Ouïghours

Le système reposait sur un mélange de logiciels de Megvii et de caméras de vidéosurveillance, serveurs, équipements réseau, plate-forme de cloud computing et autres matériels et logiciels de Huawei.

Il aurait réussi ces tests, y compris sa capacité à prendre en charge des « alarmes ouïghours » afin de potentiellement les signaler à la police en Chine, où des membres du groupe ont été détenus en masse dans le cadre d'une répression gouvernementale brutale. Les chercheurs estiment que plus d'un million d'Ouïghours y ont été ou sont encore détenus dans des « camps de rééducation ».

IA Ouïghours

Le rapport précisait également que le système était capable de prendre des instantanés en temps réel des piétons, d'analyser les vidéo et de rejouer les dix secondes de séquences avant/après la détection de tout visage ouïghour.

« Notre activité est axée sur le bien-être et la sécurité »

Les deux sociétés ont reconnu que le document était réel. Le porte-parole de Huawei, Glenn Schloss, a déclaré qu'il « est simplement un test et n'a pas vu d'application dans le monde réel. Huawei ne fournit que des produits à usage général pour ce type de test. Nous ne fournissons pas d'algorithmes ou d'applications personnalisés ».

Megvii a répondu à IPVM que « nos solutions ne sont pas conçues ou personnalisées pour cibler ou étiqueter des groupes ethniques. Notre activité est axée sur le bien-être et la sécurité des individus, et non sur la surveillance de groupes démographiques particuliers ».

Le document ne fournissait pas d'informations sur l'endroit ou la fréquence d'utilisation du système, mais des systèmes similaires sont utilisés par les services de police à travers la Chine, selon des documents officiels analysés l'an passé par le New York Times, qui a trouvé un système municipal ayant scanné des visages ouïghours un demi-million de fois en un seul mois.

IPVM précise que Megvii est répertorié comme partenaire certifié « Huawei Enterprise Partner », et le géant des télécoms affirme que le logiciel de reconnaissance faciale de l'entreprise serait utilisé pour « prévenir le crime et créer une atmosphère sociale harmonieuse ».

Un taux d'erreur acceptable jusqu'à 30%

IPVM avait de son côté identifié l'an passé une douzaine de départements de la République populaire de Chine déployant la technologie de reconnaissance des visages ouïghours.

IA Ouïghours

Le risque d’erreurs en termes de reconnaissance du sexe, de l'âge, de l'ethnicité ouïghoure, de port du masque ou de lunettes est assumé par les autorités, à en croire un projet de directive gouvernementale sur la reconnaissance faciale du ministère de la Sécurité publique qui, en décembre 2017, n'exigeait qu'une précision de 70 %.

IPVM avait également découvert que les trois plus grands fabricants de caméras de sécurité de la RPC proposent tous cette technologie explicitement raciste. En 2018, il avait documenté qu'Hikvision avait remporté un contrat de 53 millions de dollars pour la construction d'un « système de reconnaissance faciale de masse » déployé dans une province, des mosquées et des camps de rééducation du Xinjiang.

IA Ouïghours

Un système « aussi racial que l’apartheid en Afrique du Sud ».

Human Rights Watch avait révélé que le CETC, la société mère d'État de Hikvision, y déployait également une « Plate-forme d'opérations conjointes intégrées » (IJOP) composée de systèmes d'apprentissage automatique, des informations provenant de caméras, smartphones, dossiers financiers et de planification familiale, consommation d'électricité inhabituelle pour générer des listes de suspects à renvoyer dans les camps de rééducation.

Un projet qualifié de « terrifiant » par The Economist, et d'« aussi racial que l’apartheid en Afrique du Sud ». En 2019, suite à un autre article d'IPVM, Hikvision avait elle aussi retiré de son site web une page vantant un système de vidéosurveillance et d'intelligence artificielle capable d'analyser le sexe, l'appartenance ethnique (comme les Ouïghours, les Han) et la couleur de la peau (comme le blanc, le jaune ou le noir) des personnes ciblées, mais également si elles portaient lunettes, masques, casquettes ou barbes, « avec un taux de précision d'au moins 90% ».

IA Ouïghours

Le mois dernier, son concurrent Dahua avait lui aussi retiré de son site web un document révélant que son SDK comportait une ligne « EM_NATION_TYPE_UYGUR » 30 minutes après qu'IPVM l'ait interrogé à ce sujet.

Mi-novembre, IPVM découvrait par ailleurs qu'Uniview, troisième plus grand fabricant de vidéosurveillance de la RPC et l'un des principaux fournisseurs de projets de police en Chine, disposait lui aussi d'un logiciel raciste utilisé pour identifier les Ouïghours.

« Uniview croit sincèrement au Tech for Social Good »

En réponse à ses questions, l'entreprise lui a répondu qu'« Uniview croit sincèrement à la technologie pour le bien social ("Tech for Social Good") et applique sincèrement son code d'éthique non seulement en interne avec son "Ethic Panel" (tout comme Google et d'autres sociétés de haute technologie réputées) mais également en externe avec tous les produits et services fournis ».

Jonathan Frankle, chercheur en apprentissage profond au laboratoire d'informatique et d'intelligence artificielle du Massachusetts Institute of Technology, a expliqué au Washington Post que de tels systèmes devenaient clairement une priorité parmi les développeurs désireux de capitaliser sur la capacité technique de pouvoir classer les personnes par ethnicité ou race :

« Les gens ne se donnent pas la peine de construire des systèmes coûteux comme celui-ci pour rien. Ce ne sont pas des gens qui brûlent de l'argent pour s'amuser. S'ils l'ont fait, c'est pour une raison très claire. »

Le flot de données d'images faciales provenant de foules publiques, a-t-il ajouté, pourrait être utilisé pour développer davantage la précision et la puissance de traitement des systèmes. En Ouganda, les caméras de reconnaissance faciale Huawei ont ainsi déjà été utilisées par la police et les responsables gouvernementaux pour surveiller des manifestants et des opposants politiques.

Les « caractéristiques faciales » de la « reconnaissance ethnique »

En 2018, des chercheurs chinois en IA avaient déjà conçu des algorithmes capables de distinguer les « repères faciaux » des visages ouïghours, coréens et tibétains, qu'ils avaient présenté dans un article intitulé « Découverte des caractéristiques faciales pour la reconnaissance de l'appartenance ethnique ».

Mais le logiciel avait suscité de grands débats éthiques à mesure qu'il pourrait entraîner discriminations, profilages et punitions. De plus, le système était susceptible de renvoyer des résultats inexacts, car ses performances variaient considérablement en fonction de l'éclairage, de la qualité de l'image, et parce que la diversité des ethnies et des origines des personnes n'est pas si clairement décomposée en groupes simples.

Huit entreprises chinoises, dont Megvii, Dahua, Hikvision, NetPosa et Sense Time, avaient été frappées de sanctions par le département américain du Commerce l'année dernière pour leur implication dans « des violations des droits de l'homme et des abus dans la mise en œuvre de la campagne de répression, de détention arbitraire de masse et de surveillance de haute technologie de la Chine » contre les Ouïghours et autres groupes minoritaires musulmans.

Paradoxalement, relève IPVM, cela avait précisément permis de renforcer les parts de marchés d'Uniview, le seul à ne pas avoir été sanctionné. En soutien aux Ouïghours, Antoine Griezmann vient pour sa part de rompre son partenariat avec Huawei. L'attaquant de Barcelone avait un contrat d'ambassadeur de la marque depuis 2017.

« Suite aux forts soupçons selon lesquels l'entreprise Huawei aurait contribué au développement d'une « alerte ouïghour » grâce à un logiciel de reconnaissance faciale, j'annonce que je mets un terme immédiat à mon partenariat me liant à cette société », explique le champion du monde 2018 sur son compte Instagram.

Il invite en outre Huawei « à ne pas se contenter de nier ces accusations concrètes pour condamner cette répression de masse et user de son influence pour contribuer au respect des droits de l'homme et de la femme au sein de la société ».

En réponse à un article des Numériques, Huawei a, de fait souhaité exercer un droit de réponse expliquant que « Huawei ne contribue pas à l’aspect serviciel qui détermine comment les solutions technologiques à usage général sont utilisées. En outre, l’article du Washington Post fait référence à un test qui n’a pas eu d’utilisation commerciale. Nos produits et solutions sont en conformité avec les normes de l’industrie et les règlementations concernées. »

Comme nous le relevions ce matin, deux parlementaires américains ont écrit à Intel et Nvidia qui voudraient savoir « s’ils savaient que leurs technologies seraient utilisées pour soutenir des activités de surveillance menées par les forces de l’ordre chinoises, et s’ils avaient pris des mesures pour s’assurer que leurs produits n’étaient pas utilisés pour violer des droits de l’homme ou pour compromettre la sécurité nationale des États-Unis ».

Une requête aux mots « Uyghur nvidia OR intel » sur IPVM.com renvoie à 53 articles. L'un d'entre-eux, daté de décembre 2019, déplorait que les IA de reconnaissance faciale chinoise dépendaient d'Intel et Nvidia, ce qu'Intel avait déploré, mais pas Nvidia.

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Abonné
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !