L'irrésistible banalisation de la reconnaissance faciale

Bavures 2.0
L'irrésistible banalisation de la reconnaissance faciale
Crédits : imaginima/iStock

https://www.nextinpact.com/article/47705/lirresistible-banalisation-reconnaissance-facialeAlors qu'il est question de tester la reconnaissance faciale en prévision des Jeux olympiques 2024, un think tank parrainé par le ministère des Armées vient de publier un rapport roboratif tout autant qu'inquiétant décrivant pourquoi « la France ne peut se contenter d'être spectatrice et laisser faire », mais passer à l'offensive en la matière.

Les Jeunes IHEDN se présente comme « la première association européenne et générationnelle sur les questions d’engagement, de défense et de sécurité ».

« Placée sous le double parrainage de la ministre des Armées et du chef d’état-major des Armées », elle regroupe les auditeurs jeunes formés par l’Institut des hautes études de défense nationale (IHEDN) et propose de « faire émerger des solutions concrètes et durables » via, notamment, l'organisation d'évènements et la rédaction de publications.

Fruit de plus d'un an de travail et de réflexions d'une « task force » de 23 membres des Jeunes IHEDN pilotée par deux des 15 membres du comité directeur de l'association (par ailleurs « senior advisor » à la Direction interministérielle du numérique – DINUM – et ingénieur système chez Safran, ex-leader de la biométrie), son rapport « Reconnaissance faciale : 23 propositions pour ne pas avancer masqués ! » a été rendu public début juin. 

Au-delà du jeu de mots, le rapport se positionne d'emblée, dès son introduction, dans un rapport de force stratégique, géopolitique, « dans l'unique but de "gagner le futur" ».

Or, on ne gagne pas une guerre sans gagner l'opinion publique. Le combat se joue donc aussi sur les termes du débat, voire sur les mots. En l'espèce, et de façon somme toute emblématique, le rapport parle ainsi tout autant de « reconnaissance faciale » que de « RF », acronyme bien moins lourd de sens et, pour ainsi dire, banalisé.

Tout en se disant conscient du fait que le sujet est « stratégique, complexe et fortement polémique », le co-pilote de la task force n'hésite d'ailleurs pas à titrer sa contribution « Big brother is watching you ».

Signe d'une approche totalement décomplexée, et que l'expression est à prendre au premier degré, cette référence à la novlangue du roman de George Orwell 1984 mentionne dans la foulée le tour de passe-passe ayant consisté à substituer le terme « vidéosurveillance » par celui de « vidéoprotection » pour désigner les caméras déployées dans l'espace public.

À l'en croire, cela suffirait à rassurer, car « l'approche est totalement différente : il n'y a plus de peur et de surveillance de masse mais plutôt de mise en sécurité de la population pour la protéger contre des individus dangereux ».

La France ne peut rester spectatrice de la « Dicta-tech »

L'approche de la task force est donc non seulement décomplexée, d'un point de vue sécuritaire, mais également volontariste, pour ne pas dire offensive, voire « paramilitaire », à la manière d'une armée va-t-en-guerre.

La question ne serait en effet pas tant de savoir si l'exploitation de la reconnaissance faciale dans l'espace public serait pertinente, efficace, souhaitable, ou pas, mais de se doter des moyens de l'y déployer, afin de maintenir – voire élever – la place de la France dans le concert des nations technologiquement avancées :

« Avec une guerre technologique entre les États-Unis et la Chine qui va structurer le monde de demain (et qui le structure déjà), la France ne peut se contenter d'être spectatrice et de laisser faire. Pour conserver son statut de puissance à l'international, elle doit apporter une réponse complète au sujet de la reconnaissance faciale.

Dire non à ces avancées serait se placer en retrait vis-à-vis des pays asiatiques et des États-Unis et impliquerait, par exemple, de ne plus participer à l'élaboration des standards internationaux sur les intelligences artificielles ou les télécommunications. »

À l'inverse, relève cela dit le rapport, « dire oui à la reconnaissance faciale (RF) sans en mesurer toutes les conséquences (atteinte aux libertés individuelles, éthique) serait aussi une réponse bien trop légère pour un sujet avec autant d'enjeux. Dire oui à la reconnaissance faciale de cette manière reviendrait à mettre en place (à terme) une "Dicta-tech" comme on la connaît en Chine avec des points de notation des citoyens. »

L'objectif de cette task force ne serait donc pas tant de se positionner « pour » ou « contre » la reconnaissance faciale, mais de « faire prendre conscience aux jeunes Français qu'un tel sujet ne s'aborde pas à la légère et que le négliger mettra en danger nos modes de vie » :

« Peut-on faire sans ? Non, certainement, l'innovation biométrique et le développement de la reconnaissance faciale s'ancrent dans nos habitudes mais, à la différence d'Internet remplaçant le minitel, nous n'avons aucune base de laquelle partir pour appréhender cette technologie dont nous découvrons chaque jour les potentialités. »

Ce pourquoi la task force s'était donnée pour objectif « d'accompagner la technologie, d'anticiper ses dévoiements [et] de produire un cadre d'utilisation éthique ». Ses 23 propositions, écrit-elle, « ne seront peut-être que des gouttes d'eau dans le brasier ardent qu'est la reconnaissance faciale mais nous espérons qu'elles feront émerger un débat constructif sur le sujet. »

Si l'on peut s'étonner que le rapport de 111 pages ne contienne ni note de bas de page ni lien cliquable permettant de vérifier, recouper ou prolonger ses constats, qu'il soit rédigé avec une police de caractère grisâtre et mal lissée ne facilitant guère la lisibilité, et que le pdf ait été exporté d'une Présentation PowerPoint sous forme d'image et non de texte, sa lecture esquisse plusieurs des termes des débats et enjeux, auxquels nous serons probablement confrontés à l'aune des Jeux olympiques 2024, et probablement au-delà.

Notre dossier sur le rapport Reconnaissance faciale des Jeunes IHEDN : 

Les véritables incitateurs de la mécanique sécuritaire

En termes de reconnaissance faciale dans l'espace urbain, le rapport dresse ainsi de biens sombres perspectives, tant d'un point de vue technique, sociétal que politique. S'il évoque les problèmes de standardisation internationale (qui avaient contribué à l'arrestation d'un innocent, au motif que ses empreintes digitales présentaient des caractéristiques similaires à celles de Xavier Dupont de Ligonnès) et de biais racistes et sexistes (la reconnaissance faciale étant moins performante vis-à-vis des femmes et des personnes de couleur), c'est son instrumentalisation politique qui poserait le plus de questions.

Il prend ainsi « le cas de Nice » en exemple, qualifié de « particulièrement révélateur ». Non seulement parce que le fief de Christian Estrosi est pionnier en matière de technologies sécuritaires, « mais aussi et surtout parce qu'il met en exergue le fait que ce n'est pas tant la municipalité qui est "moteur" mais principalement les fournisseurs de "safe cities" offrant des solutions de sécurité ».

Or, soulignent les auteurs du rapport, si des entreprises privées vont jusqu'à offrir leurs services « à titre gracieux », comme l'a fait Huawei à Valenciennes par exemple, c'est non seulement pour s'en servir comme de « vitrines », mais également pour entraîner leurs algorithmes.

Les industriels sont à ce titre qualifiés de « véritables incitateurs à l'origine de la mécanique sécuritaire », qu'accueillent de façon généralement fort opportuniste certains élus à des fins électoralistes, voire populistes :

« Nice a en effet été détectée par ces fournisseurs de sécurité comme un terreau idéal car on y trouve une base électorale, sociale et financière favorable aux politiques sécuritaires. Cette vitrine fait et fera office de relais vers d'autres communes clientes en France qui adopteront, en retour, un dérivé de l'ADN sécuritaire de la "ville mère", Nice. »

Vers une accentuation brutale de la fracture sociétale

Mais c'est du côté de la fracture sociale que le rapport devient inquiétant : « progressivement, les municipalités entreront dans un jeu à somme nulle qui consistera à surveiller de manière plus intensive sa ville que sa proche voisine ne le fait » :

« Cela pourrait entraîner par voie de conséquence un effet de déportation spatiale des actes délinquants vers le ou les maillons les plus faibles par ajustement comportemental des délinquants. Ainsi, faute d'attaques dans les lieux surveillés, la délinquance se développera peut-être de façon plus insidieuse au sein des villes alentours moins surveillées, ou de manière plus générale dans les lieux où il n'existe pas de technologie de surveillance : immeubles, sous-sols et caves à défaut d'attaques dans les rues. »

Dès lors, « les "bons chiffres" de la délinquance seront à relativiser et une extrême prudence quant à l'évaluation de ces résultats sera nécessaire, sinon obligatoire ». Ces dernières années, de plus en plus de communautés de communes, voire même de petits villages, se sont ainsi dotés de caméras de vidéosurveillance, au motif que les grandes et moyennes villes d'à côté s'en étaient elles aussi dotées, repoussant notamment les cambrioleurs dans les petites contrées.

Et ce, quand bien même aucune évaluation n'a toujours été faite de l'efficacité de la vidéosurveillance, plus de 25 ans après qu'elle a été retirée du périmètre de la CNIL, afin d'encourager son extension.

Le rapport propose dès lors d'« anticiper l'accentuation brutale de la fracture sociétale qui s'effectuera entre les zones avec et sans reconnaissance faciale » :

« Il y a fort à parier que les zones avec la reconnaissance faciale seront plus sûres, mieux protégées que les zones sans. Les villes qui disposent de la reconnaissance faciale se verront fréquentées par une catégorie sociale aisée et qui souhaite s'entourer de personnes similaires. Les villes sans seront réservées à des classes en difficulté où les actes de délinquance seront courants. »

Il propose en outre de « préciser clairement comment sont obtenus les chiffres d'actes de délinquance avec l'aide de la reconnaissance faciale ou sans (dépôt de plainte, témoin...) », afin de pouvoir prendre du recul sur ces chiffres et « ne pas engendrer de polémiques inutiles » avec les mouvements contestataires.

La notion de consentement est moins complexe avec les étudiants

Pour autant, le rapport devient bien plus arrangeant au sujet du recours à la reconnaissance faciale dans le monde de l'éducation. Et ce, au motif qu'« à l'heure où les usages et pratiques numériques des jeunes générations explosent, la reconnaissance faciale commence à vouloir investir le secteur, d'abord à l'étranger (en Chine ou aux États-Unis par exemple) et progressivement en France avec des établissements qui souhaitent expérimenter la technologie ».

Le rapport liste ainsi une série d'« opportunités » d'ores et déjà explorées en Chine et aux États-Unis. À commencer par ses usages sécuritaires, de sorte de « contrôler l'identité des personnes, notamment des élèves, pour se prémunir d'intrusions malveillantes, de surveiller les allées et venues des élèves dans l'établissement, de mieux réguler les effets de foules et de limiter les risques de sécurité ».

Constatant qu'en Chine, la reconnaissance faciale sert aussi à « surveiller les comportements, l'état émotionnel ou encore le niveau de concentration des élèves », le rapport en conclut que « les données recueillies deviennent ensuite un moyen d'optimiser les enseignements et d'adapter la pédagogie »... Et ce, sans faire montre d'aucun recul critique quant au fait qu'elle servirait aussi et surtout à contrôler les comportements des élèves, bien plus qu'à « optimiser et adapter la pédagogie ».

Partant du postulat que « l'usage de la reconnaissance faciale étant de plus en plus développé auprès des jeunes, notamment à travers les smartphones », la task force estime qu'« à l'avenir, la question se posera aux établissements ».

Estimant au surplus que « la notion de consentement s'avère être moins complexe pour des publics étudiants que pour des écoliers, collégiens et lycéens, nous jugeons ainsi intéressant de mener une expérimentation au sein de quelques universités pour l'authentification » afin de « développer des cas d'usage relatifs au quotidien des étudiants ».

Du régime de Vichy à l'« exemple chinois »

Les auteurs du rapport soulignent par ailleurs qu'« en France, le rejet de toute forme de surveillance de l'état est particulièrement fort depuis les années sombres de la collaboration du régime de Vichy ».

Ce pourquoi il lui semble « fondamental » d'encadrer et limiter les usages de cette technologie, en vue d'« assurer un plus grand soutien de la population et permettre le développement de ce secteur d'activité ». La task force file même un délicieux lapsus :

« À prendre l'exemple chinois, il paraît essentiel de retenir que la confiance intra-gouvernementale est primordiale. Cette confiance est politique mais réside principalement dans la sécurité des systèmes d'information. (...) À l'instar de la Chine, il semblerait que cette souveraineté ne pourrait être garantie sans indépendance technologique et influence réglementaire internationale. »

Le rapport n'en relève pas moins que les potentielles dérives liées à l'usage de la reconnaissance faciale « engendrent un climat anxiogène au sein de la population », au point qu'« une majorité de la population » y est réticente, et qu'ils « ont conduit à un retard dans l'adoption de cette technologie par certaines entités » :

« Toutefois, une interdiction générale du recours à la RF empêcherait le développement de la recherche et de l'innovation en Europe et en France. Ainsi, le cadre juridique existant apparaît insuffisant pour garantir une balance entre l'intérêt public majeur du recours à la RF et la protection des droits et libertés fondamentales. »

Faudra-t-il établir des frontières sur Internet ?

En attendant une proposition de règlement européen, le rapport souligne qu'« en matière de souveraineté, la France possède un retard cumulatif sur ces technologies » par rapport à la Chine, Israël et les États-Unis, les trois pays les plus « moteurs » sur ces sujets.

De plus, et de même qu'une recherche sur Internet entraîne l'envoi de paquets vers différents noeuds répartis dans le monde « et donc par corollaire différents États soumis à des lois qui leur sont propres », l'utilisation de réseaux publics « soulève une problématique très sérieuse en matière de souveraineté et du contrôle de ces flux d'images, tant pour les États que pour leur population respective » :

« Arrivera-t-on à gérer tous ces flux d'images en tant que flux télécom, c'est-à-dire pourra-t-on tracer leurs parcours et assurer leur authenticité et leur non-répudiation le cas échéant ? Faudra-t-il établir des frontières vis-à-vis des données des utilisateurs qui transitent sur Internet ? »

Les membres de la task force estiment qu'« il faudra également anticiper la collecte et l'exploitation de données opérationnelles par des acteurs étrangers, en se questionnant sur les conséquences quant au recours à des technologies étrangères dans le cadre d'usages policiers ou de "safe cities" qui, rappelons-le, par leur nature, permettent un déploiement et une surveillance à grande échelle. »

Se protéger de la Chine, s'inspirer de la Russie

Si « le déploiement de la RF en France alimente les débats en raison des risques pesant sur la protection des données, des risques sont également liés à son non-usage », relève le rapport. La task force estime à ce titre que « l'indispensable mise en place de la RF en France nécessiterait des réformes », afin d'asseoir la souveraineté des technologies et données françaises et européennes.

Il s'agirait en effet d'une part de se prémunir des « mécanismes juridiques mis en place en Chine » afin d'obliger les entreprises étrangères à divulguer leur propriété intellectuelle à leurs concurrents chinois.

D'autre part de s'inspirer de la loi sur la protection des données russe obligeant les opérateurs de données personnelles à stocker et traiter toutes les données des citoyens russes dans des bases de données situées en Russie :

« Le développement de l'intelligence artificielle et plus particulièrement la RF renvoie à la sauvegarde de la souveraineté de la France et de l'autonomie stratégique de l'Union européenne. Si l'Union européenne et la France deviennent totalement dépendantes technologiquement de produits tiers en matière de RF, le risque de se voir appliquer un droit extraterritorial de pays tiers limite les garanties européennes de protection des données personnelles envisagées. Par exemples, le "Patriot Act" et le "Cloud Act' limitent la portée des dispositions du RGPD et à la directive Police-Justice. »

Mesurer le degré d'acceptabilité de la population

S'ensuit une liste de 7 ambitions totalisant 23 propositions, censées « faire émerger un débat constructif sur la reconnaissance faciale pour y apporter une réponse complète [et] permettre à la France de retrouver une posture internationale dans ce domaine et plus généralement celui du numérique ».

Afin de « sensibiliser la population française à la reconnaissance faciale », les auteurs du rapport proposent tout d'abord de s'inspirer du développement, « en quelques mois », de l'application TousAntiCovid, pour développer une application destinée à « permettre à l'État de consulter régulièrement et facilement ses [sic] citoyens [...] sur n'importe quel sujet dont la reconnaissance faciale ».

Ils suggèrent ensuite de « multiplier les expérimentations », afin d'« accélérer la mise en place d'un cadre réglementaire », de « ne pas avoir de retard technologique et de poser le périmètre d'utilisation de la technologie ». Ainsi que, in fine, de « maintenir la France à un niveau technologique élevé et donc de disposer d'arguments solides pour débattre du sujet avec des pays comme la Chine » :

« Sans ces arguments, il nous sera impossible de participer à la création des futurs standards internationaux et donc de maintenir la présence de la France sur la scène internationale. Implémenter une technologie sans l'avoir suffisamment expérimentée ou en avoir la maîtrise mettrait en péril l'ensemble du pays (tissu industriel français, modes de vies...) ».

Cette phase d'expérimentation est qualifiée de « primordiale » pour « juger de la maturité de la technologie » mais aussi pour « mesurer le degré d'acceptabilté de la population ». Ce pourquoi le rapport propose aussi d'« évaluer le ressenti à chaud et à froid de la population lors des expérimentations sur des cas d'application précis (métro, bus, gares, aéroports...) ».

Le document estime en effet que le secteur des transports « pourrait être le bon terrain de jeu » (sic) parce que « le fait que l'usager ait le choix d'utiliser ou non la reconnaissance faciale lui permet de ne pas se sentir contraint et d'évaluer par lui-même le gain d'efficacité, de rapidité ou de fiabilité que peut offrir une telle technologie ».

Atténuer l'« endoctrinement » et la « propagande »

Afin de « former la population française quels que soient sa catégorie sociale et son âge », le rapport suggère par ailleurs de « donner aux élèves, dès la classe de 6e, les éléments pour décoder le monde dans lequel ils évoluent et qui ne ressemblera en rien à celui que nous connaissons » :

« À mesure qu'ils progressent, les élèves doivent aussi prendre connaissance de leurs droits et devoirs sur internet. Quelles sont leurs données personnelles ? Pourquoi sont-elles critiques ? Autant de questions qui devront être abordées à mesure que le numérique avance. »

La task force propose en outre de faire de l'« information [sic] continue hors de l'école via des médias/réseaux sociaux et personnalités publiques/influenceurs) », mais également de créer un MOOC afin de définir les « termes utilisés (vidéoprotection et vidéosurveillance, espace privé et espace public.) mais également les opportunités et risques associés » :

« Afin d'atténuer tout sentiment "d'endoctrinement" ou de "propagande" par les personnes les plus réfractaires au sujet du recours à la RF, il s'agirait de proposer des formations objectives et continues aux influenceurs afin de leur faire prendre conscience des enjeux de l'éducation numérique ainsi que leur rôle. »

À défaut de détailler en quoi pourrait constituer une « formation objective » à destination d'« influenceurs », elle aimerait également lancer une campagne de sensibilisation visant à « informer et mettre en balance les bénéfices/risques de IA et comment limiter les mésusages ».

Seraient tout particulièrement ciblés les risques de désinformations (intentionnelles) et mésinformations (parce qu'« incomplètes, erronées ou obsolètes ») susceptibles de « faire dire des choses fausses à une personnalité politique avec le réalisme d'une interview en direct à des fins de déstabilisation d'un parti, d'une personne, d'une démocratie ».

Créer une Silicon Valley européenne

« La France regorge de talents et ils sont trop nombreux à fuir à l'étranger », déplore la 9e proposition, qui vise à lutter contre cette fuite des cerveaux en doublant le salaire des chercheurs et salariés ès-intelligence artificielle. Elle dénonce en outre « le manque d'accès aux données pour développer les technologies d'IA » :

« Les chercheurs et praticiens ont besoin d'avoir accès à des bases de données importantes dont nous ne disposons pas en France (ou pour lesquelles l'accès est limité de par le cadre législatif) pour pouvoir évaluer leurs algorithmes. »

« Plutôt que de faire appel à des entreprises étrangères pour réaliser les expérimentations de la RF », elle propose par ailleurs de « faire émerger une véritable industrie de l'IA aussi stratégique que l'industrie de défense » :

« Pour chacune de ces start-ups et entreprises sollicitées, ces dernières doivent être identifiées comme stratégiques pour la souveraineté de la France en matière de reconnaissance faciale. Cela implique qu'aucun rachat ou investissement supérieur à 50 % [ne] doit être réalisable. »

Ne reculant devant rien, la task force appelle également « à créer une Silicon Valley européenne, un technopôle rassemblant l'ensemble des acteurs européens d'intérêt dans le domaine du numérique et permettant de développer des technologies d'avenir comme la reconnaissance faciale ».

« Beaucoup de métiers que nous connaissons aujourd'hui vont disparaître et d'autres n'existent pas encore », relève-t-elle au surplus. Elle estime dès lors que, « face à la vitesse de transformation, les salariés doivent s'adapter et apprendre à développer de nouvelles compétences ».

Anticiper la fracture entre les villes avec et sans caméras

Anticipant les risques de ghettoïsation sécuritaire d'une part, de montée du sentiment d'insécurité d'autre part, que cette inflation technologique ne pourra qu'engendrer, la task force propose aussi d'« anticiper la fracture entre les villes avec et sans caméras de vidéosurveillance basées sur la reconnaissance faciale dans le cas de la mise en place de cette technologie à des fins sécuritaires » :

« Les zones avec la reconnaissance faciale seront plus sûres, mieux protégées que les zones sans. Les villes qui disposeront de la RF se verront fréquentées par une catégorie sociale aisée et qui souhaite s'entourer de personnes similaires.

Les villes sans seront réservées à des classes en difficulté ou les actes de délinquance seront courants. Il faut garantir la sécurité de tous les citoyens quel que soit leur lieu de résidence. »

D'un point de vue juridique, les auteurs du rapport voudraient même « constitutionnaliser le numérique » via une Charte qui « décrirait les principes fondamentaux » de ce que l'on pourrait en faire, ou pas. Il s'agirait dès lors de dresser une liste (« non exhaustive ») de « tous les cas d'usage où la reconnaissance faciale pourrait intervenir », afin d'identifier les « éventuelles limites à l'application de cette technologie ».

S'appuyant sur les expérimentations susmentionnées, il conviendrait ensuite de « définir un cadre légal sur chacun des cas d'usage identifiés », et de « prévoir une cadre juridique comportant » :

« Une explication exhaustive et détaillée de l'utilisation prévue et de la finalité avec une mention particulière de la fiabilité de l'algorithme utilisé, la durée de la conservation des données, les garanties apportées par le responsable/les co-responsables de traitement afin de protéger les droits des personnes, une démarche humaine [sic] centrée pour des utilisations sensibles de la RF, en particulier pour le prononcé de sanctions pénales, ou encore de sanctions prises par l'employeur. »

Jumeler les fichiers policiers, décentraliser les données

Évoquant le « cas spécifique du recours à la RF par les forces de l'ordre », la task force estime, « pour des besoins d'efficience », qu'il faudrait également « autoriser le jumelage entre les différents fichiers de police existants ».

Le contrôle du respect des droits et libertés fondamentales serait quant à lui confié à une « autorité administrative indépendante (AAI) centrale » et des AAI « décentralisées, locales, permettant d'assurer un audit régulier (ex: fréquence d'une fois tous les six mois) des solutions présentes sur le marché » :

« En local, ce dispositif permettrait de renforcer la confiance des citoyens français grâce aux outils promouvant la "transparence" des usages de la reconnaissance faciale. (...) Aussi, dans ce schéma, il y aurait autant de datacenters qu'il y a d'AAI locales. »

Le développement de certifications et de standards « au regard de critères de sécurité et de protection des données des technologies RF », ainsi que la « bonne administration de dispositifs permettant de s'assurer que le nombre gargantuesque [sic] de personnes concernées aient accès à leurs dossiers » sont quant à eux expédiés en 6 lignes, sans plus de précisions.

Les auteurs du rapport ambitionnent enfin de « se réapproprier la gestion des données des citoyens et la notion d'identité numérique », parce que « maîtriser cette identité numérique, c'est être souverain ».

Elle déplore à ce titre que la chaîne de traitement, analyse, archivage et d'utilisation des données sont « actuellement essentiellement détenus par le GAFAM et BATX », et voudrait « faire de l'État le garant de la sécurité des données biométriques du citoyen » :

« La numérisation progressive de l'identité des citoyens français doit être l'opportunité pour la France de rétablir son autorité vis-à-vis des entreprises privées. Les grandes puissances privées profitent du manque de cadre strict pour appliquer leurs méthodes de fonctionnement. (...) En effet, les citoyens ont davantage de facilité à délivrer leurs données biométriques à des organisations privées (Apple, Facebook) et moins à l'État.

Nous appelons à un changement de positionnement de l'État vis-à-vis de ces données en proposant, via France Connect, de collecter les données biométriques des citoyens qui consentent à les partager et d'investir dans la robustesse de la sécurité des bases de données et des systèmes d'information. »

La task force estime dès lors que « l'État deviendrait ainsi garant de la sécurité des données », et que le citoyen pourrait alors donner son accord, au cas par cas, pour qu'elles puissent être partagées à des entités privées (banques, employeur, établissement, etc.) habilitées par l'État.

Afin d'éviter les risques d'abus, et de point de défaillance unique (single point of failure ou SPOF en anglais), que susciterait une base de données biométriques centralisée, le rapport propose de les répartir en plusieurs bases distinctes, « ségrégées les unes des autres en fonction de la résidence géographique de chaque citoyen », mais également « en fonction de leur type d'utilisation (santé, transports...) » :

« Chaque zone (dont l'échelle est à définir), disposerait d'un serveur avec les données biométriques des citoyens dans cette zone. En cas de changement de zone d'un citoyen, ces dernières sont transférées dans la base de données de la nouvelle zone et sont supprimées de l'ancienne. Changer de zone doit pouvoir se faire aussi bien que changer de bureau de vote. »

Vers un nombre croissant de bavures

Au mitan des années 2000, un Livre blanc de la sécurité privée, préfacé par Nicolas Sarkorzy et Alain Bauer, avait brillamment résumé le cynisme avec lequel les entreprises privées, de concert avec les gouvernements, allaient instrumentaliser les questions sécuritaires : 

« La société française sera confrontée dans les dix prochaines années à une baisse relative du nombre de crimes et de délits. (…) Parallèlement, le sentiment d’insécurité se maintiendra à des niveaux élevés et sera alimenté par des faits divers violents relayés par les médias.

Dans ces conditions, la société française sera confrontée à une déconnexion toujours plus forte entre sentiment d’insécurité et faits réels d’insécurité. Pour rassurer les individus, un maillage plus étroit sera recherché entre acteurs publics et privés confrontés à ces problèmes. (…)

Dans ce contexte, il serait rationnel que les gouvernements successifs baissent les effectifs de police (…) Parallèlement, les effectifs de sécurité privée continueront d’augmenter pour répondre à une demande de sécurité forte et pour compenser la décrue du nombre de policiers.

Parallèlement, les forces de l’ordre devront plus cibler leurs actions (…) sur des "zones reconnues par tous comme à risque" : certains quartiers d’habitat social, zones de prostitution et de deal… La police devra alors de plus en plus faire état de sa force sur des espaces concentrés, ce qui accroîtra l’efficacité et l’efficience de son travail et entraînera un nombre croissant de bavures [sic]. »

Quinze ans plus tard, ce nombre croissant de bavures, en tout cas de violences policières, fait effectivement, et de plus en plus, la « Une » des médias. Les grandes et moyennes villes s'étant majoritairement dotées de caméras, les marchands de vidéosurveillance se tournent désormais vers les petites villes, les communautés de communes voire les villages.

Au-delà de l'espace public, où les caméras continuent à faire débat, personne ne s'offusque du fait qu'il devient de plus en plus rare de se retrouver dans un lieu ouvert au public dépourvu de caméras. La banalisation de la (vidéo)surveillance des comportements suspects a d'ores et déjà été entamée même si, là encore, elle ne fait débat qu'appliquée à l'espace public, pas dans les locaux privés. La reconnaissance faciale est probablement la prochaine frontière.

Un second article reviendra à ce titre sur ce que la task force imagine à l'avenir, ainsi qu'à ce qu'elle a constaté dans les pays asiatiques, où la « RF » est d'ores et déjà tout autant banalisée que généralisée.

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Abonné
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !