IA contre IA : Montpellier interdit la reconnaissance faciale à l'aide de ChatGPT

IA contre IA : Montpellier interdit la reconnaissance faciale à l’aide de ChatGPT

« C'est l'IA qui le dit ! »

Avatar de l'auteur
Jean-Marc Manach

Publié dans

Droit

22/12/2022 7 minutes
31

IA contre IA : Montpellier interdit la reconnaissance faciale à l'aide de ChatGPT

Montpellier devient la première ville en France à interdire le recours à la reconnaissance biométrique faciale. Six élus seulement se sont abstenus de voter le vœu présenté au conseil municipal, dont la majorité réunit 48 élus de partis socialistes, écologistes et communistes pour 17 conseillers d'opposition.

Manu Reynaud, 2e Adjoint au Maire de Montpellier en charge de la délégation numérique, et président du groupe écologiste au Conseil Municipal, s'est félicité samedi dernier sur Twitter de l'adoption, lors du conseil municipal de la veille, d'un vœu de « Principe d'interdiction du recours aux traitements automatisés d'analyse d'image sur la base des données personnelles ou individuelles dans l'espace public de la Ville de Montpellier ».

Dans son discours, partagé sur YouTube, il explique que, s'il y est question d'intelligence artificielle et d'algorithmes de surveillance, « je vais surtout vous parler de libertés publiques » : 

«  Il y a un premier modèle que, je suppose, nous n'apprécions pas tous, c'est le modèle chinois [...] de surveillance absolue où il y a des caméras partout, il y a des systèmes de scoring où on surveille la population parce qu'on doute de la population. »

 

Évoquant le cas de Nice, il a ensuite montré la capture d'écran révélant la présence de 4 caméras dotées de fonctionnalités de reconnaissance faciale à Nice, que nous avions publiée la semaine passée à l'occasion de notre enquête sur les multiples systèmes de « Détection Automatique d’Incidents » (D.A.I.) de son « Système de Vidéoprotection Intelligent ».

Le texte (.pdf) de présentation de son vœu fait bel et bien écho aux systèmes de « D.A.I. » utilisés à Nice. Il y évoque en effet les propositions ou les expérimentations de dispositifs de vidéo dite « augmentée » qui se multiplient ces dernières années au motif d'analyser des images vidéo par des traitements automatisés dits « d'intelligence artificielle » : 

« Ils proposent ainsi de suivre, tracer, détecter des événements ou des objets. Il est également possible de caractériser sans intervention humaine des personnes filmées (tranche d'âge, genre, comportement, etc.) ou encore de les identifier de manière unique par leurs caractéristiques biométriques (par exemple, forme du visage) ou non biométriques (caractérisation colorimétrique des vêtements portés, démarche...). »

Après avoir rappelé que les expérimentations de reconnaissance faciale à Nice avaient été interdites par la Justice, Manu Reynaud explique qu'il n'évoque pas tant l'exemple niçois en tant que « contre-modèle », mais pour « choisir un autre modèle de société, celui de la protection des libertés individuelles ».

« Nous devons être conscients des risques  », explique ChatGPT

Étrangement, l'adjoint explique ensuite avoir demandé à l'IA ChatGPT, censée émettre des avis mesurés et « responsables », de lui rédiger un discours expliquant que la reconnaissance faciale « est une technologie utile et nécessaire pour la sécurité, comme ça, ça m'évitait d'avoir tout à écrire ».

Après s'être exécuté, avec les arguments convenus auxquels on est en droit de s'attendre, l'élu lui a demandé de rédiger un second discours « pour dire que la reconnaissance faciale est une technologie dangereuse pour les libertés publiques », auquel ChatGPT a là encore répondu avec les arguments usuels. 

Puis, Manu Reynaud lui a réclamé un troisième discours, rajoutant à la question précédente « quand on utilise l'intelligence artificielle ».

À quoi ChatGPT a répondu qu' « il est important de rappeler que la reconnaissance faciale peut être utilisée pour des fins utiles, telles que la détection de criminels ou l'amélioration de la sécurité dans les aéroports ». Avant d'y préciser que « cependant, il existe également des risques potentiels qui doivent être pris en compte ».

ChatGPT évoque notamment la « surveillance excessive des citoyens » qui peut conduire à une « violation de la vie privée », en particulier lorsqu'elle est utilisée pour « suivre les mouvements des personnes dans les lieux publics ».

L'IA évoque ensuite les risques d'erreurs dans l'identification des personnes, « ce qui peut entraîner des injustices ou des discriminations », et souligne que le recours à cette technologie « peut renforcer les biais existants » dans les algorithmes d'IA, notamment vis-à-vis de « certains groupes ethniques ou sociaux » : 

« En résumé, il est important de faire preuve de vigilance lors de l'utilisation de la reconnaissance faciale en conjonction avec l'intelligence artificielle. Nous devons être conscients des risques pour la vie privée et les droits de l'homme, et veiller à ce que cette technologie ne soit pas utilisée de manière discriminatoire ou abusive. »

ChatGPT IA reconnaissance facialeChatGPT IA reconnaissance faciale

« Ceux qui ont peur de l'Inquisition n'ont pas la conscience tranquille »

« C'est elle qui le dit ! », s'amuse Manu Reynaud, avant d'enjoindre les autres élus du conseil municipal d'adopter sa résolution : « Aujourd'hui c'est pas la machine qui va faire les choix, c'est vous, c'est nous, des élus du conseil municipal élu au suffrage universel, et nous allons vous proposer aujourd'hui de voter pour être la première ville de France à interdire le principe même de reconnaissance faciale ».

« Ce n'est pas un débat sur la vidéosurveillance », précise-t-il, « c'est un débat sur un choix de société, celui des libertés individuelles, c'est un débat principe de discernement sur les technologies choisies et j'espère bien qu'au vu de cette délibération l'exemple Montpellier pourra être largement suivi et anticiper la législation européenne qui arrive ».

Le compte-rendu du conseil municipal n'est pas encore en ligne sur le site de la municipalité, mais la vidéo montre (à 2:38:30) que seul Jacques Domergue, conseiller municipal d'opposition, a réclamé la parole, pour expliquer ce pourquoi il s'abstiendrait de voter :

« Je crois qu'il y a effectivement des dangers, c'est indéniable, mais aujourd'hui prendre une décision qui fermerait définitivement toute possibilité d'évolution technique ou technologique avec des logiciels qui vont sortir de plus en plus performants et qui pourraient un jour contribuer à aider la ville à améliorer son niveau de sécurité publique me paraîtrait beaucoup plus raisonnable que de dire de manière abrupte comme ça non non c'est fini, c'est interdit à Montpellier, on ne peut pas, c'est pour jamais, pour toujours. »

Avant de conclure par un sous-entendu tendancieux allant encore plus loin que l'argument fallacieux qui voudrait qu'on n'ait « rien à cacher » : « ceux qui ont peur de l'Inquisition, c'est ceux qui n'ont pas la conscience tranquille, donc il faut le nuancer, et peut-être ne pas aller aussi loin que ce que vous voudriez faire d'une décision ferme et définitive ».

Or, souligne l'historienne Valérie Toureille, « la procédure utilisée par l'Inquisition reposait sur trois principes nouveaux : l'ignorance par l'accusé du nom des témoins à charge, la suppression de certaines incapacités à témoigner et l'emploi de la question » (ou torture), et ce, alors que l'accusé et ses proches ne connaissaient aucun des chefs d'inculpation, et que la défense se faisait donc « à l'aveugle ».

17 villes américaines ont aussi interdit la reconnaissance faciale

Technopolice Montpellier, émanation du collectif de résistance à la « Safe City » initié par la Quadrature, avait, de son côté, animé des réunions en juin et en novembre pour alerter la population au sujet, notamment, de ces questions.

En mai dernier, l'Electronic Frontier Foundation (EFF) avait pour sa part dénombré 17 municipalités américaines ayant, elles aussi, interdit la reconnaissance faciale sur la voie publique et/ou par les autorités locales, suivant l'exemple de San Francisco, la première à l'avoir banni il y a trois ans.

Dans la présentation de son vœu, Manu Reynaud rappelle que le Défenseur des Droits avait souligné l'an passé le risque accru de pratiques discriminatoires que peuvent induire les algorithmes d'analyse d'image, et que la Commission consultative des droits de l'Homme recommandait quant à elle d'interdire l'identification biométrique à distances des personnes dans l'espace public et les lieux accessibles au public, « sauf pour deux cas très précis de menaces imminentes et avérées pour des intérêts vitaux ».

Écrit par Jean-Marc Manach

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

« Nous devons être conscients des risques  », explique ChatGPT

« Ceux qui ont peur de l'Inquisition n'ont pas la conscience tranquille »

17 villes américaines ont aussi interdit la reconnaissance faciale

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (31)


Félicitations aux élus montpelliérains et élues montpelliéraines. Enchanté de voir que personne n’a voté contre ce que je trouve assez surprenant sur une question telle que celle-ci. Peut-être que la couverture médiatique a permis de nuancer quelques votes j’imagine.
Espérons que d’autres municipalités suivent, voire même le gouvernement car c’est effectivement un choix de société.


[Mode troll ON]
Donc il ont interdit de devérouillé son tel avec FaceID et consort ?
:francais:
[mode troll Off]:non: :non:


« Ceux qui ont peur de l’Inquisition n’ont pas la conscience tranquille »



J’aime vraiment cette citation ! Ca sonne a la fois comme un bon gros troll, et comme une affirmation sérieuse. :mdr:


Je trouve en effet cette citation étrange… quand je l’ai lue, j’y ai vu une énormité se voulant parodique, alors que le monsieur était sérieux?
Mais en tant que sarcasme, je l’adore.



Jacques Domergue, conseiller municipal d’opposition, a réclamé la parole, pour expliquer ce pourquoi il s’abstiendrait de voter :




Je crois qu’il y a effectivement des dangers, c’est indéniable, mais aujourd’hui prendre une décision qui fermerait définitivement toute possibilité d’évolution technique ou technologique avec des logiciels qui vont sortir de plus en plus performants et qui pourraient un jour contribuer à aider la ville à améliorer son niveau de sécurité publique me paraîtrait beaucoup plus raisonnable que de dire de manière abrupte comme ça non non c’est fini, c’est interdit à Montpellier, on ne peut pas, c’est pour jamais, pour toujours.





Je ne comprends pas trop cet argument, qu’est-ce qui empêcherait de revenir en arrière, un jour, si on changeait d’avis ? aucun texte n’est irrévocable !


Je suppose qu’il craint que “l’opinion publique” soit habituée et contente de cette interdiction, que cela évolue parfois mal dans les autres villes et pays qui ne l’auront pas interdit et qu’il soit donc impossible de faire passer une loi dans l’autre sens sans se mettre tout le monde à dos.



fofo9012 a dit:


Je ne comprends pas trop cet argument, qu’est-ce qui empêcherait de revenir en arrière, un jour, si on changeait d’avis ? aucun texte n’est irrévocable !




C’est un discours politique… mais là on parle de poser un cadre à un sujet flou, ce sera plus difficile de revenir sur cette décision que de ne pas le déployer sans pour autant l’interdire.



En tout cas, si chatGPT commence à préparer les discours politiques, on peut s’attendre à une belle hausse de niveau. :mdr:



oliv5 a dit:


J’aime vraiment cette citation ! Ca sonne a la fois comme un bon gros troll, et comme une affirmation sérieuse. :mdr:




Il faudrait peut-être lancer une investigation sur le personnage, je suis sûr qu’il finira par avoir “peur de l’inquisition”…



fofo9012 a dit:


Je ne comprends pas trop cet argument, qu’est-ce qui empêcherait de revenir en arrière, un jour, si on changeait d’avis ? aucun texte n’est irrévocable !




Non, mais quand une autorité sur la question fait et parle comme si c’était le cas, sans le dire explicitement (ce qui serait mentir), ça réduit la probabilité que son auditoire le mette en doute.



C’est une façon plus subtile de jouer sur la peur du loup que de dire “je veux surveiller l’espace public pour pouvoir discriminer dans la joie et la bonne humeur.”


On pourrait endin reutiliser le bon vieux même “nobody expect the spanish inquisition”, et pour cela je remercie Jacques Domergue


En gros ChatGPT se contente de faire une sorte de moyenne des discours qu’elle trouve sur Internet. Même pas une once d’intelligence là dedans


Il est très efficace quand tu as besoin de connaitre quelque chose, ou même écrire un programme en Python, mais dès que tu poses des questions ou il y a de l’éthique, on sent qu’il veut vraiment se fâcher avec personne :D


Chat alors, GPT ça sent mauvais :transpi:


En gros chatGPT a détecté qu’Estrosi était un BOT chinois ?



Il y a un premier modèle que, je suppose, nous n’apprécions pas tous, c’est le modèle chinois […] de surveillance absolue où il y a des caméras partout, il y a des systèmes de scoring où on surveille la population parce qu’on doute de la population.




Ca l’air cool de faire de la politique avec une vision extrême des choses. Allez, je me lance…



Il y a deux modèles:




  1. le modèle chinois avec surveillance absolue, caméra, scoring. => dictature de l’état.

  2. le modèle cité de banlieues avec zéro surveillance, caméra, scoring. => capitulation de l’état.



Vous préférez lequel ?



Note: Oui, il y a seulement deux modèles et vous êtes obligés de choisir. C’est comme ça.



Le niveau de la politique en France. :roll:


En Espagne , la reconnaissance faciale est utilisée et autorisée depuis des années pour les voleurs dans certaines chaînes de magasins.
Quand un voleur est pris en flagrant délit , ils prennent une photo du voleur.
Lorsque le voleur revient dans un des magasins de la chaîne, les vigiles sont prévenus automatiquement dans leur oreillette qu’un ancien voleur est entré dans le magasin. Les vigiles sont alors plus attentifs sur ces personnes.



En Belgique (et je suppose aussi en France) cela est interdit.


Ca fait un peu casier judiciaire privé… tu aurais plus d’infos sur le sujet ? Car je trouve ça assez contradictoire vis à vis du RGPD et de ses fortes restrictions concernant les données biométriques.


C’est pour ça que les braqueurs se maquent le visage? :D



Blague à part je veux bien des détails car je ne vois pas bien comment “depuis des années” ce genre de dispositif est en prod. En plus, il y a aura un moyen fiable d’identifier, je dis bien identifier un individu sachant que sa morphologie évolue dans le temps et qu’il peut aisément se cacher via de multiples moyens (barbes, lunettes, chapeau, etc etc).



Je pense que c’est de la reconnaissance à l’ancienne: des physionomistes locaux qui reconnaissent ceux qu’ils connaissent et capable d’un plus grand discernement qu’un logiciel (démarche, taille, points particuliers, accompagnants, etc etc)



Cette histoire de reconnaissance faciale surtout si c’est de l’identification, je n’y crois pas un instant. D’ailleurs les EUA ont renoncé vu le trop grand nombre de faux-positifs ou de vrai-négatifs.


L’Inquisition est une procédure écrite basée sur le recueil et le recoupement de témoignages contradictoires qui a donné son nom à une juridiction religieuse spéciale créée au début du XIIIe siècle en France pour lutter contre les hérésies cathare et vaudoise qui avaient pris une dimension de rébellion politique dans le Midi Toulousain. En raison de ses excès, elle a été supprimée définitivement par le roi saint Louis qui l’a remplacée par la juridiction de l’Official qui ne pouvait plus délivrer de peines criminelles sans décision d’une juridiction civile. L’histoire de l’Inquisition en France a été polluée depuis le début du XIXe siècle par des archives fabriquées par un célèbre faussaire, Étienne de La Mothe-Langon, publiées en 1829 dans son Histoire de l’Inquisition en France et reprises par tous les historiens, notamment Jules Michelet. Les procès faits aux Templiers et à Jeanne d’Arc ont été fait par des juridictions exceptionnelles créées pour l’occasion, et supprimées ensuite. (Wikipédia)
Donc ce n’est pas la source qui importe mais ce qu’on en fait. Donc interdire une techno sur la base d’un cas extrême reviendrait à interdire la voiture parce qu’un mauvais usage peut tuer…
Pour moi, ce n’est qu’un combat retardateur et il vaudrait mieux s’interroger sur l’encadrement à mettre en place.



Jodoigne a dit:


En Espagne , la reconnaissance faciale est utilisée et autorisée depuis des années pour les voleurs dans certaines chaînes de magasins. Quand un voleur est pris en flagrant délit , ils prennent une photo du voleur. Lorsque le voleur revient dans un des magasins de la chaîne, les vigiles sont prévenus automatiquement dans leur oreillette qu’un ancien voleur est entré dans le magasin. Les vigiles sont alors plus attentifs sur ces personnes.



En Belgique (et je suppose aussi en France) cela est interdit.




Donc une fois qu’un voleur a purgé sa peine, il est ad vitam æternam dans les fichiers des magasins traqués dès qu’il rentre ? C’est parfaitement illégal ! Qu’on utilise la caméra pour le choper (ou le reconnaitre plus tard quand on n’a pas pu l’arrêter sur le fait) admettons, mais faire justice soit-même c’est parfaitement illégal.


Dans le fait c’est déjà le cas. heureusment suppérviser par l’Etat ça s’appelle le casier judiciaire.
Pour rappel, certains employeur le réclame sans que cela soit réélement une question de sécurité …


RuMaRoCO

Dans le fait c’est déjà le cas. heureusment suppérviser par l’Etat ça s’appelle le casier judiciaire.
Pour rappel, certains employeur le réclame sans que cela soit réélement une question de sécurité …


Ne confonds pas un état avec une entreprise privée.


refuznik

Ne confonds pas un état avec une entreprise privée.


Biensûr, je l’indiquais dans mon commentaire “…superviser par l’Etat…”.
Cependant c’est bien la reflexion de fond. Beaucoup de prestataire de l’état ont accès et conservent des données personnelles dans le cadre de leur mission.
(cf. la gestion des amendes de dépassement de la vitesse autorisée ; ou de stationnement etc. ; Une plaque d’immatriculation est une donnée personnelle )
Le noeud est qu’un véhicule peut changé de plaque d’immatriculatiion, ou une personne de n° de téléphone. Elle ne peut pas changé de visage. (Voir la réalisation de la problématique dans Minority report)


RuMaRoCO

Dans le fait c’est déjà le cas. heureusment suppérviser par l’Etat ça s’appelle le casier judiciaire.
Pour rappel, certains employeur le réclame sans que cela soit réélement une question de sécurité …


Le casier judiciaire de type B n’est que pour les peines de plus de 2 ans. C’est clairement pas pour des petits délits. Étrangement beaucoup de peines contre les politiques ou contre les fraudes sont en dessous de ce seuil de 2 ans.
Et quand l’employeur le réclame c’est qu’il y a une obligation légale il me semble.


Soriatane

Le casier judiciaire de type B n’est que pour les peines de plus de 2 ans. C’est clairement pas pour des petits délits. Étrangement beaucoup de peines contre les politiques ou contre les fraudes sont en dessous de ce seuil de 2 ans.
Et quand l’employeur le réclame c’est qu’il y a une obligation légale il me semble.


Comme pour bcp de chose, certains employeurs le réclame bien qu’ils en aient pas (vraiement ?) le droit mais, si vous en faîtes la remarque … et bien vous n’êtes pas retenus car au mieu catégorisé casse C. ou bien supect.


Montpellier Trop Puissant :8
:love:



fofo9012 a dit:


Donc une fois qu’un voleur a purgé sa peine, il est ad vitam æternam dans les fichiers des magasins traqués dès qu’il rentre ? C’est parfaitement illégal ! Qu’on utilise la caméra pour le choper (ou le reconnaitre plus tard quand on n’a pas pu l’arrêter sur le fait) admettons, mais faire justice soit-même c’est parfaitement illégal.




J’ai jamais entendu en Belgique qu’un voleur ait été condamné à de la prison pour un vol à l’étalage. Le casier judiciaire peut-être effacé 5 ans après sur simple demande du voleur au cas où il serait tombé sur un juge sévère.
Ici c’est prévenir d’un potentiel vol.
Le but est de lutter contre les gang de voleurs.
Sinon tu acceptes toi de payer x% en plus pour tous les produits que tu achètes pour couvrir les vols ?
Il faut être naïf de croire que le commerçant ne répercute pas cela sur quelque chose.
La reconnaissance facile peut-être utile dans certain cas (exemple système de pointage en entreprise , protéger les jeunes enfants dans les écoles élémentaires de pédophiles condamnés et qui trainent dans les hall des écoles,…)



Jodoigne a dit:


La reconnaissance facile peut-être utile dans certain cas




Comme dit juste haut dessus la reconnaissance facile est celle faite par un humain. Celle faite par l’informatique est difficile et pleine de faux positifs ou négatifs.




(exemple système de pointage en entreprise , protéger les jeunes enfants dans les écoles élémentaires de pédophiles condamnés et qui trainent dans les hall des écoles,…)




Le RGPD dit que les données biométriques sont des données sensibles. Leur traitement est interdit sauf exception. Les seules exceptions autorisées (en plus de celles prévues par le RGPD) sont celles “en vue de respecter une obligation légale ou pour l’exécution d’une mission d’intérêt public ou relevant de l’exercice de l’autorité publique dont est investi le responsable du traitement.



Tes exemples n’entrent pas dans ce cadre, même pas la chasse aux pédophiles telle que tu la conçois.



En plus, les pédophiles qui traînent dans les halls des écoles, comment dire, ça fait un peu cliché.



fred42 a dit:



En plus, les pédophiles qui traînent dans les halls des écoles, comment dire, ça fait un peu cliché.




Mais c’est malheureusement un cas vécu dans ma commune.


Et pour le reste de mon commentaire qui était bien plus important, pas de réaction ?



Jodoigne a dit:


La reconnaissance facile peut-être utile dans certain cas (exemple système de pointage en entreprise , protéger les jeunes enfants dans les écoles élémentaires de pédophiles condamnés et qui trainent dans les hall des écoles,…)




Ça non plus, ce serait parfaitement illégal !
Comme d’autres l’ont signalé, la reconnaissance faciale n’existe pas vraiment : on peut suivre un visage dans différentes vidéos, ça fonctionne bien, ou identifier des expressions, attitudes, ou comportements anormaux : ça aussi ça marche pas trop mal.



Par contre identifier des gens sur une photo depuis une base de photo d’identité, ça ne fonctionne pas complètement comme dans les films : l’IA va calculer un score / “probabilité” pour chaque photo d’identité et sortir plusieurs résultats selon ce score : 0.85 que ce soit Jean DUPONT, 0.87 que ce soit Charles MARTIN…
Au final sur une même image l’IA risque de trouver plusieurs fois le même personnage, et le score n’est pas toujours fiable : le bon nom pourrait se trouver derrière d’autres que l’IA a estimé plus fiable. Il y a même des visages universels : qui ont un bon score pour tous les noms, donc on pourrait imaginer l’inverse : un visage qui n’est jamais reconnu.



Bref ça fait plein d’aléas, et pleins de risque de faux positifs.