Clearview AI aimerait aussi pouvoir surveiller baby sitters et femmes de ménage

Clearview AI aimerait aussi pouvoir surveiller baby sitters et femmes de ménage

Entre autres

Avatar de l'auteur
Jean-Marc Manach

Publié dans

Droit

18/02/2022 16 minutes
17

Clearview AI aimerait aussi pouvoir surveiller baby sitters et femmes de ménage

La sulfureuse entreprise de reconnaissance faciale biométrique Clearview AI se targue de pouvoir bientôt siphonner 100 milliards de photos de visages. En prévision d'une nouvelle levée de fonds, elle explique à ses futurs investisseurs vouloir étendre son marché pour pouvoir offrir ses services bien au-delà des seules forces de l'ordre.

La semaine passée, quatre membres du Congrès et sénateurs américains ont exhorté le Département de la sécurité intérieure (DHS), le ministère de la Justice (DOJ), le ministère de la Défense (DOD), le ministère de l'Intérieur (DOI) et le ministère de la Santé et des Services sociaux (HHS), de mettre fin à leur utilisation de la technologie de reconnaissance faciale de Clearview AI.

Les outils de Clearview AI permettent en effet à ses utilisateurs de capturer et de télécharger des photos de n'importe qui sur le web et les réseaux sociaux, d'analyser les informations biométriques de la personne photographiée et de fournir aux utilisateurs des images existantes et des informations personnelles des personnes photographiées.

Dans leurs lettres, les législateurs ont exprimé de sérieuses inquiétudes quant au risque de perte d'anonymat dans l'espace public et ont souligné les menaces que représente cette technologies pour les communautés noires, les communautés de couleur et les communautés d'immigrants :

« "La technologie de reconnaissance faciale comme celle de Clearview pose des menaces uniques aux communautés marginalisées d'une manière qui va au-delà des problèmes d'inexactitude des outils. Les communautés de couleur sont systématiquement soumises à une surveillance excessive, et la prolifération des outils de surveillance biométrique est donc susceptible de porter atteinte de manière disproportionnée à la vie privée des individus dans les communautés noires, brunes et immigrées. »

Amnesty International vient à ce titre de rendre publique une recherche participative révélant que les habitants de New-York qui vivent dans des quartiers où le risque de contrôle et de fouille (« stop-and-frisk ») par la police est plus élevé, sont également plus exposés aux technologies de reconnaissance faciale intrusives :

« Dans le Bronx, Brooklyn et le Queens, où la proportion d’habitants non blancs est importante, elles montrent que la concentration de caméras de vidéosurveillance compatibles avec la reconnaissance faciale est plus élevée que dans les autres quartiers. »

Clearview pourrait siphonner 100 milliards de photos faciales

D'après une présentation financière datant de décembre dernier obtenue par le Washington Post, Clearview AI explique de son côté aux investisseurs qu'elle serait en bonne voie de disposer de 100 milliards de photos faciales dans sa base de données d'ici un an (soit l'équivalent de 14 photos pour chacune des 7 milliards d'humains), suffisamment pour garantir que « presque tout le monde soit identifiable ».

Le document de 55 pages, rédigé afin de collecter des fonds, précise que son « index de visages » serait passé de 3 à plus de 10 milliards d'images depuis début 2020, qu'il était désormais 11 fois plus important que les bases de données faciales de « toute entité gouvernementale ou non gouvernementale aujourd'hui », et que son système de collecte de données ingérerait désormais 1,5 milliard d'images par mois.

La présentation souligne que l'entreprise souhaiterait en outre étendre ses activités au-delà de la numérisation des visages pour la police, expliquant qu'elle pourrait surveiller les travailleurs de la « gig economy », et qu'elle étudie un certain nombre de nouvelles technologies.

Avec 50 millions de dollars, explique la société, Clearview AI pourrait en effet augmenter ses pouvoirs de collecte de données jusqu'à 100 milliards de photos, créer de nouveaux produits, élargir son équipe de vente internationale et payer davantage pour faire pression sur les décideurs gouvernementaux en vue d' « élaborer une réglementation favorable ».

Surveiller concerts, démarches, baby sitters et femmes de ménage

Clearview AI, qui a levé 30 millions de dollars l'été dernier, ce qui valorisait l'entreprise à 130 millions de dollars, indique dans la présentation qu'elle espère lever ces 50 millions de dollars supplémentaires lors d'un troisième cycle d'investissement, connu sous le nom de « série C ».

La présentation avance qu'elle pourrait « révolutionner » la façon dont les travailleurs de l'économie des concerts sont sélectionnés et que sa technologie pourrait être utilisée pour évaluer les personnes sur les applications utilisées pour sortir ensemble ou trouver des baby-sitters, des femmes de ménage ou des entrepreneurs en réparation.

Clearview AI indique en outre qu'elle a développé d'autres systèmes au-delà de la reconnaissance faciale, notamment pour la reconnaissance des plaques d'immatriculation et le « suivi des mouvements », et qu'elle développe ou étudie un certain nombre d'autres techniques de surveillance.

Il est ainsi question d'un logiciel pour détecter les armes à feu et les drogues, de systèmes de « reconnaissance de la marche » et d' « image to location » pour localiser une personne sur la base de l'arrière-plan d'une photo, ou encore de reconnaissance « d'empreintes digitales sans contact » pour scanner à distance l'identité d'une personne.

Clearview s'intéresse aux plateformes, mais pas elles

Clearview AI a aussi inclus dans sa présentation les logos de nombreuses entreprises, dont Airbnb, Lyft et Uber, pour souligner qu'elle n'a que peu de concurrence au niveau national.

Le fondateur de Clearview, Hoan Ton-That, a répondu au Post qu'il s'agissait « d'exemples des types d'entreprises qui ont manifesté leur intérêt pour la technologie de reconnaissance faciale de Clearview à des fins de vérification d'identité basée sur le consentement, car il y a beaucoup de problèmes avec les crimes qui se produisent sur leurs plateformes ».

Les porte-parole de ces trois sociétés ont déclaré au Post qu'ils n'avaient pas l'intention de travailler avec Clearview et n'avaient jamais manifesté leur intérêt pour un partenariat.

Plusieurs autres entreprises dont Clearview a utilisé les logos comme exemples de partenaires commerciaux potentiels, y compris le service de baby-sitter Sittercity, ont également déclaré qu'elles n'avaient pas l'intention de poursuivre une relation avec l'entreprise.

Justine Sacco, une porte-parole de Match Group, la société mère de Tinder et d'OkCupid, a déclaré que les entreprises n'avaient « jamais travaillé avec Clearview AI et ne sont en discussion avec elles » et que « Clearview abuse de notre logo et n'a pas l'autorisation de l'utiliser dans leurs matériaux ».

Un responsable d'une autre entreprise a exprimé sa colère face à son inclusion dans la présentation de Clearview et a déclaré qu'il envisageait des options judiciaires.

Plus complet que ses concurrents chinois, mais tout aussi critiqué

L'entreprise souligne également dans sa présentation que son produit serait encore plus complet que les systèmes utilisés en Chine, car sa « base de données faciales » est connectée aux « métadonnées de source publique » et aux informations de « liens sociaux », rapporte le Washington Post.

Clearview a en effet construit sa base de données en allant siphonner les images sur les réseaux sociaux et d'autres sources en ligne sans le consentement des sites Web ni des personnes photographiées.

Facebook, Google, Twitter et YouTube ont d'ailleurs depuis demandé à l'entreprise de cesser de prendre des photos de leurs sites et de supprimer celles qui avaient été prises précédemment. Mais Clearview a fait valoir que sa collecte de données serait protégée par le premier amendement.

L'entreprise lutte en outre contre une vague d'actions en justice devant les tribunaux d'État et fédéraux, y compris des poursuites en Californie, en Illinois, à New York, au Vermont et en Virginie, décompte le Post.

En outre, le procureur général du New Jersey a ordonné à la police de ne pas l'utiliser. En Suède, les autorités ont infligé une amende à un service de police local pour l'avoir utilisé l'année dernière.

La société fait également face à un recours collectif devant un tribunal fédéral canadien, à des enquêtes gouvernementales au Canada, en Suède et au Royaume-Uni et à des plaintes de groupes de protection de la vie privée alléguant des violations de la protection des données en France, en Grèce, en Italie et au Royaume-Uni.

Les autorités de protection des données personnelles australiennes et françaises ont ainsi ordonné à Clearview, en novembre et décembre derniers, de supprimer les données de leurs citoyens, affirmant que l'entreprise avait secrètement monétisé les visages des personnes en violation de la loi.

Clearview CNIL

« Chaque photo est un indice potentiel qui pourrait rendre justice »

Hoan Ton-That précise au Post que le document avait été partagé avec un « petit groupe de personnes ayant manifesté leur intérêt pour l'entreprise ». Il comporte des propositions, précise-t-il, non seulement pour son principal moteur de recherche faciale, mais aussi pour d'autres secteurs d'activité dans lesquels la reconnaissance faciale pourrait être utile, comme la vérification d'identité ou l'accès sécurisé aux bâtiments.

Les « métadonnées de source publique » et les « informations sur les liens sociaux » d'une personne, a-t-il ajouté, peuvent être trouvées sur les sites Web que Clearview a lié à leurs photos de visage.

« Chaque photo de l'ensemble de données est un indice potentiel qui pourrait sauver une vie, rendre justice à une victime innocente, empêcher une identification erronée ou disculper une personne innocente », a-t-il rajouté mercredi dans un communiqué adressé au Post.

Clearview, explique-t-il, n'a pas l'intention de « lancer une version grand public » de son moteur de recherche faciale utilisé par la police, ajoutant que les responsables de l'entreprise « n'ont pas décidé » de vendre le service à des acheteurs du secteur privé.

Les opposants à Clearview remportent une bataille

Si Clearview décidait de vendre une technologie à un acheteur non gouvernemental, précise Ton-That, la société informerait d'abord un tribunal fédéral de l'Illinois, où Clearview se défend contre les recours collectifs selon lesquels elle a violé une loi d'État obligeant les entreprises à obtenir le consentement avant de collecter leurs données faciales.

Ce lundi, le juge chargé des affaires fédérales de l'Illinois a confirmé la plupart des arguments des plaignants contestant le travail de Clearview, rejeté sa défense fait au nom du premier amendement, refusé sa requête de rejet, et autorisé la continuation des poursuites.

« C'est une victoire importante pour notre vie privée sur les bénéfices de Clearview », se félicite l'Electronic Frontier Foundation qui, avec l'ACLU, autre ONG pionnière de la défense des libertés aux États-Unis, poursuit Clearview AI en justice.

Clearview a rejeté les critiques sur son travail de collecte de données et de surveillance en expliquant qu'il est conçu exclusivement pour l'application de la loi et le bien public.

Dans un engagement de « principes » mis en ligne sur son site web, la société explique qu'elle ne travaillait qu'avec des agences gouvernementales et qu'elle limitait sa technologie à « des processus d'enquête légaux dirigés contre un comportement criminel ou visant à prévenir des menaces spécifiques, substantielles et imminentes pour la vie ou la sécurité physique des personnes ».

« Si les utilisations changent, les principes seront mis à jour »

Clearview avait déjà déclaré en 2020 qu'elle cesserait de travailler avec des entreprises privées après une enquête de BuzzFeed News qui révélait que l'entreprise avait offert son outil à des magasins, banques et à d'autres entreprises, y compris par le biais d'essais gratuits de 30 jours.

Mais la présentation obtenue par le Post montre que la société a basé son « plan d'expansion de produits » sur l'augmentation des ventes des entreprises, des services financiers et de l'économie des concerts à l'immobilier commercial.

Sur une diapositive consacrée à son « marché adressable total », les contrats du gouvernement et de la défense sont présentés comme une petite fraction des revenus potentiels, avec d'autres sources possibles, notamment dans la banque, la vente au détail et le commerce électronique.

Dans sa déclaration au Post, Ton-That précise que « nos principes reflètent les utilisations actuelles de notre technologie. Si ces utilisations changent, les principes seront mis à jour, au besoin ».

Clearview aurait élargi sa liste de clients à plus de 3 100 organismes chargés de l'application de la loi aux États-Unis, rapporte le Post. Elle a aussi, au cours de l'année écoulée, renforcé ses rangs exécutifs et son conseil consultatif avec d'anciens hauts fonctionnaires de la police et du gouvernement.

Y figurent notamment un ancien commissaire de police et un ancien adjoint au maire de New York, ainsi que Richard Clarke, l'ex-tsar de la lutte contre le terrorisme et premier « cyber-tsar » qui avait élaboré la première stratégie nationale de défense du cyberespace du pays.

« Tout dans le futur, sera accessible à travers votre visage »

Mais une grande partie de son nouveau discours aux investisseurs se concentre sur sa poursuite des « applications futures illimitées » du travail non gouvernemental, y compris dans les banques, les soins de santé, les assurances et la vente au détail. « Tout dans le futur, numériquement et dans la vie réelle, sera accessible à travers votre visage », indique la brochure.

Dans une lettre ouverte publiée le mois dernier, Ton-That a déclaré que l'entreprise pourrait « donner l'exemple de l'utilisation de la technologie, non pas en temps réel, mais d'une manière qui protège les droits de l'homme, les garanties d'une procédure régulière et nos libertés » : 

« La Chine et la Russie ont toutes deux mis en place une surveillance en temps réel pour cibler les populations minoritaires. Nous ne devons pas laisser ces pays montrer la voie au monde. »

Or, souligne le Washington Post, la présentation le contredit directement en précisant que Clearview AI travaillent à un système « d'alertes en temps réel » que les entreprises pourraient utiliser pour informer les agents de sécurité s'ils repèrent des « individus à haut risque », note une diapositive.

La société poursuit également ses travaux sur les lunettes de réalité augmentée que l'armée américaine pourrait utiliser dans des « situations dangereuses », précise une autre diapositive.

En novembre, l'armée de l'air a accordé à l'entreprise 50 000 dollars pour la recherche de la technologie, selon les registres des dépenses fédérales. Un responsable du Laboratoire de recherche de l'Air Force a déclaré que le travail était un contrat à court terme pour tester le fonctionnement d'une telle technologie.

En attendant, Clearview étend sa Toile aux États-Unis et au-delà

Clearview indique dans la présentation que ses plans d'expansion incluraient de dépenser des millions de dollars supplémentaires en achats de données et en ingénieurs spécialisés dans l'acquisition de données et qu'elle renforcerait ses équipes spécialisées dans les ventes commerciales, fédérales et internationales.

Elle précise également vouloir créer un « écosystème de développeurs » qui permettrait à d'autres entreprises de créer des applications à partir de ses données.

La société prévoit d'augmenter ses revenus fédéraux annuels à 6 millions de dollars cette année, grâce à l'expansion de contrats avec le Département de la sécurité intérieure (DHS), le FBI et la Drug Enforcement Administration, et qu'elle espère « augmenter l'utilisation globale » par les services de police étatiques et locaux de 300 %.

Le Post rajoute que l'Immigration and Customs Enforcement, une agence du DHS, a signé un contrat d'un an avec Clearview en septembre qui pourrait s'étendre sur trois ans, pour un total de 1,5 million de dollars, selon les archives fédérales.

Le FBI a de son côté signé un contrat d'un an de 18 000 dollars en décembre ; la présentation indique qu'il passera à 2,4 millions de dollars cette année.

La présentation indique en outre que Clearview « réalise une expansion internationale rapide », notamment en signant des accords au Panama et au Costa Rica et en poursuivant d'autres activités au Mexique, en Colombie et au Brésil.

« Il n'y aura pas d'Amérique si la Chine et la Russie sont les seuls à disposer de la technologie »

Dans sa lettre ouverte, Hoan Ton-That rappelle que « Clearview AI était une startup inconnue jusqu'à ce que le New York Times nous mette en première page en janvier 2020. Nous n'étions qu'une petite entreprise à l'époque avec à peine 10 employés » :

« Je n'étais pas préparé à une pression intense, à la fois personnelle et professionnelle, qui serait généralement réservée aux entreprises de plusieurs milliards de dollars. (...) C'est un miracle que nous ayons survécu. Aujourd'hui, nous avons plus de 45 employés à temps plein et servons plus de 3 100 organismes d'application de la loi à travers les États-Unis et nous sommes toujours vivants et prospères. »

Il souligne que Clearview a été sélectionnée l'année dernière comme l'une des 100 sociétés les plus influentes du TIME, et que son algorithme « a été classé comme le plus précis aux États-Unis et dans le monde occidental, et n°2 mondial par le NIST, mettant fin à toute préoccupation concernant l'exactitude et les préjugés raciaux » :

« Il est navrant que des pays comme le Canada, le Royaume-Uni et l'Australie, où j'ai grandi, aient mal interprété ma technologie et mes intentions. Je suis découragé par la mauvaise interprétation de la technologie de Clearview AI par la société. »

Pour lui, « l'Amérique doit montrer au reste du monde la meilleure et la plus haute utilité de cette technologie » :

« Nous devons comprendre qu'il n'y aura pas de libertés civiles et pas d'Amérique si la Chine et la Russie sont les seuls pays à disposer de la technologie de reconnaissance faciale. »

Écrit par Jean-Marc Manach

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Clearview pourrait siphonner 100 milliards de photos faciales

Surveiller concerts, démarches, baby sitters et femmes de ménage

Clearview s'intéresse aux plateformes, mais pas elles

Plus complet que ses concurrents chinois, mais tout aussi critiqué

« Chaque photo est un indice potentiel qui pourrait rendre justice »

Les opposants à Clearview remportent une bataille

« Si les utilisations changent, les principes seront mis à jour »

« Tout dans le futur, sera accessible à travers votre visage »

En attendant, Clearview étend sa Toile aux États-Unis et au-delà

« Il n'y aura pas d'Amérique si la Chine et la Russie sont les seuls à disposer de la technologie »

Fermer

Commentaires (17)


Très malin le gars de jouer sur la fibre patriotique des yankees contre les russes et les chinois.


J’ai le ressenti que la boîte cherche à lever le plus de fonds possible avant que les décisions des tribunaux ne se diffusent.


Quel dilemme :



. Payer quelqu’un pour garder ton môme surveillé par une ia.
. Une ia qui taff à ta place et pouvoir garder ton propre gamin.


Je lisais il n’y a pas si longtemps que l’IA est désormais capable de générer des “visages de confiance”, tellement realistes qu’il est impossible pour un humain de dire si c’est un vrai ou un faux.



Je propose qu’on empoisonne Clearview AI avec des dizaines de milliards de faux visages, comme ça leur moteur de recherche facial référencera des personnes qui n’existent pas :)


Mes quelques profils online ont déjà des visages “artificiels” ;)



« La Chine et la Russie ont toutes deux mis en place une surveillance en temps réel pour cibler les populations minoritaires. Nous ne devons pas laisser ces pays montrer la voie au monde. »




Oui c’est beaucoup mieux de ne cibler personne, et de surveiller tout le monde.
Comme ça pas de jaloux, pas de discrimination, et tout le monde est content :yes:



Franchement dans le genre cauchemar dystopique, cette boîte est à vomir, pire que Gogle et FB réunis…



(quote:1931056:trash.spam.jetable)
Je lisais il n’y a pas si longtemps que l’IA est désormais capable de générer des “visages de confiance”, tellement realistes qu’il est impossible pour un humain de dire si c’est un vrai ou un faux.



Je propose qu’on empoisonne Clearview AI avec des dizaines de milliards de faux visages, comme ça leur moteur de recherche facial référencera des personnes qui n’existent pas :)




https://thispersondoesnotexist.com/
Tu peux rafraîchir à l’infini… je trouve ça fascinant …



loser a dit:


https://thispersondoesnotexist.com/ Tu peux rafraîchir à l’infini… je trouve ça fascinant …




Et facile à éliminer par l’aspirateur de ClearView, il y a une constante dans toutes les images générées qui les rend très identifiables.


C’est dingue, on a vraiment l’impression que Hoan Ton-That ne voit aucun problème à ce que fait sa boîte.
Et la justification morale « si ce n’est pas moi ce sera le voisin » validée tous les experts en éthique :/



tpeg5stan a dit:


C’est dingue, on a vraiment l’impression que Hoan Ton-That ne voit aucun problème à ce que fait sa boîte. Et la justification morale « si ce n’est pas moi ce sera le voisin » validée tous les experts en éthique :/




Cela s’appelle la justification du tueur à gage.




  • Vous l’avez tué ?

  • Non, je lui ai tiré dessus. La balle et la chute l’ont tué.




(“Collateral” de Michal Mann)



Par ailleurs:




La société poursuit également ses travaux sur les lunettes de réalité augmentée que l’armée américaine pourrait utiliser dans des « situations dangereuses », précise une autre diapositive.




« situations dangereuses » …



Quand je sors de chez moi, il y des méchants qui risque de m’agresser, des voitures qui peuvent me renverser …. ou avec les travaux de à côté je risque de me prendre quelque chose sur la tête …



Donc on est dans ce que l’on appelle une « situation dangereuse » non ?





Mais attendez, si je reste chez moi je peux me casser une jambe dans l’escalier ou m’électrocuter ou …



Donc on serait toujours dans une « situation dangereuse » ? :stress:



Bref, même excuse que « c’est pour votre bien monsieurs / dames »



(quote:1931054:skankhunt42 )
Quel dilemme :



. Payer quelqu’un pour garder ton môme surveillé par une ia. . Une ia qui taff à ta place et pouvoir garder ton propre gamin.




Pas la peine d’en arriver à de telles extrêmitées, on trouve de nos jours de très bonnes caméras de vidéo protection surveillance à pas trop cher.


A Scanner Darkly, où les protagonistes portent un masque qui change sans cesse d’aspect. Y’ sûrement un marché pour ça.


Je suis à 100% persuadé que la technologie n’est pas mature. Ce sont les clients potentiels qui veulent qu’elle le soit.
C’est comme le overboard de Marty, beaucoup veulent y croire parce qu’on est en 2022 mais ça n’est pas possible en l’état de connaissance actuelle..
ps: je vous envois ce message de 3022 et on cherche encore l’usage depuis que la téléportation est la norme
:)


Si ce n’est pas déjà fait, je recommande le visionnage du documentaire « Ma femme a du crédit » sur le site de la chaîne parlementaire. Le crédit social à la chinoise et la reconnaissance faciale à chaque coin de rue, vous allez aimer …



la société explique qu’elle ne travaillait qu’avec des agences gouvernementales et qu’elle limitait sa technologie à « des processus d’enquête légaux dirigés contre un comportement criminel ou visant à prévenir des menaces spécifiques, substantielles et imminentes pour la vie ou la sécurité physique des personnes ».




Par menaces spécifiques il faut entendre “agent d’une agence gouvernementale infiltré” ?
En combien de mois une technique identique verrait le jour dans x cartel ? :poke:


Marrant ce leitmotiv de l’utilisation du préfixe “CLEAR” sur les sociétés au mieux dans la zone grise des lois, si ce n’est carrément au-delà (Clearstream).