Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !
27 pays ont testé l'application de reconnaissance faciale de ClearviewCrédits : Erikona/iStock

Accusée d'avoir siphonné plus de 3 milliards de photos extraites de Facebook, Instagram, YouTube et d'autres sites Web, et d'être utilisée par plus de 600 forces de l'ordre aux États-Unis, l'application de reconnaissance biométrique faciale Clearview AI a aussi été testée par plus de 2200 services répressifs, agences gouvernementales et entreprises privées dans 27 pays, selon des logs obtenus par BuzzFeed.

Mercredi, le Daily Beast avait révélé que la liste des clients de Clearview avait été volée. Son avocat lui avait répondu que « malheureusement, les fuites de données font partie de la vie au 21e siècle. Nous avons corrigé la faille, et continuons à renforcer la sécurité de nos serveurs ». 

Le PDG de Clearview, Hoan Ton-That, avait initialement déclaré se concentrer sur les États-Unis et le Canada, et que son logiciel n'était utilisé que « strictement pour l'application de la loi ». Les logs que BuzzFeed a pu authentifier révèlent qu'il a aussi été utilisé et testé par de potentiels clients dans des secteurs tels que l'enseignement, le droit, la vente au détail, les services bancaires et les jeux, et a pénétré les marchés internationaux en Europe, en Amérique du Sud, en Asie-Pacifique et au Moyen-Orient.

BuzzFeed a ainsi découvert que plus de 50 écoles et universités américaines figuraient au nombre des détenteurs de comptes ouverts chez Clearview, y compris plusieurs s'étant prononcées contre le recours à la reconnaissance biométrique faciale. 

Plus de 200 entreprises privées disposent elles aussi de comptes chez Clearview, dont des grands magasins comme Kohl's, Best Buy et Walmart, des banques comme Wells Fargo et Bank of America et 44 autres institutions financières, des opérateurs de téléphonie mobile comme AT&T, Verizon et T-Mobile, des sociétés privées dans des secteurs tels que le divertissement (Madison Square Garden et Eventbrite), les jeux (Las Vegas Sands et Pechanga Resort Casino), les sports (la NBA), le fitness (Equinox), et même les crypto-monnaies (Coinbase).

Au total, Clearview AI aurait proposé ses services à au moins 26 pays en sus des États-Unis, se rapprochant d'agences nationales d'application de la loi, d'organismes gouvernementaux et de forces de police en Australie, Belgique, Brésil, Canada, Danemark, Finlande, France, Irlande, Inde, Italie, Lettonie, Lituanie, Malte, Pays-Bas, Norvège, Portugal, Serbie, Slovénie, Espagne, Suède, Suisse et Royaume-Uni.

PBS a demandé si Clearview vendait dans des pays où l'homosexualité est un crime, mais l'entreprise n'a pas répondu. Elle aurait ainsi déjà fourni son logiciel à des organisations dans des pays criminalisant les personnes LGBTQ, comme l'Arabie Saoudite et les Émirats Arabes Unis.

8 commentaires
Avatar de Mihashi Abonné
Avatar de MihashiMihashi- 28/02/20 à 09:12:43

PBS ? Public Broadcasting Service :keskidit:

Avatar de La Quadrature du Net Abonné
Avatar de La Quadrature du NetLa Quadrature du Net- 28/02/20 à 10:00:53

Utiliser un logiciel illégal "« strictement pour l'application de la loi »", c'est osé.

Avatar de fred42 INpactien
Avatar de fred42fred42- 28/02/20 à 10:12:33

Illégal dans quel pays et pourquoi ?

Avatar de jpaul Abonné
Avatar de jpauljpaul- 28/02/20 à 11:54:45

Franchement je comprend pas qu'on tombe des nues.

Bien sûr il y a un problème éthique à proposer ce genre de services. Mais les données sont publiques. Faciles à récupérer. Quasi de manière légale. Faut juste savoir programmer de manière basique, utiliser une lib de reconnaissance faciale opensource, faire une boucle et mettre ça dans une base de données. C'est accessible à n'importe qui qui sait programmer, a une bonne machine et beaucoup de disques durs (et encore c'est pas dit qu'il en faille tant).

Ce qui est étonnant que ça n'arrive que maintenant. Et que ça n'aie pas déjà été fait en opensource.

Avatar de Vekin Abonné
Avatar de VekinVekin- 28/02/20 à 12:00:06

Sauf que tu oublies l'importance des algorithmes ! Sachant que le risque de faux positifs est très élevé, surtout avec certains groupes ethniques, alors rien que pour cette raison on ne peut décemment par accepter la généralisation de telles solutions pour lesquelles on accordera automatiquement trop de poids décisionnel.

Avatar de jpaul Abonné
Avatar de jpauljpaul- 28/02/20 à 12:08:46

Je n'accepte pas la généralisation de ces outils. Je dit juste que c'était extrêmement prévisible.

Le type en question a assez peu d'éthique pour ne faire son business. Mais nul doute que les états et grands groupes non clients ont juste déjà développé le truc en interne. La fiabilité ils s'en foutent, ils ne s'en servent probablement pas pour trouver "la personne" du premier coup, mais juste un sous-ensemble dans lequel il est plus facile de faire des recherches que simplement "l'ensemble des humains de la terre".*

* dans les pays avec un système judiciaire à peu près potable, pour les autres, ce n'est qu'un outil de plus pour taper aléatoirement dans le tas.

Édité par jpaul le 28/02/2020 à 12:09
Avatar de Equilibrium Abonné
Avatar de EquilibriumEquilibrium- 28/02/20 à 16:04:56

Illégal en Europe a tout le moins comme un traitement de données personnelles sans base légale valable, sans respect du principe de minimisation, du principe de loyauté des traitements, sans information des personnes concernées, et vraissemblablement par detournement de finalité.

J'espère qu 'une autorité de protection de la vie privée s'est saisie de l'affaire.

Cette boite fait un business sur des bases illégales et doit être sanctionnée.

Avatar de Ricard INpactien
Avatar de RicardRicard- 28/02/20 à 18:29:08

Elle aurait ainsi déjà fourni son logiciel à des organisations dans des pays criminalisant les personnes LGBTQ, comme l'Arabie Saoudite et les Émirats Arabes Unis.

Combien coûte une vie humaine ? Le prix d'une licence logicielle vendue ?
La place de ces gens est en prison.

Il n'est plus possible de commenter cette actualité.