AI Act : un groupe d’associations demande au Parlement européen de protéger les droits fondamentaux

AI Act : un groupe d’associations demande au Parlement européen de protéger les droits fondamentaux

AI AI AI

Avatar de l'auteur
Mathilde Saliou

Publié dans

Droit

24/04/2023 6 minutes
0

AI Act : un groupe d’associations demande au Parlement européen de protéger les droits fondamentaux

Un groupe d’associations européennes demande aux parlementaires européens de prioriser les droits fondamentaux dans leurs travaux sur l’intelligence artificielle. Parmi leurs demandes : donner aux personnes affectées par les systèmes automatisés le pouvoir de réagir, assurer la transparence et la responsabilité de l’usage d’IA et interdire les systèmes de reconnaissance biométrique et de reconnaissance des émotions.

Un groupe d’associations européennes a adressé le 19 avril un appel (.pdf) aux parlementaires européens pour les enjoindre à prioriser les droits fondamentaux dans leurs travaux sur l’intelligence artificielle. 

La première phase de négociation autour du règlement sur l’intelligence artificielle se rapproche de son terme - selon Contexte, les corapporteurs Brando Benifei et Dragoş Tudorache multiplient les réunions techniques et politiques, espérant parvenir à un vote en commission parlementaire le 11 mai. Ce sera ensuite le début de la phrase de trilogue, c’est-à-dire de discussion entre la Commission européenne, le Conseil de l’Union et le Parlement européen.

Dans ce contexte, 75 associations de la société civile installées partout dans l’Union demandent aux législateurs de faire des droits humains et de la protection des personnes affectées par les systèmes d’intelligence artificielle leur priorité. L’EDRi (European Digital Rights), Algorithm Watch, Article 19, Amnesty International, ou encore Access Now font partie de ces signataires – toutes suivent le sujet de près depuis la publication d’une proposition de règlement en 2021.

IA et systèmes automatisés : des dommages récurrents sur les droits humains

Rien que dans les dernières semaines, les exemples de dommages que des systèmes automatisés peuvent poser à la vie privée se sont multipliés, avec le cas d’employés de Tesla ayant partagé des contenus sensibles récupérées par les caméras de véhicules, ou celui de Roomba, robot ménager de l’entreprise iRobot.

Ce dernier récupère les images et données envoyées par ses bêta-testeurs pour les envoyer dans une vaste chaîne de production de jeux d’entraînement sans obtenir leur consentement – y compris, rapporte la Technology Review, des clichés pris par le robot alors que des personnes se trouvent aux toilettes.

Dans les dernières années, entre autres travaux, l’association Fair Trial a par ailleurs longuement analysé le déploiement de dispositifs automatisés dans la justice pénale européenne, rapportant de nombreux cas de discrimination, voire de négation de la présomption d’innocence.

L’EDRi s’est aussi alarmée à plusieurs reprises des expérimentations technologiques menées aux frontières européennes, tandis qu’Article 19 a détaillé les risques inhérents au déploiement de technologies de reconnaissance d’émotions, « souvent pseudoscientifiques ».

« Sans régulation appropriée, les systèmes d’intelligence artificielle vont exacerber les préjudices sociétaux déjà posés par la surveillance de masse, la discrimination structurelle, le pouvoir centralisé des grandes entreprises technologiques, les décisions publiques prises sans rendre de comptes et l’extraction environnementale », alertent donc les organisations.

Trois axes de recommandations

En réaction, les associations demandent aux parlementaires de travailler sur trois points : donner aux personnes affectées par les systèmes automatisés le pouvoir de réagir, assurer la transparence et la responsabilité de l’usage d’IA, et interdire les systèmes qui posent des risques inacceptables pour les droits fondamentaux. 



Le texte donne des détails pour chacun de ces axes : sur la question du « pouvoir d’agir » (empowerment, en VO), les ONG demandent notamment que les personnes affectées soient informées de l’usage d’algorithmes ; qu’elles aient la possibilité de formuler des plaintes auprès d’autorités nationales ; qu’elles puissent demander une représentation, notamment de la part d’organisations d’intérêts ; et que le texte leur assure de vrais remèdes et réponses, en cas de dommages effectifs sur leurs droits fondamentaux.

Point de vue responsabilité et transparence, les associations demandent des audits et enquêtes sur les effets des systèmes d’IA à haut risque sur les droits humains ainsi que la constitution d’une base de donnée qui recensent tous les systèmes déployés en Europe répondant à cette catégorie. 

Pour rappel, l’approche adoptée par la commission européenne consiste à classer les modèles d’intelligence artificielle selon différentes catégories : risque inacceptable, qui se traduit par une interdiction, risque élevé, risque limité ou risque minime, chacun entraînant des obligations spécifiques. Par ailleurs, le Parlement européen travaille à une directive sur la responsabilité en matière d’IA en plus du règlement sur l’intelligence artificielle.

En dernier lieu, les signataires appellent à l’interdiction des technologies d’identification biométrique en temps réel et a posteriori, sans exception – contrairement à la position qui se dessine pour le moment en France. Elles demandent aussi l’interdiction des systèmes de prédiction et de profilage dans la justice et les force de l’ordre, celle des systèmes dédiés à donner des scores de risques à des individus dans le contexte migratoire, une interdiction des systèmes de catégorisation biométrique.

Enfin, comme les CNIL européennes, les associations appellent à interdire les systèmes de reconnaissance d’émotions. Comme le souligne Euractiv, l’interdiction d’usages spécifiques de l’intelligence artificielle reste l’un des sujets les plus complexes à trancher pour les législateurs européens. 

Écrit par Mathilde Saliou

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

IA et systèmes automatisés : des dommages récurrents sur les droits humains

Trois axes de recommandations

Fermer

Commentaires (0)