AI Act : le texte interdit désormais la reconnaissance faciale, la notation sociale et la police prédictive

AI Act : le texte interdit désormais la reconnaissance faciale, la notation sociale et la police prédictive

« Signal fort contre la surveillance »

Avatar de l'auteur
Martin Clavey

Publié dans

Droit

12/05/2023 6 minutes
8

AI Act : le texte interdit désormais la reconnaissance faciale, la notation sociale et la police prédictive

L'élaboration de l'Artificial intelligence Act progresse au Parlement européen avec l'ajout substantiel d'interdictions d'utilisations de l'IA traitant des données personnelles et notamment la reconnaissance faciale, la notation sociale et la police prédictive. Plusieurs associations de défenses des droits humains et numériques accueillent favorablement ce travail parlementaire européen.

Les discussions progressent dans l’élaboration d’un règlement européen sur l’intelligence artificielle : ce 11 mai, alors qu’ils votaient plusieurs séries d’amendements, les deux comités parlementaires en charge de l’élaboration de l’AI Act se sont accordés sur l’interdiction de la reconnaissance faciale dans les espaces publics et sur celle des outils de « police prédictive », rapporte l'agence Reuters. Ils ont par ailleurs décidé d’imposer des mesures de transparence spécifiques pour les applications d’IA générative de type ChatGPT.

Ces décisions sont saluées par une série d’associations de défenses des droits humains et numériques, comme Access Now ou l’EDRi (European Digital Rights), qui les accueillent comme un « signal fort contre la surveillance », selon les mots d’Algorithm Watch.

Une fois finalisé, le texte doit être soumis à un vote du Parlement européen réuni en plénière, en juin, avant que les derniers détails ne soient conclus en « trilogue », c’est-à-dire lors de discussions incluant des représentants du Parlement européen, du Conseil de l’Union européenne et de la Commission européenne.

Le texte inclut aussi maintenant une définition du terme « système d'intelligence artificielle », qui évidemment ne fera pas l'unanimité des spécialistes mais qui a au moins le mérite de permettre de savoir de quoi on cause.

En l'occurrence, le texte (pour l'instant en anglais) [PDF] pose le fait que « système d'intelligence artificielle » veut dire (traduction non officielle) :

« un système basé sur une machine conçu pour fonctionner avec différents niveaux d'autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent des environnements physiques ou virtuels. »

Le texte présente de façon plus explicite que certains usages de l'intelligence artificielle devraient être interdites.

La reconnaissance faciale explicitement interdite

Le texte propose l'interdiction des systèmes d'intelligence artificielle utilisant la reconnaissance faciale, que ce soit par l'extraction « non ciblée » de photos de visages sur Internet (incluant notamment les photos publiées sur les réseaux sociaux) ou de « séquences de vidéosurveillance ».

De même, sont visés les systèmes permettant de déduire les émotions d'une personne physique dans les domaines du maintien de l'ordre, de la gestion des frontières, sur le lieu de travail et dans les établissements d'enseignement.

La police prédictive aussi visée

Alors que le texte avait jusque-là fait l'impasse sur la police prédictive, la nouvelle version interdit maintenant toute vente, mise en service ou utilisation de système d'intelligence artificielle « permettant d'évaluer les risques encourus par des personnes physiques ou des groupes de personnes physiques afin d'évaluer le risque de délinquance ou de récidive [...] ou la répétition d'une infraction pénale ou administrative réelle ou potentielle, sur la base du profilage d'une personne physique ou de l'évaluation des traits de personnalité et des caractéristiques, y compris la localisation de la personne, ou le comportement criminel antérieur de personnes physiques ou de groupes de personnes physiques ».

L'identification biométrique à distance « en temps réel » prohibée

Se justifiant en expliquant que l'utilisation de l'IA dans l'identification biométrique à distance « en temps réel » est « particulièrement intrusive pour les droits et libertés des personnes concernées », qu'elle est imprécise et peut conduire à « des résultats biaisés et avoir des effets discriminatoires », les législateurs considèrent que celle-ci devrait être interdite dans les lieux accessibles au public.

Pour l'identification biométrique « a posteriori », leur position reste la même, sauf dans le cas de la recherche ciblée liée à une infraction pénale grave spécifique qui a déjà été commise, et uniquement sous réserve d'une autorisation judiciaire.

Des usages de l'IA manipulateurs et la notation sociale interdits

L'utilisation et la vente d'un système d'intelligence artificielle qui déploie des techniques « subliminales », « délibérément manipulatrices », « trompeuses » ou « ayant pour objectif ou pour effet de fausser de manière significative le comportement » sont, elles aussi, interdites.

De même, les systèmes qui ciblent « les vulnérabilités d'une personne ou d'un groupe spécifique de personnes, y compris les caractéristiques des traits de personnalité connus ou prédits de cette personne ou de ce groupe de personnes, sa situation sociale ou économique, son âge, ses capacités physiques ou mentales, dont l'objectif ou l'effet est de fausser matériellement le comportement de cette personne » seront explicitement prohibés.

L'utilisation de l'intelligence artificielle pour établir un système de notation sociale en fonction du comportement social, du statut socio-économique et des caractéristiques personnelles est aussi visée et sera interdite par le texte, que celle-ci soit faite au nom d'autorités publiques ou non (alors que la précédente version du texte ne ciblait que l'utilisation par les seules autorités).

Régulation de l'utilisation des modèles de langage utilisés dans les services comme chatGPT

Les parlementaires ont également adapté leur texte aux récentes adoptions des modèles de langage dans l'industrie comme ChatGPT. Il demande à ce que tout « modèle de fondation » (dont font partie les grands modèles de langage) soit déclaré dans une base de l'Union européenne avec les détails le concernant.

Le fournisseur d'une API interrogeant un tel modèle devrait avoir une obligation de coopération avec les entreprises utilisatrices pendant toute la période durant laquelle le service est fourni pour que les risques qu'ils engendrent soient le mieux géré possible.

Ces modèles de fondation devront être accompagnés d'obligation d'information et de documentation technique pour les entreprises qui y ont accès. L'utilisation de ces modèles devra être transparente quant au fait que le contenu est généré par un système d'intelligence artificielle et non par des humains.

Enfin, « étant donné que les modèles de fondation constituent une évolution nouvelle et rapide dans le domaine de l'intelligence artificielle, il convient que la Commission et le Bureau européen de l'IA [nouvelle instance envisagée par le texte, ndlr] surveillent et évaluent périodiquement le cadre législatif et de gouvernance de ces modèles ».

Ce texte doit maintenant être approuvé par l'ensemble du Parlement lors d'un vote mi-juin pour que les négociations avec le Conseil de l'UE débutent.

Écrit par Martin Clavey

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

La reconnaissance faciale explicitement interdite

La police prédictive aussi visée

L'identification biométrique à distance « en temps réel » prohibée

Des usages de l'IA manipulateurs et la notation sociale interdits

Régulation de l'utilisation des modèles de langage utilisés dans les services comme chatGPT

Fermer

Commentaires (8)


Tiens, Paris 2024 risque de pas aimé le texte …



En tous cas, ça semble une bonne chose de mettre des règles relativement claire.



Est-ce qu’il y a une ouverture sur les nouveaux modèles qui pourraient arrivé avec le temps en dehors du passage ci-après ?



[quote]
le Bureau européen de l’IA [nouvelle instance envisagée par le texte, ndlr] surveillent et évaluent périodiquement le cadre législatif et de gouvernance de ces modèles ».
[/quote]



Les parlementaires ont également adapté leur texte aux récentes adoptions des modèles de langage dans l’industrie comme ChatGPT. Il demande à ce que tout « modèle de fondation » (dont font partie les grands modèles de langage) soit déclaré dans une base de l’Union européenne avec les détails le concernant.




J’ai un peu de mal à comprendre ce passage. S’agit-il ici d’établir un référentiel des “modèles de fondation” maintenu par la Commission pour connaître les aptitudes du produit, ses limites et risques associés ? Une sorte de datasheet du modèle publiquement accessible ?



Sinon globalement je trouve que c’est plutôt sensé comme mesures. Surtout celles qui visent à interdire des pratiques qui doivent être un véritable cock block pour les amateurs du délire sécuritaire un peu comme la loi JO 2024 citée par mon VDD.



Mais une chose qui m’interroge au vu de la définition proposée pour l’IA : les algomagiques des médias sociaux ne risquent-ils pas de tomber dans cette définition ? (même si de toute façon ils sont commercialement vendus comme étant “propulsés par de l’IA”).



L’obligation de la mention de contenu généré par IA est pertinente de mon point de vue, mais elle risque d’être facilement contournable. Il suffit qu’un humain approuve le contenu généré ou en modifie quelques points pour considérer qu’il ne l’est plus. Ou alors la systématiser dès que l’outil est utilisé même pour de l’assistance ? Est-ce que la proposition du AI Act précise ce genre de chose ? Après la licence d’utilisation de certains modèles ou outils en ligne exigent déjà l’attribution en contrepartie.



J’avoue ne pas avoir le courage de me farcir l’ensemble du document, merci pour cette synthèse fort intéressante.



SebGF a dit:


J’ai un peu de mal à comprendre ce passage. S’agit-il ici d’établir un référentiel des “modèles de fondation” maintenu par la Commission pour connaître les aptitudes du produit, ses limites et risques associés ? Une sorte de datasheet du modèle publiquement accessible ?



Surtout qui tient les manettes de l’engin derrière, je pense, un responsable des sorties du bidule, ça me parait plus important que les aptitudes dont la gamme est très très large visiblement.




Ce texte doit maintenant être approuvé par l’ensemble du Parlement lors d’un vote mi-juin pour que les négociations avec le Conseil de l’Europe débutent.




La France va pas aimer et va tout faire pour que ça ne passe pas en l’état.


Ils ont par ailleurs décidé d’imposer des mesures
de transparence spécifiques pour les applications d’IA générative de type ChatGPT.



(vu ce qu’on arrive, déjà, à faire avec ce genre d’outil) :eeek2:
il fallait vite faire quelque chose !


Quid des algorhitmes de tri automatiques de photos par sujets les composants ?
Quid des dévérrouillages par visages des tel (etc.) ?


Police prédictive banni? C’est Tom Cruise qui va pas être content.



Sinon 1ere fois en 10 ans à ma connaissance que je vois un article écrit en binôme !



:bravo: :incline: :yes:


Il y a de bonnes idées dans ce texte, mais il semble qu’il y ait aussi des choses très problématiques.



Le phrasé du texte à l’heure actuelle pourrait déboucher sur une situation où faire de l’I.A. en OpenSource deviendrait juste impossible en Europe, et l’extraterritorialité du texte obligerait les sites comme GitHub à barrer l’accès au niveau européen à tout contenu en infraction avec ce texte.



Mais bon, ce n’est pas le seul assaut en cours de l’U.E. contre l’Opensource, avec le “Cyber Resilience Act” qui propose de “responsabiliser” les “fabricants”, les “importateurs” et les “distributeurs” de logiciels en cas de vulnérabilité et qui interdit de publier un logiciel non finalisé hormis un cadre très restrictif…