AI Act : intenses débats en perspective

AI Act : intenses débats en perspective

Grabuge probable

Avatar de l'auteur
Mathilde Saliou

Publié dans

Droit

22/06/2023 10 minutes
3

AI Act : intenses débats en perspective

Entre lobbying des entreprises de la tech, préoccupations des représentants de la société civile et velléités des dirigeants français, la nouvelle phase de négociation autour du règlement européen sur l'intelligence artificielle promet de rester complexe.

Une semaine après l'accord du Parlement européen sur sa version d’un règlement sur l’intelligence artificielle (IA), et alors que débute la phase de discussion avec le Conseil européen et la Commission pour arrêter la version définitive du texte, les prises de parole se multiplient. 

Rien d’étonnant : il s’agirait du premier texte de loi d’envergure cadrant les pratiques de l’industrie de l’intelligence artificielle et l’Union Européenne souhaite en faire un modèle, un peu comme le Règlement général sur la protection des données (RGPD) a pu servir d’exemple à d’autres travaux législatifs sur la protection des données personnelles ailleurs dans le monde. Si bien qu’en 2022, la Technology Review le qualifiait rien moins que de « loi sur l’IA la plus importante dont vous ayez jamais entendu parler »

Parfaitement au clair sur les enjeux, des acteurs comme OpenAI ont déjà manœuvré dans l’ombre pour influencer l’écriture du texte au Parlement. Dans les dernières semaines, le ballet du lobbying s’est fait de plus en plus visible, aussi bien de la part de son PDG Sam Altman que d’autres chefs d’entreprises. 

À écouter les chefs d’entreprises de l’industrie de la tech, les associations de défense de consommateurs ou les représentants du gouvernement français, les grandes lignes de débats qui devront être tranchées en trilogue se dessinent. 

Mode influence activé (depuis au moins un an)

Pour rappel, l’approche adoptée par le Parlement européen consiste à classer les systèmes d’intelligence artificielle entre risque inacceptable (ce qui entraîne l’interdiction), risque élevé, risque limité et risque faible ou minimal, en fonction de quoi chaque constructeur devra répondre à des obligations différentes.  

Depuis 2022, Open AI argumente de manière répétée pour éviter que ses modèles génératifs ne soient caractérisés à haut risque, soutenu en la matière par les travaux de Microsoft et de Google, qui ont tous les deux lourdement investis dans OpenAI pour le premier, dans le développement de modèles similaires à GPT-3 et 4 pour le second.

Dans un « white paper » récupéré par le Time Magazine, OpenAI écrivait ainsi en 2022 « GPT-3 n’est pas en soi un système à haut risque ». Plus loin, l’entreprise admettait tout de même que la machine « possède des capacités qui peuvent potentiellement être employées dans des cas d’usages à haut risque ».

Les efforts semblent avoir porté leur fruit puisque, dans sa dernière version, le texte adopté par le Parlement européen opère une distinction entre systèmes d’intelligence artificielle « de fondation » (c’est-à-dire généralistes et adaptables à une grande catégorie de tâches) et IA à but général (general purpose AI, GPAI, qui peuvent être construites sur des systèmes de fondation et sont pensés pour être utilisables dans une variété d’applications), qui qualifient notamment les modèles génératifs. Les phrases qui considéraient un temps les GPAI comme des modèles présentant intrinsèquement de hauts risques ont par ailleurs été supprimées.

Dans le texte actuel, les modèles génératifs tombent finalement dans la catégorie des systèmes d’IA présentant un risque limité, ce qui peut trancher avec les risques exposés par OpenAI lui-même dans la documentation de son dernier modèle de traitement du langage GPT-4.

Les constructeurs de ce type de machines doivent néanmoins répondre à des obligations de transparence spécifiques : leurs constructeurs devront s’assurer que le public a conscience que les contenus face auxquels il se trouve ont été produits par une IA, mettre en place des dispositifs empêchant la génération de contenu illégal, et fournir des informations sur les données protégées par le droit d’auteur qui auraient été utilisées à l’entraînement.

Auprès du Time, un analyste décrypte : Sam Altman diffuse un discours paradoxal – de même que d’autres figures de l’industrie – dans la mesure où il appelle fréquemment à ce que les pouvoirs publics de différents pays l’aident à réguler, mais dès que les législateurs le prennent au mot, il refuse. Un autre souligne simplement que, comme les autres géants numériques, OpenAI a déployé tous les efforts nécessaires pour affaiblir les régulations qui risquaient de peser sur ses activités.

AI Pact, code de conduite… le BEUC s’inquiète des projets de la Commission

Il est intéressant, à la lumière de ces commentaires, de lire la lettre publiée le 2 juin par le Bureau Européen des Unions de Consommateurs (BEUC) à destination de la commissaire européenne à la Concurrence Margrethe Vestager et du commissaire européen chargé du Numérique Thierry Breton.

En effet, à l’issue d’une réunion du Conseil du commerce et des technologies (CCT) du 31 mai, la Commission Européenne et les États-Unis ont annoncé travailler à un projet de « code de conduite » commun sur l’intelligence artificielle.

L’idée : « établir des codes de conduites volontaires qui seraient ouverts à tous les pays partageant les mêmes idées », selon les mots du chef de la diplomatie américaine Anthony Blinken. Il s’agirait, aussi, d’avoir une proposition de texte plus rapide que l’AI Act, qui ne devrait pas entrer en vigueur avant 2025, notamment pour éviter que la Chine ne donne l’impulsion en matière de régulation de l’AI Act.

Six jours jour plus tôt, Reuters rapportait par ailleurs que le PDG d’Alphabet Sundar Pichai et le commissaire Thierry Breton avaient discuté à Bruxelles de la possibilité de créer un pacte sur l’IA en amont du règlement sur l’intelligence artificielle. Le dispositif servirait à ce que la Commission travaille avec des développeurs d’IA et des entreprises pour créer un cadre volontaire dans lequel acteurs publics et privés s’accorderaient sur des valeurs universelles à appliquer à l’industrie et à ses technologies.

Si le BEUC salue la volonté de la Commission d’agir au plus vite, elle constate d’abord que ces deux initiatives sont précisément construites sur la base du volontariat. Elle y souligne aussi un risque notable : que la Commission européenne ne travaille qu’avec une petite poignée d’acteurs, ce qu’elle qualifie de « hautement problématique » à l’heure où, précisément, le Parlement européen et le Conseil des ministres entrent dans une phase de négociation pour s’accorder sur le contenu du règlement sur l’IA. 

Pour éviter les risques de « conflits entre le rôle exécutif de la Commission européenne et du Conseil et du Parlement comme institutions législatives », le BEUC demande à ce que les négociations sur un pacte entre États-Unis et Union européenne ne soient pas lancées avant la finalisation de l’AI Act. Il appelle aussi à préférer le renforcement de l’application des lois existantes et à venir aux approches basées sur le volontariat. Enfin, il demande à ce que la société civile soit incluse dans les discussions.

Le gouvernement français milite pour une forme d'équilibre

Côté français, le gouvernement a un message, au sujet de l’IA : ne pas bloquer l’émergence d’un potentiel modèle génératif à l’européenne par excès de régulation. Un positionnement assez différent de celui que l’hexagone a pu adopter, note Politico, en matière de régulation du cloud et de restriction des échanges de données avec les États-Unis, notamment.

D’une part, la France fait tout pour expérimenter l’usage de technologies de vidéosurveillance algorithmique dans le cadre du maintien de l’ordre – le Sénat a adopté en avril une loi permettant de déployer ce type de technologies dans le cadre des Jeux Olympiques 2024, malgré les oppositions. Par ailleurs, au moins 11 pays européens utilisent des technologies de reconnaissance faciale dans leurs opérations de police. 

Après moult débats internes, le Parlement européen a de son côté adopté l’interdiction de la reconnaissance faciale (en temps réel) et de la police prédictive – à l’exception notable de l’usage de ce type de technologies aux frontières de l’UE. Des approches opposées qui risquent de donner lieu à d’importants débats au moment des négociations sur le texte final. 

D’autre part, l’intelligence artificielle générative intéresse ouvertement le gouvernement – ne serait-ce que parce que le pays compte depuis un peu plus d’un mois sa propre start-up experte du sujet, Mistral AI. Le ministre délégué chargé de la Transition numérique et des Télécommunications Jean-Noël Barrot s’est d’ailleurs inquiété auprès de Politico du retard de lancement du chatbot Bard de Google dans l’Union européenne, un contre-temps qu’a imposé la CNIL irlandaise le temps de répondre à ses inquiétudes en matière de protection de la vie privée. 

Outre le ministre délégué au numérique, le président s'est lui-même plusieurs fois prononcé en faveur d’un « juste milieu » entre innovation et régulation. Dans les dernières semaines, il a par ailleurs rencontré Sam Altman et Elon Musk, tous deux engagés de manière variable sur les questions de régulation de l'IA.

Sur le plateau de Viva Tech, la semaine passée, le Président a de plus clairement déclaré vouloir prendre les devants sur l’AI Act, pointant la lenteur du processus législatif en cours.

Écrit par Mathilde Saliou

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Mode influence activé (depuis au moins un an)

AI Pact, code de conduite… le BEUC s’inquiète des projets de la Commission

Le gouvernement français milite pour une forme d'équilibre

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (3)



Côté français, le gouvernement à un message, au sujet de l’IA : ne pas bloquer l’émergence d’un potentiel modèle génératif à l’européenne par excès de régulation. Un positionnement assez différent de celui que l’hexagone a pu adopter, note Politico, en matière de régulation du cloud et de restriction des échanges de données avec les États-Unis, notamment.




Tient ça fait très mauvais joueurs : On veut bien réglementer que si noter propre industrie n’est pas concernée :windu:


un peu comme le Règlement général sur la protection des données (RGPD)
a pu servir d’exemple à d’autres travaux législatifs



ce serait pas mal !
(même si il y-a quelques coups de canif)



https://www.cnil.fr/fr/transferts-de-donnees-hors-ue-derogations-pour-des-situations-particulieres


Merci pour cet article très complet !