Publié dans Droit

4

AI Act : l’IA générative pourrait être régulée par niveaux

AI Act : l’IA générative pourrait être régulée par niveaux

ChatGPT aura bousculé tout le monde, législateurs compris : les parlementaires européens avaient déjà bien avancé dans leur travail sur le règlement général de l’intelligence artificielle lorsque les modèles d’IA générative ont explosé. Décision a été prise d’ajouter ce type de modèles à la régulation, quand bien même les entreprises numériques et certains États membres suggéraient de reporter leur encadrement à de prochaines lois.

Dragos Tudorache, corapporteur de l’AI Act au Parlement, donne dans TechCrunch un aperçu des dernières discussions en cours, avant un vote en commission espéré pour le 11 mai (il faudra ensuite passer à l’étape suivante du travail législatif : celle des trilogues).

Pour commencer, les parlementaires différencient depuis quelques semaines les « vrais » modèles d’IA à but général (general purpose AI, GPAI) de modèles « de fondation » (foundation model, FM). Le premier label considère des modèles sans leurs données, explique Euractiv : le client, par exemple un hôpital, aura besoin de les entraîner avec les données qui l’intéressent, par exemple des représentations de lésions cancéreuses. Les GPAI sont donc adaptables à un large panel d’applications, pour lesquels il n’aura pas été spécifiquement entraînées à l’origine.

Le second, dont le nom vient d’une publication de l’université de Stanford, qualifie des modèles avec les données qui les ont entraînées, comme ChatGPT ou Stable Diffusion. Il s’agit cette fois de modèles entraînés sur de larges sommes de données, dont les résultats sont généralement généralistes et qui peuvent être adaptées à une série de tâches différentes.

Pour le moment, les parlementaires optent pour une approche de ces différents modèles en trois niveaux : l’un se concentre sur la répartition des responsabilités le long de la chaîne de production des modèles, un autre veille à créer un cadre à ces modèles de fondation, et un troisième se penche sur les problématiques spécifiques de contenus que posent certains outils, comme les problématiques de désinformation liées à ChatGPT.

En l’état, la première couche s’appliquerait à tous les GPAI, qu’ils soient de fondation ou non. La suivante s’appliquerait plutôt aux modèles de fondation. Et la troisième viserait plus spécifiquement les modèles génératifs qui ont récemment fait des étincelles dans l’actualité, en leur créant des responsabilités plus précises à la fois sur le type de contenu qu’ils produisent et sur leurs obligations en termes de droits d’auteur.

Quelle que soit la version définitive du texte, l’AI Act n’entrera probablement pas en vigueur avant 2025, voire plus tard, selon le temps accordé par l’Union aux entreprises pour qu’elles se mettent en conformité.

4

Tiens, en parlant de ça :

Le fichier des empreintes digitales sera interconnecté avec huit autres fichiers

FAED y verse

17:24 DroitSécu 2
Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé

Le ciblage publicitaire ne peut pas utiliser des données personnelles récupérées ailleurs

Schrems vs Meta, encore et encore

16:53 DroitSocials 5

Windows 11 ajoute des publicités dans le menu Démarrer, comment les supprimer

Rogntudjuuu !

11:18 Soft 47
4

Fermer

Commentaires (4)



AI Act : l’IA générative pourrait être régulée par niveaux




Pour vire heureux, vivons régulés.




ChatGPT aura bousculé tout le monde, législateurs compris




Le plus drole, c’est que dans pas longtemps les lois seront écrites, débattues et combattues avec des IA Générative. :D



Le premier label considère des modèles sans leurs données




Un modèle sans données, je pense que ça n’existe pas…il vaudrait mieux parler d’un algorithme, dans ce cas.



Dans l’article d’Euractiv, ils parlent d’un “AI System” :




By contrast, general purpose AI is deemed an “AI system that can be used in and adapted to a wide range of applications for which it was not intentionally and specifically designed.”




J’ai quand même très peur de l’usine à gaz inapplicable, au final.


Parrot vs Machine learning



Image


Marrant que le réflexe en Europe pour répondre à ChatGPT n’ai pas été de financer des projets en IA concurrents (comme l’ont immédiatement fait les puissances rivales des US) mais de réguler et interdire.



Réguler et interdire quoi, et dans quel but ? On ne sait pas, mais il faut le faire, et vite.