Sam Altman demande des régulations au Sénat américain, mais s’inquiète de l’AI Act européen

Sam Altman demande des régulations au Sénat américain, mais s’inquiète de l’AI Act européen

IA au rapport

Avatar de l'auteur
Mathilde Saliou

Publié dans

Sciences et espace

26/05/2023 6 minutes
4

Sam Altman demande des régulations au Sénat américain, mais s’inquiète de l’AI Act européen

Après avoir appelé à des « régulations flexibles » de l’IA auprès du Sénat américain, le patron d'OpenAI, Sam Altman, s’est inquiété de la sévérité que pourrait prendre le texte européen en cours de préparation.

Alors qu’il était en déplacement à Londres, le directeur d’OpenAI, Sam Altman, a déclaré s’inquiéter des efforts européens de régulation de l’intelligence artificielle.

L’entrepreneur s’est ému de la récente évolution opérée par les commissaires de l'AI Act, de sorte à englober les récents modèles d’intelligence artificielle générative, rapporte le Financial Times : « nous ferons en sorte de nous mettre en conformité, mais si cela n’est pas possible, nous cesserons nos activités » dans la région, a déclaré Altman.

Open AI est à l'origine des modèles de langage GPT-3 et GPT-4 et des applications grand public ChatGPT et Dall-E.

Influencer sur la régulation européenne 

La déclaration survient alors que le texte de loi européenne vient d’intégrer plusieurs grosses évolutions, en vue d’un vote en plénière du Parlement européen, courant juin. 

Parmi elles, l’intégration d’une différence entre modèles d’IA à but général (general purpose AI, GPAI) et ceux de modèles « de fondation » (foundation model, FM). La première catégorie concerne des modèles livrés « bruts » et entraînés par le client, avec les données qui le concernent spécifiquement. La seconde touche les modèles qui ne fonctionnent qu’avec des données d’entraînement et dont les résultats sont le plus souvent généralistes, à l’image des modèles génératifs. 

En plus de cette distinction, le texte intègre en l'état une série d’obligations, notamment d’information et de documentation techniques, ainsi que celle d’enregistrer les modèles dans une base de recension tenue par l’Union européenne. 

S’insérer dans un débat plus large sur la définition et les cadres imposés à l’IA en Europe

En se prononçant de la sorte, Sam Altman et les autres géants numériques (qu'il représente en partie, de manière informelle) s’insèrent dans l’une des multiples catégories recensées par les chercheurs Bilel Benbouzid, Yannick Menneceur et Nathalie Alisa Smuha dans un article de la revue Réseaux. 

Ceux-ci recensent en effet quatre principales arènes qui abordent la problématique de l'intelligence artificielle (sa définition et les cadres qu'il faut lui créer) de manière différente : 

  • « les réflexions spéculatives sur dangers d’une superintelligence et le problème de son alignement avec les valeurs humaines », plutôt diffusées par des profils comme celui de Nick Bostrom ou par Sam Altman lui-même (via OpenAI) ;
  • « l’auto-responsabilisation des chercheurs développant une science régulatoire entièrement consacrée à la certification techniques des machines » ;
  • « la critique des effets néfastes des systèmes d’IA sur les droits fondamentaux », notamment incarnée par Timnit Gebru ou l’institut AI Now aux États-Unis, Access Now ou l'EDRi à l'échelle européenne ;
  • « la régulation européenne du marché par le contrôle de la sécurité du fait des produits et services de l’IA ».

Selon les chercheurs, toutes ont, d’une manière ou d’une autre, influencé la production du texte de règlement européen.

Et sur les autres cadres en préparation à travers la planète

La plupart de ces catégories se retrouvent aussi dans les multiples débats qui orientent la création de réglementations partout sur la planète. 

Mais les géants du numérique et leurs représentants sont particulièrement audibles ces derniers temps : certains, dont Elon Musk ou Steve Wozniak, ont appelé en mars à un moratoire temporaire sur le développement de ces technologies. Publiée sur le site futureoflife.org, la lettre est critiquée par une partie de l’industrie pour son côté opportuniste, voire marketing.

D’autres, comme Sam Altman, se sont prononcés en faveur d’une forme de régulation. Auprès du Congrès états-unien, ce dernier a en effet appelé à la création d’ « exigences de sécurité appropriées, y compris via l’obligation de tests internes et externes avant la mise en circulation » des produits, rapporte Fortune.

Une proposition qu’il a assortie de la demande de « cadres suffisamment flexibles pour être adaptés aux développements technologiques » futurs, propos qui poussent certains observateurs à s’inquiéter d’une régulation américaine trop souple.

Même si les travaux se multiplient à travers la planète pour encadrer le développement de l’industrie, d’autres appellent enfin à laisser la régulation de l’intelligence artificielle à ses propres concepteurs, à l’image de l’ancien directeur général de Google Eric Schmidt. En cela, son discours rejoint plus ou moins celui en faveur d’une éthique de l’intelligence artificielle développée par les entreprises elle-mêmes et que le juriste Yannick Menneceur avait décortiqué dans une interview pour NextINpact.

La perspective formulée par Altman de cesser d’opérer en Europe si l'AI Act est trop sévère ressemble, par ailleurs, aux discours adoptés par d’autres géants face à d’autres réglementations. Ainsi de Google, lorsque l'Australie a voulu réguler la diffusion de contenus de médias sur les plateformes numériques, ou de Meta, lorsque l’Union Européenne, le Canada ou les États-Unis ont travaillé à différents textes touchant son modèle publicitaire ou ses pratiques de recueil de données.

 

4

Écrit par Mathilde Saliou

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Influencer sur la régulation européenne 

S’insérer dans un débat plus large sur la définition et les cadres imposés à l’IA en Europe

Et sur les autres cadres en préparation à travers la planète

Commentaires (4)



une éthique de l’intelligence artificielle développée par les entreprises elle-mêmes




Merci Mr. Schmidt, on y croit fort!
:roll:


En gros il souhaite une régulation. Mais une régulation qui ira dans le sens d’entreprises comme OpenAI et ne poussera pas les curseurs trop loin. Faut pas déconner :fumer:


Il serait peut-être temps “de faire une pause” dans la régulation de l’I.A. … :mdr:


J’ai le sentiment que la régulation est un combat vain quand on voit l’argent qui est investi dans l’IA, rien que par Microsoft, qui a déjà la main mise sur la plupart des entreprises avec Office 365.



Limite un combat perdu d’avance…