Après le chatbot Replika début février, ChatGPT subit les foudres de l’autorité italienne. L’annonce a été faite par la Garante per la protezione dei dati personali (GPDP), l’équivalente de notre CNIL. D’autres institutions en Europe et aux États-Unis s’inquiètent aussi de ChatGPT, mais c’est le premier blocage du genre.
La GPDP n’y va pas par quatre chemins et ne veut laisser « aucun moyen pour ChatGPT de continuer à traiter des données en violation des lois sur la protection de la vie privée ». Le régulateur a ainsi imposé « une limitation temporaire, mais immédiate au traitement des données des utilisateurs italiens par OpenAI ». Cette dernière est pour rappel à l’origine de ChatGPT.
Les griefs de la GPDP contre ChatGPT
Dans son exposé des griefs, la GPDP commence par rappeler que ChatGPT « a subi le 20 mars une perte de données concernant les conversations des utilisateurs et des informations relatives au paiement des abonnés ».
L’autorité à d’autres reproches à faire, notamment l’absence « d’information aux utilisateurs et aux personnes dont les données sont collectées par Open AI et, plus important encore, il ne semble pas y avoir de base juridique par rapport à la collecte et au traitement massifs de données personnelles afin d’"entrainer" les algorithmes ».
La GPDP s’appuie sur des tests mis en ligne pour affirmer que « les informations mises à disposition par ChatGPT ne sont pas toujours factuelles, de sorte que des données personnelles inexactes sont traitées ». Elle reproche enfin l’absence de vérification d’age alors que, selon les conditions d’utilisation d’OpenAI, ChatGPT est interdit aux moins de 13 ans.
Le régulateur italien explique enfin qu’OpenAI dispose de 20 jours pour lui notifier les mesures mises en place pour se conformer à son injonction, « faute de quoi une amende pouvant aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial pourra être infligée ».
La CNIL française n’a pas reçu de plainte
Interrogée par l’AFP, la CNIL précise n’avoir « pas reçu de plainte et n’a pas de procédure similaire en cours ». La Commission s’est néanmoins rapprochée de son homologue « afin d'échanger sur les constats qui ont pu être faits ».
La GPDP s’appuyant sur le RGPD pour expliquer sa décision, la CNIL et d’autres pays pourraient suivre le pas si les autorités arrivent à la même conclusion.
Europol et le BEUC s’inquiètent, une plainte à la FTC
Quoi qu’il en soit, la GPDP italienne n’est pas la seule institution à s’émouvoir de ChatGPT, et les inquiétudes ne datent pas d’hier. Europol a publié un document cette semaine sur « l’impact des grands modèles de langage [LLM, ndlr] sur l’application de la loi », expliquant que des criminels pourraient se servir de l'intelligence artificielle pour leurs méfaits.
Cette semaine également, le Center for AI and Digital Policy (CAIDP) a déposé une plainte auprès de la FTC (Federal Trade Commission). Elle « exhorte la FTC à enquêter sur OpenAI et à suspendre la vente de produits utilisant des grands modèles de langage, tels que GPT-4 ». Le CAIDP leur reproche notamment de décrire « comment commettre des actes terroristes, comment assassiner des dirigeants politiques et comment dissimuler la maltraitance des enfants. GPT-4 a la capacité d’entreprendre une surveillance de masse à grande échelle, en combinant sa capacité à ingérer des images, lier des identités et développer des profils complets ».
Dans la foulée, le Bureau européen des unions de consommateurs (BEUC) a demandé « aux autorités européennes et nationales d’ouvrir une enquête sur ChatGPT et les chatbots similaires ».
Le BEUC rappelle que l’Union européenne travaille actuellement sur la « première législation au monde sur l’IA », mais le Bureau craint qu’il faille encore « des années » avant que la loi n’entre en vigueur. Il ne souhaite donc pas laisser « les consommateurs exposés au risque de préjudice d’une technologie qui n’est pas suffisamment réglementée pendant cette période intérimaire ».
Le Sénat dégaine sa proposition de résolution
De manière opportune, le Sénat explique que sa commission des affaires européennes « a adopté à l’unanimité hier matin une proposition de résolution européenne pour appuyer l’instauration d’une réglementation européenne » dans le domaine des intelligences artificielles.
La commission affirme « la nécessité de prévenir une utilisation excessive de cette technologie, et d’en promouvoir un déploiement conforme aux valeurs européennes, c’est-à-dire au service de l’humain, fiable et éthique ». Les rapporteurs rappellent que « mal utilisée, l’intelligence artificielle est susceptible de causer de graves atteintes aux droits fondamentaux, qu’il s’agisse du respect de la vie privée, de l’accès à la justice ou encore du respect du principe de non-discrimination ».
La proposition de résolution comporte plusieurs points, notamment « l’interdiction générale de certaines applications particulièrement contraires aux valeurs de l’Union européenne ». Le document demande aussi d’« expliciter l’articulation entre la réglementation européenne sur l’intelligence artificielle et le règlement général sur la protection des données ».
Il ne s’agit que d’une proposition de la commission des affaires européennes, qui est désormais renvoyée à la commission des lois, « qui peut ou non s’en saisir avant qu’elle ne devienne définitivement une résolution du Sénat d’ici un mois ».