Au Conseil d’État, la quête d'un équilibre pour favoriser l'IA en santé

Au Conseil d’État, la quête d’un équilibre pour favoriser l’IA en santé

🧑‍⚕️⚕️

Avatar de l'auteur
Mathilde Saliou

Publié dans

Droit

13/02/2023 9 minutes
3

Au Conseil d’État, la quête d'un équilibre pour favoriser l'IA en santé

Le 10 février s’est tenu le colloque « IA et mégadonnées : comment vont-elles révolutionner la recherche et la pratique médicale de demain ? » au Conseil d’État. Retour sur les axes de réflexions ouverts en début de rencontre.

Comment permettre la recherche médicale sans mettre en danger la vie privée des personnes dont les informations de santé permettent de travailler ? Comment tirer profit des technologies d’intelligence artificielle et de ce que l’exploration de mégadonnées promet pour l’amélioration de la recherche et des processus de travail dans le monde médical, sans revenir sur le principe fondamental de protection des données de santé ?

Telles étaient les questions qui ont agité, le 10 février, les participants du colloque « IA et mégadonnées : comment vont-elles révolutionner la recherche et la pratique médicale de demain », organisée par le Conseil d’État, la CNIL et l'alliance IHU-France des Instituts Hospitalo-Universitaires (IHU).

Notre récapitulatif du colloque sur l’IA et les mégadonnées dans la santé :

Bouleversement des possibilités de recherche

Traditionnellement, « nous étions dans un système de recherche classique, qui passe par l’observation, la formulation d’hypothèse, l’expérimentation puis l’analyse des résultats obtenus », a décrit le directeur général de l’IHU ICAN, Stéphane Hatem, en introduction. Les données massives et « les réseaux neuronaux ont bouleversé ce paradigme, à la fois parce que ce sont des boîtes noires », ce qui rend l’explication de leurs résultats complexe, mais aussi parce que ces technologies permettent « d’imaginer l’émergence d’une médecine empirique, qui serait issue de la gestion de mégadonnées ».

« Les données sont de super outils d’expérimentation, de pilotage et de gestion », a renchéri la présidente de la CNIL Marie-Laure Denis, utilisables, en santé, aussi bien pour le développement « d’outils d’aide au diagnostic, de prescription que de suivi thérapeutique ».

Pour autant, elles restent sensibles, au sens du RGPD, c’est-à-dire que leur collecte est interdite à quelques exceptions près (notamment si celle-ci est « justifiée par l’intérêt public » et « autorisée par la CNIL »). De fait, sans nier que leur usage est crucial pour la recherche, « en France comme en Europe, la CNIL comme le Comité européen de la protection des données (CEPD) formulent un message de protection » de ces informations.

L’urgence de dessiner un équilibre

L’enjeu, a résumé le Vice-Président du Conseil d’État Didier-Roland Tabuteau, est de continuer à « protéger les droits fondamentaux », sans occulter « la nécessaire progression de la santé et l’amélioration des systèmes de prévention et de soin ». Le régime juridique qui encadrera l’usage des mégadonnées devra « assurer un équilibre satisfaisant » entre ces deux pôles, équilibre que la plupart des experts présents ont admis être complexe à dessiner.

L’État n’a pas attendu l’explosion de l’intelligence artificielle pour se pencher sur les questions de gestion des données de santé : leur collecte et les risques que celle-ci entraîne sont mentionnées dès le rapport annuel de 1971 du Conseil d’État. Si la question devient urgente, en revanche, c’est que les experts du secteur comme le grand public développent une connaissance accrue des limites et des biais que peuvent renfermer les algorithmes et les traitements techniques au sens large lorsqu’ils sont appliqués à des questions sociales.

Le Conseil d’État s’est aussi affirmé préoccupé par une question d’efficacité. L’intelligence artificielle et les données peuvent permettre « une extension des soins adaptés », mais aussi « l’adoption de solutions coûteuses aux effets limités », a alerté Didier-Roland Tabuteau. Charge a donc été donnée à l’écosystème en cours de formation de viser le premier et d’éviter le second.

Œuvrer pour la confiance du grand public

L’écueil des solutions algorithmiques inutiles porte en elle un autre risque : celui de la défiance du public. En l’état, le secteur de la santé dispose d’un avantage : il existe un relatif consensus social sur le fait d’utiliser des données pour faire avancer la recherche et, à terme, les soins de tous. Néanmoins, Marie-Laure Denis a souligné le climat de méfiance qui entoure l’usage de mégadonnées et d’outils algorithmiques en général et appelé à « l’embrasser », en développant, notamment, l’usage d’outils « simple et de bon sens, comme l’information des patients ».

Comme le constatait déjà le rapport du Conseil d’État sur l’intelligence artificielle dans le service public, « l’efficacité de la recherche ne pourra être atteinte sans la confiance du public », a appuyé Didier-Roland Tabuteau. Entre autres exemples pragmatiques permettant à la fois d'informer et de créer de la confiance, la présidente de la CNIL a cité celui des logiques de labellisation et d’indications claires que tel outil utilise des technologies d’intelligence artificielle respectant le RGPD.

Quels que soient les outils finalement adoptés, le vice-président du Conseil invite à faire preuve de souplesse, dans la mesure où les discussions sur une directive européenne sur l’intelligence artificielle ont lieu en parallèle et qu’il faudra aussi s’adapter au cadre que celle-ci formalisera. La boussole, rappelle-t-il, est et restera le bien commun.

Responsabilité et propriété intellectuelle

En guise de précision, le Président-adjoint de la section de l’intérieur du Conseil d’État, Thierry Tuot, a rappelé les sept principes pour garantir une intelligence artificielle publique de confiance (.pdf) adoptés par le Conseil lors de la rédaction de son rapport : la primauté humaine, la performance des outils adoptés, l’équité et la non-discrimination, la transparence, la sûreté (au sens, notamment, de cybersécurité), la soutenabilité environnementale et l’autonomie stratégique.

Même avec ce cadre de réflexion, les sujets à débattre – et sur lesquels le droit et la société auront à trancher – restent nombreux. En recherche, a illustré Stéphane Hatem, la question de la propriété intellectuelle se pose déjà avec acuité : « on ne sait pas trancher qui a découvert quoi » lorsqu’un modèle d’intelligence artificielle est utilisé. Est-ce le chercheur ? Le constructeur ? Et si ce sont les deux, comment diviser les résultats de leur découverte ?

Une autre problématique urgente est celle de la responsabilité. « Si vous utilisez un dispositif technique comme une montre connectée pour vous administrer un anticoagulant, sur qui pèse la responsabilité du traitement ? ». Sur le médecin ? Sur la montre et son fabricant ? Pour y répondre, le médecin appelle à expérimenter, mentionnant les partenariats passés entre Dassault Systèmes et six IHU pour travailler sur des projets de jumeaux numériques dans le cadre du plan France 2030.

Faciliter le travail des chercheurs et des professionnels

S’il existe un régime de formalités préalables ou de demande d’autorisations, c’est précisément pour permettre les tests et dessiner des réponses acceptables à ces questions, a rappelé Marie-Laure Denis. Ces obligations « peuvent être vécues comme contraignantes par les chercheurs ou les acteurs privés », mais elles répondent à la préoccupation permanente de la CNIL pour « la protection de la vie privée, la lutte contre les discriminations et les biais et la conformité aux valeurs européennes ».

Ici, la présidente a mis le doigt sur un point revenu souvent, au fil du colloque : la CNIL n’est pas là (uniquement) pour jouer les gendarmes et vérifier la conformité des projets à la réglementation, elle est aussi, et depuis plusieurs années, engagée dans une vraie logique d’accompagnement des travaux innovants.

En pratique, cela se traduit par des outils disponibles sur son site web, comme ce webinaire dédié aux établissements de santé. Cela consiste, aussi, en la création d’un « bac à sable » (sandbox) réglementaire, un dispositif dans lequel la CNIL accompagne des projets pas à pas pour l’aider à s’assurer de la mise en place de mécanismes assurant une protection de la vie privée par défaut (privacy by design). Lors de sa création, en 2021, le premier axe adopté pour ce projet avait été celui de la santé.

« Les réglementations sont exigeantes, mais elles sont aussi quelquefois caricaturées », voire « fantasmées », a regretté la présidente. « Elles n’empêchent nullement les expérimentations. » Au contraire, la CNIL se déclare non seulement ouverte à accompagner qui souhaiteraient tester l’usage de mégadonnées et de modèles algorithmiques dans la santé, mais encore disposée à faire évoluer ses cadres si et quand cela s’avère nécessaire.

Face à l’explosion de l’intelligence artificielle, « il faut adapter nos cadres d’analyse », a même insisté Marie-Laure Denis. Comme de nombreux autres intervenants, la présidente de la CNIL promeut une forme d’adaptabilité et de réactivité, à mesure que de nouveaux cas d’usage des mégadonnées apparaîtront et que le besoin de cadre et de lignes directrices se fera sentir. Les référentiels et méthodologies de référence mises à disposition des professionnels, a-t-elle encore souligné, sont des « outils souples ».

Écrit par Mathilde Saliou

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Bouleversement des possibilités de recherche

L’urgence de dessiner un équilibre

Œuvrer pour la confiance du grand public

Responsabilité et propriété intellectuelle

Faciliter le travail des chercheurs et des professionnels

Fermer

Commentaires (3)



L’État n’a pas attendu l’explosion de l’intelligence artificielle pour se pencher sur les questions de gestion des données de santé




L’industrie non plus. Si vous saviez tout ce qu’on a dans les cartons qui n’attend qu’un cadre légal pour être pleinement déployé… :roll:



https://research.aimultiple.com/healthcare-ai-use-cases/


Merci pour l’article, mais, il me manque un maillon pour comprendre.
Le prédicat c’est que l’IA apporterait un apport à la recherche ?



Médecine empirique > pincettes


Et le Health Data Hub dans tout ça ?