Des agences de financement de la recherche américaine et australienne se prononcent contre l'utilisation de l'IA générative pour élaborer des critiques sur des dossiers de financements.
La tentation est forte du côté de l'évaluation de projets de recherche d'utiliser l'intelligence artificielle pour traiter cette tâche considérée comme ingrate. Si, en février dernier, le secrétaire général pour l’investissement (France 2030), Bruno Bonnell, envisageait l'intelligence artificielle pour présélectionner des projets de recherche, d'autres agences de financement se positionnent contre toute délégation de ce travail à l'IA.
En juin, les Instituts américains de la santé (National institutes of health, NIH) ont interdit « l'utilisation de technologies d'intelligence artificielle générative [...] dans le cadre du processus d'évaluation par les pairs des NIH ». De même, dans une note publiée le 7 juillet [PDF], le Conseil australien de la recherche (Australian Research Council, ARC), principal organisme de financement de la recherche en Australie, s'est opposé à toute utilisation d'intelligence artificielle générative dans l'évaluation des dossiers de financement de projets de recherche.
De possibles problèmes de confidentialité
Depuis plus de dix ans, dans la plupart des pays, le financement de projets de recherche s'appuie de plus en plus sur un système d'appel à projets de recherche. En France, l'Agence Nationale de la Recherche (ANR) est le principal organisme chargé de répartir ces financements, mais le Secrétariat général pour l'investissement (SGPI), qui gère le budget de 54 milliards d’euros du plan « France 2030 », est aussi devenu un important financeur de la recherche française.
Chaque projet est évalué, avec des critères plus ou moins différents suivant les agences, par d'autres chercheurs pour apprécier la pertinence de son éventuel financement. Ce processus nécessite une confiance dans la qualité d'évaluation par les pairs, une confidentialité et un regard de spécialiste sur l'originalité du projet. Dans une note publiée sur leur site expliquant la décision de leur agence, des responsables des NIH considèrent que « l'utilisation de l'IA pour aider à l'évaluation par les pairs impliquerait une violation de la confidentialité ».
Ils considèrent que « garantir la confidentialité signifie que les scientifiques se sentiront à l'aise pour nous faire part de leurs idées de recherche sincères, bien conçues et approfondies » et qu' « il n'existe aucune garantie quant à l'endroit où les outils d'IA envoient, enregistrent, consultent ou utilisent les données relatives aux demandes de subvention, aux propositions de contrat ou aux critiques, et ce à tout moment ».
Mais aussi des problèmes d'exactitude et d'originalité
Au-delà de la confidentialité, les NIH attendent un regard original des évaluateurs. Ils expliquent que « les données sur lesquelles l'IA générative est entraînée sont limitées à ce qui existe, à ce qui a été largement publié et aux opinions qui ont été écrites pour la postérité. Des biais sont intégrés dans ces données ; l'originalité de la pensée que les NIH valorisent est perdue et homogénéisée par ce processus et peut même constituer un plagiat ».
Dans ce sens, l'agence australienne relève que « le contenu produit par l'IA générative peut être basé sur la propriété intellectuelle d'autrui ou peut également être factuellement incorrect ».
Selon la revue Science, la Fondation américaine pour la science (National Science Foundation, NSF), une autre agence de financement américaine, a créé un groupe de travail en interne pour réfléchir à ces questions. Le Conseil européen de la recherche, qui gère une bonne partie des financements de la recherche européenne, devrait lui aussi se pencher d'ici peu sur la question. Contactée par Next INpact, l'ANR n'a pas encore répondu à notre sollicitation.
Des chercheurs partagés
Science explique la récente prise de position par l'alerte envoyée par plusieurs chercheurs sur l'utilisation des IA génératives dans ce genre de rapport d'évaluation. Le neuroscientifique Greg Siegle et d'autres chercheurs leur ont notamment envoyé en avril dernier une lettre ouverte, se disant inquiets pour l'avenir des programmes de financement des NIH à cause de l'utilisation de ces IA pour rédiger des évaluations.
Greg Siegle s'est rendu compte de l'ampleur de l'utilisation de ChatGPT et autres en rencontrant des collègues à une conférence. Ces derniers considéraient l'utilisation de l'outil comme un gain de temps qui leur était devenu indispensable.
Cette évaluation des projets est souvent perçue comme ingrate et une perte de temps de recherche par certains. Mais jusque-là, aucun chercheur ne proposait ouvertement d'attribuer cette tâche à quelqu'un qui n'était pas spécialiste du champ, pour les mêmes raisons évoquées plus haut par le NIH et l'ARC : exactitude, originalité et confidentialité.
L'utilisation de ces IA par certains d'entre eux pour rédiger ces évaluations montre que des chercheurs sont prêts à sous-traiter ces tâches à la machine pour avoir plus de temps à la paillasse.