Alors que les administrations sont théoriquement tenues de publier les principales règles de fonctionnement de leurs algorithmes, rares sont les acteurs publics à se plier à leurs nouvelles obligations (en vigueur depuis octobre 2017). La CADA vient ainsi d’inviter les Allocations familiales à davantage de transparence, à des fins pédagogiques.
Redevance TV, prime d’activité, impôt sur le revenu, allocations familiales, bourses scolaires, taxe d’habitation... Même si l’administration ne l’indique que rarement, nombre de décisions individuelles sont aujourd’hui prises à l’aide d’algorithmes.
Parfois, ces programmes informatiques n’interviennent qu’à titre accessoire, comme dans le cadre de Parcoursup (où une intervention humaine est normalement impérative). Dans d’autres cas, la décision est 100 % automatisée, comme pour le calcul de l’impôt sur le revenu.
Afin d’éviter les phénomènes de « boîte noire », le législateur a cependant souhaité imposer, en 2016, différentes obligations de transparence aux acteurs publics.
Des obligations de transparence introduites en 2016, mais guère respectées
Dès lors qu’une décision individuelle est prise « sur le fondement d'un traitement algorithmique », l’administration doit en informer l’usager par le biais d’une « mention explicite ». Ces quelques mots ont notamment vocation à rappeler au citoyen qu’il est désormais en droit d’obtenir une explication individualisée des « règles » et « principales caractéristiques » de mise en œuvre de l’algorithme s’étant immiscé dans son dossier : degré de contribution à la prise de décision, données traitées (et leurs sources), paramètres de traitement appliqués à la situation du demandeur, etc.
Depuis le 7 octobre dernier, suite à l’entrée en vigueur des nouvelles obligations d’Open Data « par défaut », les administrations d’au moins 50 agents ou salariés doivent également mettre en ligne les « règles définissant les principaux traitements algorithmiques utilisés dans l'accomplissement de leurs missions », à condition bien entendu qu’ils « fondent des décisions individuelles ».
Pour résumer, la loi prévoit désormais trois « couches » de transparence :
- La communication, sur demande, de l’algorithme lui-même – à destination principalement des personnes compétentes en informatique – sous couvert qu’il n’y ait pas d’atteinte aux secrets protégés par la loi (secret défense, etc.).
- La mise en ligne des « règles définissant les principaux traitements algorithmiques » utilisés par les administrations d’au moins 50 agents ou salariés – dans une optique d’information générale et spontanée des citoyens.
- L’explicitation, sur demande, des « règles » et « principales caractéristiques » de fonctionnement des algorithmes ayant contribué à une décision administrative particulière – dans une logique de réponse individualisée.
Si les administrations ont ouvert différents codes sources ces dernières années (logiciels de calcul de la taxe d’habitation ou de l’impôt sur le revenu, par exemple), l’explicitation des algorithmes demeure encore un véritable point noir.
Allocations familiales, Pôle emploi, administration fiscale... Aucune de ces institutions – qui brassent pourtant des millions de décisions chaque année – n’a encore intégré la moindre « mention explicite ». Se faire détailler le fonctionnement d’un algorithme relève du parcours du combattant, comme nous avons déjà eu l’occasion de l’expérimenter (voir notre article).
Pourtant, la publication des seules « règles » générales de fonctionnement des différents algorithmes utilisés par les administrations semblait plutôt simple à mettre en œuvre, dans la mesure où il n’y a pas à fournir d’informations individualisées.
Faute de trouver ces sortes de « modes d’emploi » sur Internet, comme l’impose pourtant la loi pour une République numérique, nous avons demandé fin octobre aux Allocations familiales, à Pôle emploi, à la Direction générale des finances publiques et au ministère de l’Éducation nationale de les mettre en ligne, sur le fondement du droit d’accès aux documents administratifs.
Pôle emploi s’était finalement plié à l’exercice, mi-décembre, en diffusant plusieurs fiches détaillant les « règles et grandes caractéristiques » des algorithmes relatifs à la principale allocation chômage, l’ARE.
Faute de réponse des autres administrations, nous avions saisi la Commission d’accès aux documents administratifs (CADA), passé un délai d’un mois.
La CNAF se pare derrière les contraintes techniques
Face à la CADA, la Caisse nationale d’allocations familiales (CNAF) a clairement indiqué que les « règles » relatives à ses algorithmes n’étaient « pas des documents qui existent en l’état ». Un aveu plus qu’un argument, la loi prévoyant expressément la publication de ces informations.
L’établissement public a surtout fait valoir que ces règles ne pouvaient « être obtenues par un traitement automatisé d’usage courant ». Cette précision est loin d’être anodine, puisque le droit d’accès aux documents administratifs ne s’exerce dans la limite des possibilités techniques de l’administration...
Or en l’espèce, la CNAF jonglerait avec près de 17 000 règles de droit, au titre de la vingtaine de prestations versées par l’institution. Le tout grâce à un logiciel métier datant des années 90 (et comprenant notamment des couches Cobol).
Pour obtenir les « spécifications fonctionnelles » du logiciel métier de la CNAF, dénommé Cristal, seule une extraction manuelle serait possible, suivie d’un retraitement, lui aussi manuel. L’institution a ainsi expliqué à la CADA que 95 jours seraient nécessaires pour effectuer une telle opération...
Feu vert de la CADA
Dans un avis rendu le mois dernier, la CADA a toutefois balayé l’argumentation déployée par les Allocations familiales : « Si la CNAF fait valoir ne pas être en mesure de fournir ces règles qui s'apparentent, selon elle, aux spécificités fonctionnelles des différentes prestations qu'elle sert, la commission rappelle que ces dispositions visent à renforcer la transparence de l’action publique en imposant à l’administration de définir publiquement les règles gouvernant les principaux traitements algorithmiques qui fondent les décisions individuelles, en dehors de toute demande. »
L'autorité indépendante laisse entendre que la CNAF n’a pas à détailler tout le fonctionnement de ses algorithmes, mais plutôt à en présenter les grandes lignes, « dans des termes intelligibles ». La commission rappelle à cet égard que dans le cadre de l’explicitation « sur demande », les administrations doivent revenir sur « le degré et le mode de contribution du traitement algorithmique à la prise de décision », « les données traitées et leurs sources », ou bien encore « les paramètres et les opérations du traitement ».
La CADA a ainsi émis un avis favorable à notre requête, tout en essayant d’y mettre les formes... « La CNAF met d'ores et déjà un nombre conséquent d'informations à destination du public sur les prestations qu'elle sert », relève ainsi l’autorité. « Il ne s'agit donc pas tant pour elle de créer de nouveaux documents que d'adapter ceux existants aux exigences [de la loi pour une République numérique] ».
Au mois de juin, la même commission avait émis un avis favorable à notre demande visant le ministère de l’Éducation nationale (sauf concernant les algorithmes utilisés dans le cadre de Parcoursup). La Rue de Grenelle a indiqué à la CADA que les fameuses règles étaient toujours « en cours d’élaboration », et qu’elles seraient mises en ligne dès leur achèvement.
Idem pour la DGFiP, qui avait expliqué à la CADA avoir d’ores et déjà publié une brochure portant sur la taxe d’habitation (mais qui ne précise par exemple pas les données traitées et leur source, ni le degré de contribution de l’algorithme...). La publication des règles relatives aux autres traitements mis en œuvre par l’administration fiscale devrait être « effectuée progressivement au cours des prochains mois », a promis Bercy.
Pas de sanction, mais des décisions susceptibles d'être annulées
Si aucune sanction n’est prévue pour les administrations qui rechignent à se plier à leurs nouvelles obligations de transparence, le Conseil constitutionnel a adressé l’année dernière une mise en garde très claire à l’attention des pouvoirs publics.
Dès lors qu’une décision est entièrement automatisée, l’administration doit impérativement dévoiler les « principales caractéristiques de mise en œuvre » de ses algorithmes. Si la protection d’un secret (données personnelles, secret défense...) fait juridiquement obstacle à la transparence, alors « aucune décision individuelle ne peut être prise sur le fondement exclusif de cet algorithme », ont ajouté les « Sages ».
Autrement dit, faute de transparence, une décision relevant exclusivement d’un algorithme est susceptible d’être annulée par le juge administratif. La loi du 21 juin 2018, qui adapte le droit français au RGPD, précise d’ailleurs que l’absence de « mention explicite » relative au recours à un algorithme sera automatiquement synonyme de « nullité » à compter du 1er juillet 2020 (toujours pour les décisions 100 % automatisées).
En attendant, tout citoyen peut saisir la justice, s’il estime que ses droits n’ont pas été respectés.