Dans un an, nullité des décisions administratives en cas de silence sur les algorithmes utilisés

Si tu reviens, j'annule tout
Droit 5 min
Dans un an, nullité des décisions administratives en cas de silence sur les algorithmes utilisés
Crédits : vitacopS/iStock

À compter du 1er juillet 2020, soit dans un an jour pour jour, les décisions administratives prises sur le seul fondement d’un algorithme seront frappées de nullité, dès lors qu’elles ne contiendront pas de « mention explicite » relative à la transparence des algorithmes publics.

« À quoi cela sert-il de créer ou de déclarer des droits si le citoyen n'en est pas informé et si, finalement, ces droits restent lettre morte ? » avait tonné la sénatrice Sophie Joissains, l’année dernière, lors des débats sur le projet de loi relatif aux données personnelles.

Et pour cause : depuis le 1er septembre 2017, en application de la loi pour une République numérique, toutes les décisions administratives prises « sur le fondement d'un traitement algorithmique » doivent être accompagnées d’une « mention explicite » informant l’usager qu’un programme informatique est venu s’immiscer dans la gestion de son dossier.

Taxe d’habitation, allocations familiales, bourses scolaires, impôts sur le revenu, affectation de fonctionnaires, demandes de places en crèche, etc. En théorie, chacune de ces décisions individuelles devrait se conclure par quelques lignes, informant surtout le citoyen que l’administration a différentes obligations de transparence à respecter dès lors qu’elle recourt à des algorithmes.

Des obligations de transparence qui restent largement ignorées

Les citoyens sont effectivement en droit de demander à connaître les « règles » et « principales caractéristiques » de mise en œuvre du traitement algorithmique utilisé à leur encontre. L’administration doit alors leur fournir, « sous une forme intelligible et sous réserve de ne pas porter atteinte à des secrets protégés par la loi » (de type secret défense), les informations suivantes :

  • Le « degré et le mode de contribution » du traitement algorithmique à la prise de décision
  • Les données traitées et leurs sources
  • Les « paramètres de traitement et, le cas échéant, leur pondération, appliqués à la situation de l'intéressé »
  • Les opérations effectuées par le traitement

L’objectif de ces dispositions ? Permettre au grand public de mieux comprendre comment l’algorithme en est arrivé à tel résultat à leur encontre. Les codes sources étant en effet d’ores et déjà considérés comme des documents administratifs « communicables » au citoyen, sur demande, le législateur a souhaité que les administrations explicitent en quelque sorte ces lignes de code.

Dans l’étude d’impact annexée au projet de loi Numérique, le gouvernement de Manuel Valls expliquait que cette réforme permettrait par exemple d’y voir plus clair sur le fonctionnement d’Admission Post-Bac, le prédécesseur de Parcoursup : « Le recours à ce logiciel, reposant sur des traitements algorithmiques, peut susciter des interrogations sur les mécaniques et les règles de fonctionnement qui conduisent à un résultat décisif pour l’avenir des étudiants : comment ce système est-il paramétré ? Quelle est la part de tirage au sort dans la procédure d’affectation pour les filières les plus demandées ? Comment s’assurer qu’il n’est pas possible de « tricher » avec le système ? »

Seul hic : difficile de trouver aujourd’hui la moindre « mention explicite » dans les millions de décisions adressées par les impôts, les Allocations familiales ou même Pôle emploi. Une situation sur laquelle les institutions concernées refusent curieusement de s’exprimer...

À notre connaissance, seule l’Éducation nationale intègre à ce jour une « mention explicite » relative aux traitements algorithmiques qu’elle déploie pour le système d’affectation des lycéens Affelnet (visiblement avec quelques difficultés, comme l'illustre le tweet ci-dessous...).

Une nullité « par défaut » à partir du 1er juillet 2020

L’année dernière, lors des débats sur le projet de loi relatif aux données personnelles, la rapporteure Sophie Joissains avait ainsi fait adopter un amendement prévoyant qu’en l’absence de « mention explicite », les décisions concernées soient systématiquement considérées comme nulles !

Estimant qu’il était « tout à fait disproportionné » d’aller aussi loin, le gouvernement avait toutefois réussi à rectifier partiellement le tir, à l’Assemblée nationale. D’une part, en reportant l’entrée en vigueur de cet amendement au 1er juillet 2020 (ce qui ne manque pas de piquant étant donné que l’obligation portée par la loi Lemaire est théoriquement en vigueur depuis septembre 2017). D’autre part, en limitant cette nullité automatique aux décisions 100 % automatisées.

Autrement dit, les décisions dans lesquelles il reste une intervention humaine ne seront pas concernées par cette réforme. Or il reste bien difficile de savoir à l’heure actuelle quels sont les algorithmes utilisés par les administrations, et surtout quel est leur degré d’immixtion dans la prise de décision – objet même des obligations de transparence introduites en 2017...

Au travers d’un guide dédié aux algorithmes publics, la mission Etalab indique aux acteurs publics qu’elle se tient à leur disposition pour « recenser les algorithmes potentiellement concernés par l’obligation de transparence et de redevabilité ». L’institution ajoute que « d’autres contenus seront prochainement publiés pour compléter ce guide, notamment des fiches pratiques sur une méthodologie d’identification des algorithmes ainsi que des exemples de mention et d’information détaillée ».

Dernière précision : cette nullité automatique ne prévaudra qu’en l’absence de « mention explicite ». Le fait de ne pas répondre aux demandes d’explicitation des citoyens n’est en ce sens passible d’aucune sanction.

Des décisions d'ores et déjà annulables

En attendant le 1er juillet 2020, rappelons que le Conseil constitutionnel a invité le juge administratif à annuler toute décision administrative 100 % automatisée et dépourvue de « mention explicite » (voir notre article).

Les « Sages » sont même allés plus loin en jugeant, en se penchant sur le fameux projet de loi relatif aux données personnelles, que « le seul recours à un algorithme » obligeait l’administration à dévoiler les « principales caractéristiques de mise en œuvre de ce dernier », sur demande. Si la protection d’un secret (données personnelles, secret défense...) fait juridiquement obstacle à la transparence, alors « aucune décision individuelle ne peut être prise sur le fondement exclusif de cet algorithme », a ajouté le juge.

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !