Le Défenseur des droits réclame plus de transparence sur les algorithmes de Parcoursup

Le Défenseur des droits réclame plus de transparence sur les algorithmes de Parcoursup

Python de mer

Avatar de l'auteur
Xavier Berne

Publié dans

Droit

23/01/2019 8 minutes
18

Le Défenseur des droits réclame plus de transparence sur les algorithmes de Parcoursup

Alors que Parcoursup rouvre tout juste ses portes, la transparence promise par le gouvernement n’est toujours pas au rendez-vous. Le Défenseur des droits vient de demander des efforts à l’exécutif, notamment quant aux « algorithmes locaux » utilisés pour traiter les dossiers des futurs étudiants.

En avril dernier, le secrétaire d’État au Numérique, Mounir Mahjoubi, l’avait assuré à L’Étudiant : « Le code source de l’algorithme national de Parcoursup sera rendu public. L’algorithme d’affectation utilisé par chacun des établissements le sera également. » Le dispositif succédant à Admission Post-Bac devait ainsi être plus transparent que jamais.

« La totalité des algorithmes seront publiés » affirmait au même moment Frédérique Vidal, la ministre de l’Enseignement supérieur, sur Public Sénat.

Problème : le code source de la plateforme Parcoursup a certes été ouvert en mai 2018, mais pas les algorithmes dits « locaux », qui aident de nombreuses universités à sélectionner leurs étudiants. Pire, le gouvernement s’oppose vertement à leur communication.

L’exécutif entretient l’opacité sur ces « outils d’aide à la décision »

Plus exactement, les établissements d’enseignement supérieur peuvent utiliser un « outil d’aide à la décision », parfois qualifié d’algorithme local. « Cet outil d'aide n'est qu'une feuille de calcul préremplie a minima par la liste des candidats et certaines de leurs caractéristiques (boursier, réorientation, baccalauréat international, etc.) », temporise toutefois le comité éthique et scientifique de Parcoursup, dans un rapport rendu public la semaine dernière (PDF).

Ce tableur peut être modulé en fonction de critères propres à chaque formation. « L'outil ne permet de remplir des cases que par des nombres (des notes) et nécessite de pondérer les colonnes pour générer un pré-classement automatisé des candidats, permettant de préparer le travail de la commission d’examen des vœux » explique le comité. Il disposerait en outre « d'un module qui facilite le calcul d'une moyenne intermédiaire correspondant à la Fiche Avenir ».

Selon ce même rapport, 23,4 % des formations aurait eu recours à ce tableur l’année dernière.

Dans le cahier des charges de Parcoursup, rendu public durant l’automne, le ministère de l’Enseignement supérieur et de la recherche prévient cependant que « ces algorithmes conçus à la demande des commissions d’examen des vœux pour préparer l’examen des candidatures (...) sont protégés par le secret des délibérations ». Ceci grâce à l’adoption – très décriée – d’un amendement gouvernemental, en dernière ligne droite de l’examen du projet de loi dit « ORE » sur Parcoursup.

L’exécutif estime ainsi que les « algorithmes locaux » n’ont pas à être communiqués sur le fondement de la loi CADA relative au droit d’accès aux documents administratifs.

Délicate mise en œuvre du droit d’accès aux documents administratifs

Ces derniers mois, plusieurs personnes avaient d’ailleurs demandé la publication de ces outils au ministère de l’Enseignement supérieur. Faute de réponse favorable, la Commission d’accès aux documents administratifs (CADA) fut saisie, notamment par Next INpact.

Frédérique Vidal s’en est finalement sortie en expliquant à l’autorité indépendante que son ministère « n’était pas en possession des algorithmes locaux, utilisés par certains établissements d'enseignement supérieur, ces traitements étant effectués sous leur seule responsabilité ».

La loi impose pourtant aux administrations, lorsqu’elles sont saisies d'une demande de communication portant sur un document détenu par un autre acteur public, de la transmettre à qui de droit. « Bien qu’il incombe à l'administration, en pareille hypothèse (...), de transmettre la demande de communication », la CADA a estimé début septembre que cette obligation « ne saurait être imposée à la ministre », compte tenu du « grand nombre d'établissements d'enseignement supérieur ».

La commission nous a ainsi invité à saisir directement chaque université, notre demande globale étant selon elle « mal dirigé[e] ». Autant dire qu’une telle tâche s’annonce ardue, puisqu’il faudrait envoyer autant de « requêtes CADA » qu’il y a d’établissements supérieurs...

Malgré tout, il convient de souligner que la CADA n’affirme pas que les « algorithmes locaux » ne sont pas communicables.

Dans son avis, l’institution tacle au passage l’exécutif, qui s’était vanté d’avoir publié le code source de Parcoursup « avec trois mois d’avance ». Ceci grâce à un petit tour de passe-passe légistique permis par l’amendement dit « Vilani » (voir notre article). La CADA retient ainsi que les obligations de transparence relative à Parcoursup étaient bel et bien « d’application immédiate ».

« Le secret des délibérations ne doit pas s’opposer à l’information des candidats »

L’année dernière, différents élus, associations et syndicats ont saisi le Défenseur des droits, notamment pour réclamer plus de transparence dans la procédure d’affectation des étudiants. Leur objectif : que les candidats puissent présenter leurs candidatures en toute connaissance de cause.

Comme le résume l’autorité indépendante présidée par Jacques Toubon, les plaignants regrettaient, « d’une part, que les critères de départage des candidats so[ie]nt opaques et, d’autre part, que dans les filières les plus demandées, les milliers de candidatures reçues [aie]nt été triées par des procédures automatisées fondées sur des algorithmes mis en place par les commissions locales d’examen, sans que les critères de pondération ne soient rendus publics et parfois sans aucun examen personnalisé ».

Après investigation, le Défenseur des droits affirme, dans une décision publiée lundi 21 janvier, ne pas avoir rencontré de « procédures entièrement automatisées de traitement des candidatures ». L’institution prévient toutefois qu’il ne faut pas pour autant généraliser, la « majorité des établissements universitaires sollicités » par ses soins n’ayant pas répondu à ses demandes.

L’autorité indépendante s’attaque surtout à la position du gouvernement, qui brandit le « secret des délibérations » pour justifier l’opacité sur les « algorithmes locaux » de Parcoursup.

« Le secret des délibérations du jury ne doit pas s’opposer à l’information des candidats sur le contenu exact et la manière précise d’évaluation de leurs candidatures », assène Jacques Toubon. Pour le Défenseur des droits, la publication de ces informations « ne porte pas atteinte aux principes de souveraineté du jury et du secret de ses délibérations, étant donné qu’il ne vise pas à dévoiler le contenu de l’appréciation portée sur chaque candidature mais uniquement les critères pris en compte dans cette appréciation ainsi que leur méthode d’application ».

L’institution fait en outre valoir que cette transparence « n’entrave pas l’examen individualisé de chacune des candidatures reçues par les commissions d’examen des vœux ».

Le ministère de l’Enseignement supérieur a ainsi été invité à rendre publiques, dans les deux mois, « toutes les informations relatives au traitement, y compris algorithmique, et à l’évaluation des dossiers des candidats (...), afin d’assurer la transparence de la procédure et de permettre aux candidats d’effectuer leurs choix en toute connaissance de cause ». Jacques Toubon prévient qu’il sera « très attentif » au déroulement de la deuxième année de fonctionnement de Parcoursup.

Cette prise de position du Défenseur des droits a notamment été saluée par l’association Droits des lycéens, qui avait obtenu il y a quelques années le code source d’APB. « Il est impératif de rassurer les candidats en assumant la transparence totale du système de sélection », soutient l’organisation, qui pointe du doigt « l’angoisse des futurs bacheliers ». « Pourquoi cacher les algorithmes locaux s'il n'y a rien à cacher ? » s’interroge en outre l’association.

Le Défenseur des droits promet d'être « très attentif » au suivi du dossier

Le comité éthique et scientifique de Parcoursup (dans lequel siège notamment Laure Lucchesi, la directrice de la mission Etalab), retient de son côté que le « secret des délibérations » justifie parfaitement différentes restrictions au droit à la transparence. Et pour cause, souligne-t-il dans son rapport, la loi ORE permet aux candidats de connaître les motifs ayant conduit à l’acceptation ou au refus de leur dossier, « une fois la décision d’affectation les concernant définitivement prise ».

Les étudiants qui le demandent sont ainsi censé obtenir « les critères retenus pour procéder au classement des candidatures », « les modalités d’examen de leurs candidatures », ainsi que « les motifs pédagogiques justifiant leur affectation ».

Cette transparence a posteriori s’annonce toutefois variable en fonction des formations :

« Certaines commissions d’examen des vœux peuvent juger utile de publier les critères (scolaires et extrascolaires), et leurs pondérations, choisis pour pré-classer les candidats afin de forcer l’acceptabilité et dans la logique de la transparence des pré-requis de filière. D’autres peuvent souhaiter au contraire garder leur entier pouvoir d’appréciation pour éviter d’appliquer mécaniquement ces paramètres. »

Le comité éthique et scientifique a néanmoins invité le ministère de l’Enseignement supérieur à élaborer un « guide » dessinant « les contours et la portée du principe du « secret des délibérations des équipes pédagogiques » et sur les modalités précises du droit d’accès des étudiants aux sous-jacents de la décision d’affectation les concernant ».

Écrit par Xavier Berne

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

L’exécutif entretient l’opacité sur ces « outils d’aide à la décision »

Délicate mise en œuvre du droit d’accès aux documents administratifs

« Le secret des délibérations ne doit pas s’opposer à l’information des candidats »

Le Défenseur des droits promet d'être « très attentif » au suivi du dossier

Fermer

Commentaires (18)


De ce que j’ai compris il semblerait que des établissements d’enseignement supérieur auraient utilisé les procédures locales pour pondérer les notes des élèves en fonction de leur zone géographique ou de la réputation du Lycée.



En gros :

lycée Charlemagne Paris = 1 ;

lycée Blaise Cendrars Sevran = 0.1 ;

 


Le pire dans tout ça, c’est que les commissions sont composées d’enseignants, qui, l’an dernier (hors IUT) ont été forcés de réaliser ces sélections, y compris dans des filières sans tension (licence Histoire-géo, par exemple). La seule manière pour les établissements pour les forcer à le faire a été de leur donner une prime exceptionnelle. Ils ont pris la prime et ils ont fait le minimum possible. Ils ont même refusé de faire remonter à la direction des critères de sélection. Or, le DPO des établissements est sensé faire une déclaration par formation… Tout ça pour dire, que même les établissements n’ont pas de vision globale, entre les composantes d’enseignement qui jouent le jeu, celles qui classent tout le monde ex-æquo, etc.



Et le côté ubuesque, c’est que les classements n’ont servi à rien, car il s’agissait de classements avant attribution par le recteur d’académie des quotas de boursiers. Or, dans certaines formations d’universités de banlieue, les quotas de boursiers étaient de plus de 20% (contre 2-5% dans les universités du centre de Paris, à tout hasard), ce qui a bouleversé entièrement les classements. Bref, du grand n’importe quoi, comme souvent avec les réformes mal préparées et lancées dans la précipitation juste pour un affichage politique.


L’usage du numérique par les gouvernants est préoccupant, probablement involontairement (du moins je l’espère) mais par une absence de contrôle et d’évaluation de la pertinence de ce qui est fait, bien souvent le renvoi à un service en ligne par l’Etat se traduit par au mieux un défaut de transparence, ou au pire une impossibilité d’exercer ses droits et comme l’a relevé là encore le défenseur des droits s’agissant de la dématérialisation de l’administration (je vous laisse imaginer lorsque cela sera également le cas de l’accès au Juge).



En cette période où la défiance s’installe pour une partie de la population, donner le sentiment qu’on n’est orienté, administré ou jugé automatiquement, sans voir personne et sur des critères obscurs, va à un moment ou un autre poser un vrai problème de rejet de nos institutions.


Soit le processus est automatique et dans un certain sens juste une fois qu’on a compris son algorithme.

Soit le processus est manuel et dans ce cas on a la certitude qu’il est corrompu.



Je préfère mille fois être jugé par un algorithme connu que par un humain : l’un est prévisible, le second non.








Aloyse57 a écrit :



Soit le processus est automatique et dans un certain sens juste une fois qu’on a compris son algorithme.

Soit le processus est manuel et dans ce cas on a la certitude qu’il est corrompu.



Je préfère mille fois être jugé par un algorithme connu que par un humain : l’un est prévisible, le second non.





Etrange philosophie que celle qui prétend qu’un traitement uniquement par un algorithme (ce qui est heureusement strictement interdit) serait meilleur, alors que par définition le dit algorithme est nécessairement pas neutre et qu’à ce jour aucune des demandes visant à avoir l’explication du fonctionnement d’un algo d’Etat n’a donné satisfaction (au mieux des choses parcellaires)



A l’inverse si un humain est faillible ou corruptible, il est aussi responsable y compris devant un Tribunal, ce que ne sera jamais un algo.



+1








crocodudule a écrit :



Etrange philosophie que celle qui prétend qu’un traitement uniquement par un algorithme (ce qui est heureusement strictement interdit) serait meilleur, alors que par définition le dit algorithme est nécessairement pas neutre et qu’à ce jour aucune des demandes visant à avoir l’explication du fonctionnement d’un algo d’Etat n’a donné satisfaction (au mieux des choses parcellaires)



A l’inverse si un humain est faillible ou corruptible, il est aussi responsable y compris devant un Tribunal, ce que ne sera jamais un algo.





Merci de le dire.



Il a “Toubon”, Jacques.



*Pardon.


Personnellement je suis comme toi, je préfère l’informatique et les algos quand je vois le nombre de fois où on se retrouve face à des fonctionnaires qui connaissent mal, voir pas du tout la loi (je leur concède que ça évolue trop, trop vite et ce ne sont pas toujours des flèches non plus). J’ai tellement d’exemple où des dossiers ont traîné ou pire ont été retoqué, parce que l’administration n’était pas au clair pour appliquer la loi alors qu’un algo, les mêmes entrées donnent les mêmes sorties et généralement, quand une loi rentre en application, l’algo est maj et on en parle plus.



Les algos permettent une rapidité et, généralement, une décision à jour de la loi. Et l’administration est toujours responsable du résultat de l’algo qui est totalement contestable devant un juge (dans le cas d’un algo pas à jour ou appliquant mal la loi).








crocodudule a écrit :



 A l’inverse si un humain est faillible ou corruptible, il est aussi responsable y compris devant un Tribunal, ce que ne sera jamais un algo.





Hélas, il existe aujourd’hui un moyen très simple de ne pas assumer ses responsabilités, c’est la décision collective en comité de décision… Pratique de plus en plus courante en entreprise.



Responsabilité partagée, pas de coupable identifié.




  • Si l’algorithme est compréhensible par l’usager,



    • Si la “décision” calculée par la machine est aussi rapidement contestable par l’usager que l’est la communication du résultat décisionnaire rendu par la machine,



      Dans ces 2 conditions, je suis d’accord pour faire étudier ma demande administrative par un algorithme.



      Mais s’il s’agit de se retrouver devant un automate incapable de faire face immédiatement à mes questions (ou incapable de me faire patienter en attendant qu’on m’apporte une réponse précise et correspondant parfaitement à ma demande singulière). Voire pire, un automate incapable de faire face à un dysfonctionnement (genre qui m’envoie un message basique du genre “hors-service”), je préfère avoir un individu en chair et en os qui saura m’expliquer ce qu’il se passe et qui comprendra un minimum mon désarroi même s’il ne peut rien faire pour m’aider à l’instant “t”.



Et on peut parler aussi des entreprises qui automatisent leurs processus de vente ou de paramétrages et quand ça ne les arrangent pas de laisser la main à l’utilisateur de la machine, l’entreprise paramètre la machine pour rendre les actions de l’utilisateur inefficaces ou limitées. L’algorithme ne sert qu’à résoudre des problèmes ordinaires et basiques (si votre problème est trop singulier, vous pouvez ramer à trouver une solution tout seul face à cet algorithme muet). Et tant que l’algorithme est contrôlé par l’entreprise (la tête de l’entreprise) et que l’utilisateur ne sait pas comment ça marche, l’algorithme n’est pas une solution décisionnaire appropriée.


Un algorithme ne répond qu’à une question de causalité :




  • cause >> conséquence

  • si … [conditions] alors … [actions].



    L’étude d’un dossier ou d’une requête administrative demande bien souvent plus de compétences humaines que ne peut en fournir une machine, pour la simple et bonne raison que chaque individu est singulier.








Radithor a écrit :



Un algorithme ne répond qu’à une question de causalité :




  • cause >> conséquence

  • si … [conditions] alors … [actions].



    L’étude d’un dossier ou d’une requête administrative demande bien souvent plus de compétences humaines que ne peut en fournir une machine, pour la simple et bonne raison que chaque individu est singulier.







    On ne pourrait donc pas créer un algo que gère toutes les possibilités ?









Tandhruil a écrit :



Hélas, il existe aujourd’hui un moyen très simple de ne pas assumer ses responsabilités, c’est la décision collective en comité de décision… Pratique de plus en plus courante en entreprise.



Responsabilité partagée, pas de coupable identifié.





Si certains artifices permettent d’échapper à une responsabilité individuelle sur le plan civil (néanmoins la personne morale sera elle responsable), pénalement et dans l’éventualité d’une “corruption” comme dans l’exemple donné, le Société aussi bien que ses responsables physiques peuvent être poursuivis.



Je suis globalement d’accord, pour moi, aujourd’hui la plupart des décisions administratives peuvent s’informatiser via algo et ça sécurise + accélère les procédures. Mais en cas de contentieux ou de cas particuliers, on doit pouvoir passer par un humain qui va étudier le dossier avec les avantages et inconvénients que ça comporte.


Dans l’absolu, tout est possible. Je veux seulement dire qu’un algorithme sert à celui qui le conçoit et qu’en plus, à l’heure actuelle, il est évident qu’un algorithme ne répond pas à toutes les situations.



Par exemples :





  • J’ai, à titre personnel, un compte N26. Je fais toutes mes opérations bancaires sans interaction avec un humain (à part le moment de ma souscription où j’ai dialogué avec un téléopérateur pendant quelques minutes). Je suis au paradis, tout est parfait, sauf que, récemment, N26 a bloqué pendant plusieurs mois les comptes de personnes qui n’avaient rien demandé : est-ce que bloquer un compte, suspect d’on ne sait quoi, est une réponse adaptée à la situation ? Non.



  • Récemment, j’ai voulu changer d’assurance. Dans l’agence, mon RIB/IBAN (une agence en ligne d’une enseigne du groupe BPCE) était refusé par le système informatique (j’imagine que le code agence n’était pas référencé dans la base de données). Il a fallu attendre plusieurs semaines pour réparer cet incident. Je dirais dans ce cas là, que le système était mal paramétré : il aurait suffit d’accepter n’importe quel RIB automatiquement et laisser la conseillère juger d’elle-même la pertinence du RIB/IBAN (tout RIB/IBAN a une clé de contrôle, qui me semble suffisant).



  • la procédure de résiliation automatisée des FAI ou des services internet : j’ai connu moi-même quelques déboires tellement ces procédures sont bâclées (à dessein?) pour décourager toute résiliation, ou pire, accuser l’utilisateur de chercher à frauder.


Et sinon ya pas quelqu’un qui peut leaker ces algos?

Quelqu’un qui y a accès et qui porte un peu ses balls?