Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !

Dans un an, nullité des décisions administratives en cas de silence sur les algorithmes utilisés

Si tu reviens, j'annule tout
Droit 5 min
Dans un an, nullité des décisions administratives en cas de silence sur les algorithmes utilisés
Crédits : vitacopS/iStock

À compter du 1er juillet 2020, soit dans un an jour pour jour, les décisions administratives prises sur le seul fondement d’un algorithme seront frappées de nullité, dès lors qu’elles ne contiendront pas de « mention explicite » relative à la transparence des algorithmes publics.

« À quoi cela sert-il de créer ou de déclarer des droits si le citoyen n'en est pas informé et si, finalement, ces droits restent lettre morte ? » avait tonné la sénatrice Sophie Joissains, l’année dernière, lors des débats sur le projet de loi relatif aux données personnelles.

Et pour cause : depuis le 1er septembre 2017, en application de la loi pour une République numérique, toutes les décisions administratives prises « sur le fondement d'un traitement algorithmique » doivent être accompagnées d’une « mention explicite » informant l’usager qu’un programme informatique est venu s’immiscer dans la gestion de son dossier.

Taxe d’habitation, allocations familiales, bourses scolaires, impôts sur le revenu, affectation de fonctionnaires, demandes de places en crèche, etc. En théorie, chacune de ces décisions individuelles devrait se conclure par quelques lignes, informant surtout le citoyen que l’administration a différentes obligations de transparence à respecter dès lors qu’elle recourt à des algorithmes.

Des obligations de transparence qui restent largement ignorées

Les citoyens sont effectivement en droit de demander à connaître les « règles » et « principales caractéristiques » de mise en œuvre du traitement algorithmique utilisé à leur encontre. L’administration doit alors leur fournir, « sous une forme intelligible et sous réserve de ne pas porter atteinte à des secrets protégés par la loi » (de type secret défense), les informations suivantes :

  • Le « degré et le mode de contribution » du traitement algorithmique à la prise de décision
  • Les données traitées et leurs sources
  • Les « paramètres de traitement et, le cas échéant, leur pondération, appliqués à la situation de l'intéressé »
  • Les opérations effectuées par le traitement

L’objectif de ces dispositions ? Permettre au grand public de mieux comprendre comment l’algorithme en est arrivé à tel résultat à leur encontre. Les codes sources étant en effet d’ores et déjà considérés comme des documents administratifs « communicables » au citoyen, sur demande, le législateur a souhaité que les administrations explicitent en quelque sorte ces lignes de code.

Dans l’étude d’impact annexée au projet de loi Numérique, le gouvernement de Manuel Valls expliquait que cette réforme permettrait par exemple d’y voir plus clair sur le fonctionnement d’Admission Post-Bac, le prédécesseur de Parcoursup : « Le recours à ce logiciel, reposant sur des traitements algorithmiques, peut susciter des interrogations sur les mécaniques et les règles de fonctionnement qui conduisent à un résultat décisif pour l’avenir des étudiants : comment ce système est-il paramétré ? Quelle est la part de tirage au sort dans la procédure d’affectation pour les filières les plus demandées ? Comment s’assurer qu’il n’est pas possible de « tricher » avec le système ? »

Seul hic : difficile de trouver aujourd’hui la moindre « mention explicite » dans les millions de décisions adressées par les impôts, les Allocations familiales ou même Pôle emploi. Une situation sur laquelle les institutions concernées refusent curieusement de s’exprimer...

À notre connaissance, seule l’Éducation nationale intègre à ce jour une « mention explicite » relative aux traitements algorithmiques qu’elle déploie pour le système d’affectation des lycéens Affelnet (visiblement avec quelques difficultés, comme l'illustre le tweet ci-dessous...).

Une nullité « par défaut » à partir du 1er juillet 2020

L’année dernière, lors des débats sur le projet de loi relatif aux données personnelles, la rapporteure Sophie Joissains avait ainsi fait adopter un amendement prévoyant qu’en l’absence de « mention explicite », les décisions concernées soient systématiquement considérées comme nulles !

Estimant qu’il était « tout à fait disproportionné » d’aller aussi loin, le gouvernement avait toutefois réussi à rectifier partiellement le tir, à l’Assemblée nationale. D’une part, en reportant l’entrée en vigueur de cet amendement au 1er juillet 2020 (ce qui ne manque pas de piquant étant donné que l’obligation portée par la loi Lemaire est théoriquement en vigueur depuis septembre 2017). D’autre part, en limitant cette nullité automatique aux décisions 100 % automatisées.

Autrement dit, les décisions dans lesquelles il reste une intervention humaine ne seront pas concernées par cette réforme. Or il reste bien difficile de savoir à l’heure actuelle quels sont les algorithmes utilisés par les administrations, et surtout quel est leur degré d’immixtion dans la prise de décision – objet même des obligations de transparence introduites en 2017...

Au travers d’un guide dédié aux algorithmes publics, la mission Etalab indique aux acteurs publics qu’elle se tient à leur disposition pour « recenser les algorithmes potentiellement concernés par l’obligation de transparence et de redevabilité ». L’institution ajoute que « d’autres contenus seront prochainement publiés pour compléter ce guide, notamment des fiches pratiques sur une méthodologie d’identification des algorithmes ainsi que des exemples de mention et d’information détaillée ».

Dernière précision : cette nullité automatique ne prévaudra qu’en l’absence de « mention explicite ». Le fait de ne pas répondre aux demandes d’explicitation des citoyens n’est en ce sens passible d’aucune sanction.

Des décisions d'ores et déjà annulables

En attendant le 1er juillet 2020, rappelons que le Conseil constitutionnel a invité le juge administratif à annuler toute décision administrative 100 % automatisée et dépourvue de « mention explicite » (voir notre article).

Les « Sages » sont même allés plus loin en jugeant, en se penchant sur le fameux projet de loi relatif aux données personnelles, que « le seul recours à un algorithme » obligeait l’administration à dévoiler les « principales caractéristiques de mise en œuvre de ce dernier », sur demande. Si la protection d’un secret (données personnelles, secret défense...) fait juridiquement obstacle à la transparence, alors « aucune décision individuelle ne peut être prise sur le fondement exclusif de cet algorithme », a ajouté le juge.

19 commentaires
Avatar de romainsromain Abonné
Avatar de romainsromainromainsromain- 01/07/19 à 12:54:52

Ca marche avec #Parcourssup ?( :cartonrouge: )

Avatar de Plastivore Abonné
Avatar de PlastivorePlastivore- 01/07/19 à 13:12:50

Pas sûr, vu qu'il est notoire que Parcourssup est automatisé. En tous cas, il suffit que ça soit indiqué sur le portail (mais je ne peux pas confirmer si c'est le cas, à mon époque c'était le combo magique 3614 RAVEL et 3615 CANDIDUT :phibee:)

Édité par Plastivore le 01/07/2019 à 13:13
Avatar de tpeg5stan Abonné
Avatar de tpeg5stantpeg5stan- 01/07/19 à 13:32:35

Le code source du Parcoursup a été publié voilà plus d'un an, et ses concepteurs en ont expliqué le principe :https://www.sciencesetavenir.fr/high-tech/informatique/bac-2018-l-algorithme-de-...

Avatar de romainsromain Abonné
Avatar de romainsromainromainsromain- 01/07/19 à 14:25:30

je parle des algos "locaux" qui sont totalement arbitraires  ( cf cet article d'un site éponyme https://www.nextinpact.com/news/107971-le-conseil-detat-soppose-a-communication-algorithmes-locaux-parcoursup.htm )

Avatar de skankhunt42 Abonné
Avatar de skankhunt42 skankhunt42 - 01/07/19 à 14:41:25

if ( $candidat == " blanc " ) { engage(); }
else { poubelle(); }

Avatar de romu79 Abonné
Avatar de romu79romu79- 01/07/19 à 14:52:00

skankhunt42 a écrit :

if ( $candidat == " blanc " ) { engage(); }
else { poubelle(); }

Ca me gonfle ce genre de truc bobo gaucho. Faut arrêter un peu le délire de persécution. Suffit de voir le nombre de binationaux au gouvernement pour s'en rendre compte, rien qu'en comparaison des autres pays. La couleur de la peau ou les origines ethniques sont loin d'être LE facteur d’échec, mais si cela arrange bien certains discours haineux envers notre société.

Avatar de romainsromain Abonné
Avatar de romainsromainromainsromain- 01/07/19 à 15:04:00

Ce genre de réponse d’égoïste de droite ca me gonfle. Faut arrêter un peu le délire du monde de oui-oui. Suffit de voir les rapports émis par

Le défenseur des droits ( cette infâme islamo gauchiste de Toubon ) : https://www.defenseurdesdroits.fr/sites/default/files/atoms/files/etudesresultats-acces_a_lemploi_et_discriminations_liees_aux_origines-20160919_0.pdf Et en 2019 ca ne s'améliore pas

Le point, ce vile repère de bobo qui reprend une enquête de SOS racisme : https://www.lepoint.fr/societe/logement-les-discriminations-raciales-prosperent-en-ile-de-france-07-05-2019-2311205_23.php

Et puis enfin une enquête de l'Agence Européenne des droits Fondamentaux : https://www.levif.be/actualite/europe/les-personnes-noires-trop-souvent-victimes-de-discrimination-raciale-dans-l-ue/article-normal-1060031.html?cookie_check=1561993205 :smack:

Mais sinon aucune raison de penser que ca n'arrivera pas avec des algorithmes locaux (Parcours Sup) qui sont cachés, non communicable hein de même que lors d'un entretien d'embauche .. #coucouNXI #teamCADA

Édité par romainsromain le 01/07/2019 à 15:04
Avatar de Tsinpen INpactien
Avatar de TsinpenTsinpen- 01/07/19 à 17:28:40

(...) D’autre part, en limitant cette nullité automatique aux décisions 100 % automatisées.

Autrement dit, les décisions dans lesquelles il reste une intervention humaine ne seront pas concernées par cette réforme. (...)

Ouais mais... décisions 100% auto ou bien procédures 100% auto ?
parce que décision = ponctuel (par exemple décision à propos de l'impôt d'un seul contribuable)
et procédure = tout le monde (décisions pour les impôts de tout le monde)
? ? ?
Est-ce qu'on peut n’annuler que certaines décisions parmi toutes celles ayant suivi une même procédure (tantôt 100% auto, tantôt avec intervention humaine) sans que ce soit de la bonne grosse discrimination ? un peu comme du bon gros rouge qui pique et qui tâche ? :francais:

Et puis "intervention humaine", c'est à mourir de rire puisque ce sont les contribuables, allocataires, étudiants, etc. (= humains) qui déclarent leurs revenus, leurs souhaits, etc. à l'algorithme qui ensuite décide de leur impôt, leur alloc, leur orientation... et c'est pareil pour toutes les "décisions", hein...
:ouioui:

Avatar de Macarie Abonné
Avatar de MacarieMacarie- 01/07/19 à 20:15:57

romainsromain a écrit :

Ce genre de réponse d’égoïste de droite ca me gonfle. Faut arrêter un peu le délire du monde de oui-oui. Suffit de voir les rapports émis par

Le défenseur des droits ( cette infâme islamo gauchiste de Toubon ) : https://www.defenseurdesdroits.fr/sites/default/files/atoms/files/etudesresultats-acces_a_lemploi_et_discriminations_liees_aux_origines-20160919_0.pdf Et en 2019 ca ne s'améliore pas

Le point, ce vile repère de bobo qui reprend une enquête de SOS racisme : https://www.lepoint.fr/societe/logement-les-discriminations-raciales-prosperent-en-ile-de-france-07-05-2019-2311205_23.php

Et puis enfin une enquête de l'Agence Européenne des droits Fondamentaux : https://www.levif.be/actualite/europe/les-personnes-noires-trop-souvent-victimes-de-discrimination-raciale-dans-l-ue/article-normal-1060031.html?cookie_check=1561993205 :smack:

Mais sinon aucune raison de penser que ca n'arrivera pas avec des algorithmes locaux (Parcours Sup) qui sont cachés, non communicable hein de même que lors d'un entretien d'embauche .. #coucouNXI #teamCADA

if ( $candidat == "minorité protégée" OR $candidat == "risque de bad buzz" OR $candidat == "sommité" ) { engage();
 }else {
NousVousRappelleronsPlusTard();
 }

WARNING :Je parle aussi des algo locaux !!

Avatar de Baradhur INpactien
Avatar de BaradhurBaradhur- 01/07/19 à 23:22:00

Ce genre de reponses demago generalistes ca me gonfle.

Dire qu'une probleme n'existe pas est exactement la meme chose que dire qu'un probleme existe dans 100% des cas, c'est de la demagogie. La realite est beaucoup plus nuance, mais c'est sur que dans une reponse faites en 2 minutes sur internet c'est difficile de faire l'effort d'une approche honnete et prenant en compte la variete des situations. 

Il n'est plus possible de commenter cette actualité.
Page 1 / 2