Australie : la commission royale étrille les responsables du système de robot-dette

Robot-inégalité

Australie : la commission royale étrille les responsables du système de robot-dette

Australie : la commission royale étrille les responsables du système de robot-dette

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

En Australie, la Commission royale a rendu 900 pages de rapport à la suite de l'enquête qu'elle a menée sur le système de robot-dette, qui avait demandé à plus de 440 000 personnes de rembourser des sommes indues aux services sociaux. Elle y étrille tant le gouvernement à l'origine du dispositif que la conception de ce dernier.

En Australie, un système automatisé de demandes de remboursement de suspicions de fraude aux aides sociales a été utilisé de 2015 à 2019. Depuis renommé système de « robot-dette » (robodebt scheme), la machine a demandé près de 2 milliards de dollars australiens de remboursements indus à plus de 440 000 bénéficiaires de prestations sociales, précipitant certains foyers dans des difficultés financières accrues, voire provoquant des suicides.

« Un mécanisme grossier et cruel, ni juste ni légal, qui a donné à de nombreuses personnes l'impression d'être des criminels », décrit la commission d’enquête royale, dans le rapport qu’elle a rendu le 7 juillet sur l’affaire (dans une monarchie comme celle du Commonwealth, la commission royale est la plus haute forme d’institution d’enquête qui existe, avec des pouvoirs quasi judiciaires).

Les 900 pages de travaux décortiquent les suites de décision qui ont mené à l’utilisation du système de robot-dette et formulent 57 recommandations. Celles-ci concernent autant la gestion des dépenses publiques que l’usage de systèmes automatisés d’aides à la décision (ADM ou ADMS, automated decision-making systems, catégorie relativement large de systèmes algorithmiques).

La rapporteure Catherine Holmes explique que l’ex-Premier ministre conservateur, Scott Morrison, en charge des services sociaux au moment du déploiement, n’a « pas assumé ses responsabilités ministérielles en veillant à ce que le cabinet soit correctement informé de ce que la proposition impliquait réellement et en s’assurant qu’elle était légale ». La commission d’enquête recommande qu’une série de personnes, dont les identités sont protégées, soient poursuivies pour leur responsabilité dans l’affaire, au civil comme au pénal.

Améliorer la gestion des aides sociales et la lutte contre la fraude

En 2015, le gouvernement australien adopte une mesure intitulée « Renforcer l’intégrité des prestations sociales », censée permettre d’économiser 1,7 milliard de dollars australiens sur cinq ans, replace le rapport.

Ces gains devaient être générés grâce à deux axes de travail. Le premier consistait en un suivi renforcé de la cohérence entre les déclarations de revenus des employés et les aides sociales effectivement reçues (Employment Income Matching Measure, qui consistait à comparer les déclarations aux impôts et les données des services sociaux). Sachant que des écarts de données entre les deux services ne signifiait pas nécessairement qu’il y avait eu paiement trop élevé de la part de l’institution, l’« initiative allait provoquer la création du système de robot-dette », indique le rapport.

L’existence de cet outil était très souvent liée à l’autre pan d’action, reposant sur le travail des officiers de police et plus directement dédié à la lutte contre la fraude aux aides sociales (la commission pointe que le gouvernement de l’époque a largement exagéré le montant des fraudes, calculant qu’en réalité, ces dernières représentaient moins de 0,1 % des cas).

En pratique, si une personne ne fournissait pas d’explications aux éventuels écarts constatés entre les chiffres des services sociaux et ceux du service des impôts, la machine calculait une moyenne des revenus obtenus sur la période consultée (par exemple six mois). En substance, si un Australien avait travaillé de janvier à mars puis demandé des aides sociales – auxquels il ou elle aurait eu droit – faute de travail d’avril à juin, la machine s’est brusquement mise à lisser les revenus sur l’intégralité de la période, sans prendre en compte la réalité des conditions vécues.

Si la somme dépassait les paliers à partir desquels une personne était censée pouvoir prétendre à des aides, elle envoyait automatiquement des demandes de remboursement de dette. À partir de là, différents processus étaient lancés : si la personne recevait encore des aides sociales, la somme estimée due était déduite des paiements futurs. Si elle n’en recevait plus, les services sociaux lui demandaient un remboursement. Si le débiteur supposé ne répondait pas, l’institution lui envoyait des agents de recouvrement.

Automatisation et réduction du travail humain

Une série de présupposés et d’étapes de ce fonctionnement n’avaient rien de neuf. Le rapport de la Commission royale détaille néanmoins que les principales évolutions ont consisté à :

  • Prendre les données recueillies par l’État pour argent comptant, sans attendre de validation des employeurs ou des bénéficiaires eux-mêmes.
  • Déplacer la charge de la preuve de l’institution vers le bénéficiaire, leur demandant de vérifier ou contredire les informations calculées par le système automatisé (sur des périodes de travail qui pouvaient ne pas correspondre à la réalité). En cas de dette, les bénéficiaires se retrouvaient par ailleurs contraints à payer une amende de 10 % de la somme.
  • La méthode de la « moyennisation » évoquée plus haut, calculée à partir de périodes de paiement de deux semaines, comme cela a cours en Australie, était jusque-là utilisée dans des cas bien spécifiques. Avec le système de robot-dette, c’est devenu automatique, en contradiction avec le but du système d’aides sociales tel qu’inscrit dans les textes australiens. Celui-ci consiste normalement à aider les gens précisément dans les périodes où ils en ont besoin, pointe le rapport.
  • Toujours dans une logique d’économie, une grande part du travail de vérification, jusque-là réalisé par des agents humains, a été automatisée dans le système de robot-dette.
  • Enfin, le rapport souligne que les précédents systèmes de vérification de cohérence des données et de révision des dossiers des bénéficiaires considéraient au maximum la situation d’une personne sur une année. Dans le cas du système de robot-dette, les calculs ont pu remonter, dans certains cas, sur les cinq années précédentes.

Défaillances technico-politiques aux conséquences tragiques

La situation rappelle une affaire similaire, aux Pays-Bas, qui avait mené à la démission du gouvernement en place en 2021. À l’époque, des observateurs constataient qu’une partie des dysfonctionnements techniques étaient dus à une lecture extrêmement stricte de la loi au moment de la conception de l’outil de lutte contre la fraude, ce qui aboutissait à des contrôles trop importants sur le coup et susceptibles de remonter sur un historique de paiement de cinq ans. La machine avait par ailleurs présenté un caractère raciste, dans la mesure où elle assignait systématiquement des scores de risque plus élevés aux personnes ayant plus d’une nationalité.

La somme de ces processus d’automatisation conduit à une forme de « déréalisation », d’abstraction des situations personnelles de la part d'institutions censées fournir des aides, détaillait le sociologue Vincent Dubois dans une enquête sur les effets de l’intelligence artificielle sur les plus précaires. En Australie, le système de robot-dette fournit une illustration tragique des effets de cette déréalisation. Chez les personnes concernées, l’envoi automatique et non vérifié de notifications de dettes a causé toute une série de difficultés financières, pesant sur les foyers, suscitant crises d’anxiété, voire tendances suicidaires chez les personnes visées.

Si la directrice du département en charge du déploiement du système de robot-dette l’a longuement nié, les suicides d'au moins trois personnes sont liés depuis plusieurs années à l’usage de ce système. Parmi elles, Rhys Cauzzo s’est donné la mort après avoir reçu une demande automatique de remboursement de 28 000 dollars australien, Jarrad Madgwick, dans les quelques heures qui ont suivi une demande de 2 000 dollars.

Scott Morrison, l’ex-Premier ministre conservateur dont le gouvernement avait brusquement mis fin à l’utilisation du système en 2019, après que la Cour Fédérale d’Australie l’avait jugé illégal, rejette les conclusions du rapport. Pas nécessairement étonnant, tant celles-ci critiquent la lenteur de réaction du ministre et de ses collègues, alors que les rapports d’associations, de médias et les commissions d’enquête s’accumulaient pour alerter sur les dysfonctionnements du système.

Surtout, la Commission y démontre pour la première fois que l’étendue du système de robot-dette n’est pas tant le résultat d’erreurs techniques et de lecture des textes juridiques, que celui d’un véritable dédain des avis et alertes signifiées par les juristes internes aux institutions australiennes. En 2020, attaqué par une class-action, l’État australien a accepté de rembourser 470 000 robot-dettes pour une somme de 720 millions de dollars australiens, pour éviter la traduction en justice. La somme a rapidement grimpé à 1,2 milliard de dollars australiens (soit près de 730 millions d'euros, ndlr).

Des recommandations sur l’usage de systèmes automatisés d’aide à la décision

Outre la lumière qu’il jette sur l’étendue du problème, le travail de la commission se clôt sur 57 recommandations, parmi lesquelles plusieurs directement liées à l’usage de systèmes d’automatisation de décision dans les politiques publiques.

L’entité enjoint par exemple à :

  • mettre en place un organisme chargé de contrôler et d'auditer les processus de prise de décision automatisée au sein du gouvernement ;
  • demander des conseils sur la légalité du partage des données entre les agences gouvernementales ;
  • ajouter des informations indiquant que l’utilisation de systèmes de prise de décision automatisés sur les sites web des ministères, en expliquant en langage clair le fonctionnement du processus en question ;
  • mettre à disposition des règles de gestion et des algorithmes pour en permettre l’examen indépendant par des experts ;
  • mettre en œuvre d'outils de service à la clientèle en ligne pour faciliter l'interaction avec le gouvernement ;
  • créer outils et politiques d'aides à la population en mettant l'accent sur les personnes que ces dispositifs doivent servir.

Commentaires (19)


Présomption de culpabilité, c’est terrifiant.



Clairement, un système automatisé doit se contenter de faire une présélection de cas suspects et les présenter à un humain qui tranche. Il ne faut jamais que la décision soit prise entièrement de façon automatisée sans humain dans la boucle.


Merci pour cet article, glaçant 😟


Merci pour cet article de qualité qui va fouiller son sujet. C’est avec ce genre d’articles que, grâce à NXi, je nourris depuis tant d’années mon insatiable curiosité et ma réflexion sur le monde, MERCI ! :incline:


Très bon article. C’est important que la justice fasse son travail. Outre sa mauvaise spécification, ce système automatisé n’aurait jamais du appliquer des règles “rustines” comme le calcul des moyennes de périodes là où justement on était clairement dans un cas “hors scope” nécessitant l’intervention humaine.



L’inversion de la charge de la preuve, la présomption de culpabilité et les impacts très lourd que ça a eu appellent un verdict exemplaire pour faire école.



(et puis bon, système d’AIDE à la décision, ça porte bien son nom à la base, c’est pas à lui de prendre la décision, il est supposé se contenter d’AIDER, rien de plus)


Merci pour cet article qui nous permet de voir et comprendre ce qui se passe en dehors de nos frontières en espérant que cela nous permettra de ne pas faire les même erreurs…


Au train où vont les choses, ça sera opérationnel en france d’ici 2024 … -_-”


Ca existe déjà et depuis au moins 15 ans, ça s’appelle le RNCPS de mémoire. La boite où je travaillais à l’époque était fournisseuse de données et j’étais dans l’équipe en charge de mettre le flux en place.
Le principe : tout les contributeur sociaux (pole emploi, secu, etc…. il y en a énormément ) envoient leur datas, elle sont traités seront des règles qui suivent 2 objectifs : 90% pour recoupement et éviter la fraude, 10% pour que des personnes qui devraient avoir des droits mais n’en bénéficie pas soient identifié et alerté.
A cette époque par exemple pole emploi avait monté une grande équipe qui s’était servi de ce système pour faire du ménage dans ses fichiers, le résultat étais passé dans les journaux d’actualités.


Le pire c’est qu’il est très compliqué de contesté, c’est devenue difficile de parler à un Humain qui peu nous comprendre, et même quand on y arrive, on se rend souvent compte que de toute façon, il n’a pas beaucoup plus d’information, ce genre de système ayant rarement un point d’entré pour que quelqu’un aille vérifier ce qui a permit le prise de décision automatique.



Patatt a dit:


Le pire c’est qu’il est très compliqué de contesté, c’est devenue difficile de parler à un Humain qui peu nous comprendre, et même quand on y arrive, on se rend souvent compte que de toute façon, il n’a pas beaucoup plus d’information, ce genre de système ayant rarement un point d’entré pour que quelqu’un aille vérifier ce qui a permit le prise de décision automatique.




Pour moi c’est effectivement pire que le problème de départ. Tout est devenu une boîte noire, qui te diriges de FAQ en formulaires ultra-guidés qui te permettent jamais de préciser clairement ton cas, et génère de fait des réponses formatées.



Dans une situation comme ça, il aurait suffit de quelques humains disponibles au téléphone (et formés par autre chose qu’un guide de conversation, on précise) pour cerner qu’il y avait clairement un problème de mise en œuvre du dispositif…


Oui et un humain peu faire preuve d’empathie (dans les limites du stock disponible) alors que la machine …
Quand on est déjà dans une situation de stress, se heurter au mur bête et méchant de la machine n’arrange pas les choses.
Heureusement, les IA conversationnelles vont nous sauver :transpi:


Chercher à lutter contre la lutte à la fraude me parait tout à fait normal MAIS dans ce cas, l’outil ne doit PAS se tromper. Bref, on ne fait pas des hypothèses, mais on verifie tout. Et si jamais il y a des suspicions, on reste présumé innocent… mais dans ce cas, provoquer une enquête !


Finalement, c’est a la base une grossière erreur de calcul et d’algorithme. Ça aurait put se gérer en renvoyant les données a un humain qui aurait fait les vérifications pertinentes de son côté.
Là où ça devient choquant, c’est que personne n’a tilté que les données étaient fausses.


Je vois les commentaires qu’il faut renvoyer à un humain c’est vrai mais admettons que sur les 440k il y en ait la moitié de faux positifs il reste 220k enquêtes à faire et s’ils ont la même fonction publique que la nôtre il faut 30 ans pour traiter ça et durant ce laps de temps la fraude continue… Bref un truc sans fin


“Curieusement”, ce système n’a pas été développé pour lutter contre la fraude fiscale #ohbençaalors #surprise :dors:



ydamian a dit:


Je vois les commentaires qu’il faut renvoyer à un humain c’est vrai mais admettons que sur les 440k il y en ait la moitié de faux positifs il reste 220k enquêtes à faire et s’ils ont la même fonction publique que la nôtre il faut 30 ans pour traiter ça et durant ce laps de temps la fraude continue… Bref un truc sans fin




Bah pas vraiment tu fais quelques enquêtes manuelles, et t’as un aperçu assez fiables du taux d’erreurs que te sors la machine, si le taux est élevé tu peux rapidement te rendre compte que l’algo déconne et arrêter la machine, mettre en pause les demandes de recouvrements en cours.
Si le taux est faible, tu peux envoyer les cas aux informaticiens pour qu’ils analysent la cause de l’erreur pour la corriger ensuite.
En fait ce que je décrie c’est des tests qui auraient dû être faits avant la mise en production globale. Sur ce genre d’automatisme, tu travailles d’abord à blanc, en shadow l’humain contrôle manuellement, puis on fait tourner l’algo sur ce cas pour vérifier si c’est similaire, puis en reverse-shadow : la machine tourne et l’humain vérifie son calcul.


C’est ce que je pense aussi. Aucune verif avant la mise en prod :yes:



(quote:2143332:David.C)
C’est ce que je pense aussi. Aucune verif avant la mise en prod :yes:




Pour quoi faire? C’est toujours l’utilisateur final qui teste non? :transpi:



the_frogkiller a dit:


Pour quoi faire? C’est toujours l’utilisateur final qui teste non? :transpi:




Oué, mais avec des morts en sortie d’analyse, c’est rédhibitoire.



Depuis très longtemps, on sais que la réification des gens lambda tue ces gens tôt ou tard …
:windu:



(quote:2143133:alex.d.)
Clairement, un système automatisé doit se contenter de faire une présélection de cas suspects et les présenter à un humain qui tranche. Il ne faut jamais que la décision soit prise entièrement de façon automatisée sans humain dans la boucle.




Et même comme ça, il faut s’assurer que l’humain ne valide pas bêtement ce que le robot lui propose (en introduisant de faux positifs par exemple).


Fermer