L’Administrateur général des données veut mettre les administrations « en ordre de marche »

L’Administrateur général des données veut mettre les administrations « en ordre de marche »

Le XV de la donnée

Avatar de l'auteur
Xavier Berne

Publié dans

Droit

10/04/2018 7 minutes
5

L’Administrateur général des données veut mettre les administrations « en ordre de marche »

De l’aveu même de l’Administrateur général des données, Henri Verdier, l’objectif d’Open Data « par défaut » de la loi Numérique de 2016 « n’est pas encore atteint ». L’intéressé a présenté aujourd’hui son dernier rapport annuel, destiné à « transformer l’essai ».

Après le discours d’Emmanuel Macron sur l’ouverture des données publiques, la présentation du nouveau plan d’action français en matière d’Open Governement, voilà que l’Administrateur général des données (AGD) dévoile sa feuille de route pour les mois à venir (PDF).

« 2018 marquera probablement une nouvelle étape » prévient ainsi Henri Verdier – avec une prudence qui mérite d’être soulignée.

« L’engagement du gouvernement, porté avec force par le président de la République, (...) appellera la montée en puissance au sein de l’État de la capacité à mobiliser les données et à les utiliser au service de l’action publique », affirme celui qui occupe également les fonctions de numéro un de la Direction interministérielle au numérique (DINSIC). Tout ceci « dans le respect de l’exigence croissante des utilisateurs », notamment en termes de qualité des données, et « à coûts maîtrisés ».

Un an et demi après la promulgation de la loi Numérique, Henri Verdier estime qu’il faut « transformer l’essai » : « L’heure n’est plus aujourd’hui à démontrer l’intérêt d’une meilleure exploitation des données. Il faut à présent mettre en ordre de marche les administrations, en commençant par les ministères et les grands opérateurs. »

« La donnée comme infrastructure essentielle »

Nommé en septembre 2014, l’Administrateur général des données est officiellement chargé de coordonner « l'action des administrations en matière d'inventaire, de gouvernance, de production, de circulation et d'exploitation des données par les administrations ». En pratique, la fonction est « distribuée » au sein de la Direction interministérielle au numérique.

Cela signifie que l’AGD a participé ces dernières années à des chantiers pour le moins variés, mais chapeautés dans bien des cas par la mission Etalab, qui fait partie de la DINSIC : de l’ouverture de données (au travers du « service public de la donnée ») à l’audit du fichier TES, en passant par un soutien aux start-ups d’État ou aux Entrepreneurs d’intérêt général, etc.

Henri Verdier constate un « changement d’échelle »

Si l’Administrateur général des données revenait longuement dans son précédent rapport (qui remonte à 2016) sur les freins à l’ouverture des données, celui présenté aujourd’hui retient que des « progrès significatifs » sont à souligner. « De nombreuses bases de données essentielles et très détaillées ont été publiées dans différents domaines », indique à cet égard Henri Verdier, citant en exemple la base SIRENE des entreprises, la base sur les prescriptions hospitalières de médicaments délivrées en ville de l’Assurance maladie, le plan cadastral informatisé...

Le numéro un de la DINSIC affirme ainsi qu’il y a eu « un changement d’échelle dans de nombreux secteurs » depuis deux ans, même s’il reconnaît dans le même temps que « l’objectif d’Open Data par défaut de la loi pour une République numérique n’est pas encore atteint ». C’est d’ailleurs peu de le dire, puisque les obligations posées par la loi Lemaire sont soit ignorées de nombreuses administrations, soit applicables à compter du 7 octobre 2018 (voir notre éditorial)...

rapport agd infrastructure données

La feuille de route dévoilée par Henri Verdier a un objectif principal : contribuer au développement d’une « infrastructure de données » – au service tout d’abord de l’administration elle-même, qui profitera ainsi de données de qualité et à jour, et ensuite de « l’ensemble des acteurs (entreprises, associations, société civile) qui utilisent des données publiques ».

« Les conséquences financières de l’absence d’une infrastructure de données de qualité sont bien réelles », fait valoir l’AGD. Pertes liées à l’utilisation de données inexactes, fonctionnement « dégradé » faute d’accès à des informations suffisamment récentes, ressaisie de données non interopérables... Henri Verdier égraine la liste des « coûts de la mauvaise circulation et de la non-qualité des données », soulignant que le non-acheminement de courriers postaux dû à une erreur d’adressage représenterait « un surcoût de l’ordre de 300 millions d’euros par an ».

Une feuille de route qui se décline en cinq chantiers

L’ancien directeur de la mission Etalab prévoit ainsi d’ouvrir cinq chantiers :

  1. Identification et ouverture de nouvelles « données de référence ». En lien avec les ministères, l’AGD souhaite identifier « les données qui peuvent être qualifiées de données de référence », et qui pourraient de ce fait entrer dans le « service public de la donnée ». « Il s’agira de travailler, en lien avec les producteurs, pour les rendre encore plus facilement découvrables et réutilisables. Cela pourra notamment inclure le développement d’API ou de toute autre ressource nécessaire. »
  2. Développer une « doctrine de la circulation des données au sein de la sphère publique ». « Notre ambition, réaffirmée, est d’être capable de fournir la bonne donnée à la bonne personne, dans le respect du droit d’en connaître », soutient Henri Verdier. Pour les données dont la circulation doit être contrôlée (comme le revenu fiscal de référence, qui sert dans de nombreuses procédures administratives), l’AGD mise sur un « passage à l’échelle » du dispositif d’authentification France Connect et de l’API Particulier. Pour les données qui doivent être anonymisées ou pseudonymisées, il s’agira de développer « une expertise et des outils afin d’être en mesure d’accompagner les administrations dans la publication des données ».
  3. Créer un « réseau des administrateurs ministériels des données ». Comme le prévoit le plan d’action pour l’OGP, un « administrateur ministériel des données » devrait être nommé au sein de chaque ministère (dans le prolongement du réseau plus ou moins informel qui avait été mis en place ces dernières années). Objectif : « porter la déclinaison de la politique de la donnée au sein de [chaque] ministère », et apporter une expertise sur le plan juridique, « en particulier en cette année 2018 où l’administration devra gérer en même temps le nouveau règlement européen sur la protection des données personnelles et la généralisation du principe d’open data par défaut ».
  4. Développer une « expertise en matière d’intelligence artificielle au service de l’action publique ». La DINSIC ambitionne d’« orienter les ministères dans le recours aux technologies de l’intelligence artificielle, d’évaluer les outils et les offres existantes, de mener des projets sur quelques cas d’usages emblématiques ». Un laboratoire spécialisé devrait voir le jour à cet effet, courant 2019. L’AGD souhaite au passage « rester vigilant sur la dimension d’éthique et de responsabilité de la mise en œuvre de tels traitements ».
  5. Évaluer les bénéfices liés à l’Open Data. « En 2018, l’Administrateur général des données s’efforcera de documenter les impacts sociaux et économiques d’une meilleure circulation des données », indique le rapport (dans la lignée là aussi du plan d’action pour l’OGP dévoilé la semaine dernière).

Écrit par Xavier Berne

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

« La donnée comme infrastructure essentielle »

Henri Verdier constate un « changement d’échelle »

Une feuille de route qui se décline en cinq chantiers

Fermer

Commentaires (5)


Je l’imagine bien devant une ligne de contractuelle te faire un discours à la Full Metal Jacket xD



“En clair c’est un gros sandwich à la merde et on doit tous en manger au moins une bouchée.”


C’est dommage que dans ses chantiers il ne s’intéresse pas au financement de cette ouverture. Sans ça, il y a un fort côté yakafokon.



Pour reprendre l’exemple de l’acheminement du courrier, c’est bien gentil de constater qu’il y a des économies à faire, mais c’est qui qui dispose de la meilleure base d’informations postales? La Poste… qui vend ces données à ceux qui en ont besoin… et n’a donc aucun intérêt à l’émergence d’une base ouverte venant remplacer la sienne.

Comment on fait pour travailler avec un acteur privé à saper son marché?



La question se pose aussi, mais différemment, avec les organismes publiques comme l’IGN ou Météo France, dont une part significative du budget (environ 13 pour les deux je crois) vient de la vente de données et services (je ne sais pas dans quelles proportions entre données et services, c’est juste les données qui sont remises en cause a priori).

On peut les forcer à faire de l’open data via les ‘décisions hiérarchiques’ qui vont bien, mais il ne suffit pas de le décider, il y a un trou budgétaire à compenser d’une façon ou d’une autre, que ce soit via une rallonge ou en sabrant dans l’effectif de l’établissement. En tout cas il y a des décisions fortes à assumer à haut niveau, ce n’est pas loin de là qu’une question de doctrine et d’accompagnement méthodologique.








Zerdligham a écrit :



C’est dommage que dans ses chantiers il ne s’intéresse pas au financement de cette ouverture. Sans ça, il y a un fort côté yakafokon.





A mon sens l’open data des organismes publics tel qu’il est actuellement imaginé, n’a pas pour objectif

de partager pour améliorer l’information et le service public dont ils dépendent, mais a pour finalité de faire

naitre des acteurs privées se nourrissant des données récoltées par les secteurs publics.



Et comme tu le soulignes cette mission nouvelle confiée au public n’est accompagnée d’aucun financement. De là deux options:

. soit nous sommes dans des effets d’annonces, et l’absence de budget en serait le témoin,

. soit les organismes publics seront vraiment contraints de se plier à la mise à disposition des données, avec nécessairement l’oblation de ré-alouer certains budgets à cette mission nouvelle, “déshabillant” les autres missions. De sorte que les organismes publics seront paupérisés, là où le secteur privé pourra gagner son beurre sur les données qu’ils n’auront pas à récolter, structurer et mettre à disposition. En l’état, les quelques partenariats dont j’ai pu prendre connaissance entre boites privées et Juridictions s’agissant des décisions de Justice, se font dans le sens que je viens de décrire (les greffiers en échange de support de stockage interne à la Juridiction se collant à la saisie des décisions au bénéfice de la boite privée qui ne fait que du référencement et de la statistique sur le taux de décisions gagnées ou perdues en fonction du magistrat et des avocats (ce qui est juste débile si on connait un peu le domaine…), ceci au détriment de la mission première des greffes).









Zerdligham a écrit :



Pour reprendre l’exemple de l’acheminement du courrier, c’est bien gentil de constater qu’il y a des économies à faire, mais c’est qui qui dispose de la meilleure base d’informations postales? La Poste… qui vend ces données à ceux qui en ont besoin… et n’a donc aucun intérêt à l’émergence d’une base ouverte venant remplacer la sienne.

Comment on fait pour travailler avec un acteur privé à saper son marché?



La question se pose aussi, mais différemment, avec les organismes publiques comme l’IGN ou Météo France, dont une part significative du budget (environ 13 pour les deux je crois) vient de la vente de données et services (je ne sais pas dans quelles proportions entre données et services, c’est juste les données qui sont remises en cause a priori).





Pourtant il existe la Base d’Adresse Nationale (BAN) depuis 18 mois dont les sources de données proviennent de La Poste et l’IGN.

Pour l’IGN et Météo France il me semble que la limite est de 25% de leur budget provenant de redevances.



La BAN ne contient pas (très loin de là) toutes les données adresses de l’IGN et de la Poste. A la fois pour des questions techniques (la BAN a vocation à rester relativement simple, de ce que j’ai compris), mais aussi commerciale (la poste ne veut pas y voir son code Hexaclé, son trésor de guerre)

Elle est le sujet de gros conflits sur les licences (ya qu’à voir la page dédiée au sujet l’usine à gaz mise en place :https://adresse.data.gouv.fr/download), en particulier du fait d’une tentative de conciliation entre les aspects Open Data et commercial.



Ensuite une base de donnée c’est bien, une base maintenue à jour, c’est mieux. La BAN c’est à la fois des données, publiées depuis 18 mois, mais aussi un système de diffusion et contribution (basé sur une API), pas encore en prod.

Si La Poste, qui est de très loin l’acteur ayant le plus de force de frappe en matière d’entretien de la donnée adresse ne se base pas dessus pour ses systèmes internes, la BAN deviendra très vite obsolète. Idem pour l’IGN, probablement dans une moindre mesure.

Or certains choix techniques ont été l’objet de conflits ouverts entre les acteurs du projet (visibles dans les tickets github du projet). Il ne semble pas gagné que les différents acteurs branchent leurs systèmes internes dessus (pour l’IGN, ils pourraient y être forcés par décision de leur ministre, mais pour La Poste, s’ils veulent pas il n’y a rien à faire).



Dans ce cas, la BAN deviendrait une base de plus, mal voire pas entretenue, et serait donc d’une utilité toute relative. Dit autrement, un échec.



Quand je dis yakafokon, c’est aussi une affaire de comm’. C’est une chose d’annoncer en grande pompe la BAN, c’est autre chose de la faire vivre durablement.





Pour les 25%, je crois que c’est le seuil à partir duquel ils ont le droit de demander des redevances, et qu’ils sont tous les deux au-delà. La donnée doit être accessible publiquement via leurs rapports d’activité, mais j’avoue avoir la flemme de chercher. Cela étant, même si c’était 10%, le problème resterait le même.