On a rencontré Lionel Ploquin, « administrateur des données » de l’administration fiscale

On a rencontré Lionel Ploquin, « administrateur des données » de l’administration fiscale

« Il y a beaucoup de pédagogie à faire »

Avatar de l'auteur
Xavier Berne

Publié dans

Droit

02/10/2017 7 minutes
5

On a rencontré Lionel Ploquin, « administrateur des données » de l’administration fiscale

Depuis plus d’un an, Lionel Ploquin officie en tant qu’administrateur des données de la Direction générale des finances publiques (DGFiP). Alors qu’un réseau de tels fonctionnaires en charge de promouvoir l’Open Data au sein de chaque ministère pourrait bientôt voir le jour, Next INpact a souhaité en savoir plus sur son travail.

Cet énarque, qui était déjà en poste à Bercy en tant que chargé de mission pour les services numériques innovants, fait figure depuis août 2016 de véritable « chief data officer » de l’administration fiscale. Il est aussi l’un des tout premiers relais de l’Administrateur général des données, Henri Verdier, a avoir été installé au sein d’une administration – de surcroît de manière officielle.

Son rôle ? Accompagner et conseiller « les nouveaux projets d'utilisation avancée des données de la DGFiP (applications décisionnelles, data mining, big data...) ». Et c’est peu dire que celles-ci peuvent se révéler précieuses : algorithmes de calcul des impôts, détail de la comptabilité publique, etc. S’il ne dispose d’aucun pouvoir coercitif, Lionel Ploquin peut néanmoins pousser des propositions « sur la politique d'ouverture des données de la DGFiP et l'accompagnement nécessaire de cette ouverture ».

Nous avons pu l’interroger lors du salon de la data de la « Digital week » de Nantes.

Concrètement, quel est le quotidien de l'administrateur des données de la DGFiP ?

Pour l'instant, il n'y a pas de journée type ! La fonction est encore jeune, en tout cas dans les ministères, alors qu'elle est déjà mature dans le secteur bancaire.

Mais pour vous répondre, une première partie de mon temps est consacrée à la connaissance et à la documentation des données existantes. C’est une fonction qu'on pourrait qualifier de « data steward ». Deuxièmement, je travaille à l'ouverture de données en étant notamment en charge de la mise en œuvre de la loi Lemaire. Ensuite, je participe à l'incubation de projets de valorisation des données, par exemple autour de la lutte contre la fraude ou de la connaissance de nos usagers.

Et puis une fraction importante de mon temps est consacrée aux problématiques de sécurisation des données sensibles en lien avec le RGPD [règlement européen sur la protection des données personnelles, ndlr]. Je ne m'occupe donc pas uniquement de l'Open Data : j'ai aussi une fonction proche de celle d'un DSI classique sur les flux de données.

Quels sont vos principaux « faits d'armes », un an après votre nomination ?

Un an, ça passe très vite... Dans le cadre de la loi Lemaire, j'ai beaucoup écrit et expliqué en interne pour faire comprendre ce texte, quelles étaient les exigences qu'il portait, afin de mieux préparer son application.

D'autre part, j'ai travaillé en mode collaboratif avec de nombreuses équipes pour faire un gros travail de cartographie des flux de données entrants et sortants, de façon totalement agnostique, c'est-à-dire quels que soient nos clients externes et les supports utilisés. Cela allait de la sollicitation d'un guichet pour obtenir un renseignement au transfert massif de données de machine à machine, de nos API, en passant par l'ouverture de données publiques.

Je dispose aujourd’hui d'un très bel outil qui me permet d'avoir une cartographie de tous les flux et échanges de données entrants et sortants de la DGFiP. Il n'est pas exhaustif, mais j'ai le cadre d'une vision consolidée de la façon dont nous sommes sollicités et pourquoi, ce qui va nous permettre de faire un travail de rationalisation sur ces échanges. C'est un gros chantier dont on est en train de tirer les fruits.

Cet outil est-il purement interne ou a-t-il vocation à être rendu public ?

Une partie sera exportable, probablement l'essentiel. Mais parmi les données qui seront exposées, toutes ne seront pas in fine en Open Data. On saura que certaines données existent, mais parce qu'elles portent des informations personnelles ou qu'elles entrent dans le champ des secrets légaux ou des exceptions à la communicabilité, elles ne seront pas divulguées. Ce qui n'empêche pas qu'on connaisse leur existence.

Peut-on imaginer que demain, l'on sache exactement quelles sont les sommes versées ou perçues par l'État, via le logiciel Chorus, comme le réclament certains militants de l'Open Data ?

Il n’est pas nécessaire de demander à ouvrir le « coffre-fort » de Chorus, dont les données sont produites par l’Agence pour l'informatique financière de l'État. En réalité, les données comptables de la DGFiP font exactement le même office. Elles reposent sur un réseau de comptables publics qui assurent les rentrées, notamment fiscales, mais aussi les dépenses (marchés publics, dépenses de fonctionnement et d'investissement...).

Chorus est un opérateur de la comptabilité. Les données transitent ensuite par la DGFiP et rentrent dans l'escarcelle du ministère qui pilote les programmes de la LOLF.

Ces données, comme l'ensemble des données publiques, sont dans le champ de la loi Lemaire en tout état de cause.

Nous avons récemment pu constater que le ministère pour lequel vous travaillez ne respectait ses nouvelles obligations d'Open Data « par défaut ». Une réaction ?

Les ministères, mais également l'ensemble des acteurs publics, doivent s'approprier ce nouveau paradigme de l'ouverture « par défaut » des données et des algorithmes. La tâche est immense, parce que des documents potentiellement publiables, il y en a des km linéaires et des téraoctets... Donc la question c'est un peu par quoi commencer ? Quelles données ont le plus de valeur pour le corps social et la « multitude » ? Quels moyens consacre-t-on à la mise en ligne de ces documents ?

N’êtes-vous pas frustré de voir que vous avez le droit avec vous mais qu'on ne vous écoute pas forcément ?

Frustré, non. Mon rôle est de sensibiliser à la fois sur l'intérêt de s'ouvrir et le risque, notamment d'image, à ne pas le faire assez vite. C'est pour cette raison que le réseau d’administrateurs ministériels des données sur lequel travaillent la mission Etalab et l’Administrateur général des données est important. Il permettra une certaine émulation, tout en faisant un retour sur ce qui est fait dans d'autres ministères. C'est extrêmement riche et pertinent.

Quel regard portez-vous sur cette proposition portée par Henri Verdier de créer un réseau ministériel d'administrateurs des données ?

C'est une excellente initiative. C'est très utile, ça nous permet de nous rencontrer, d'échanger, de voir quels sont les progrès respectifs, de mutualiser sur nos techniques et nos méthodes.

Il y a notamment une réflexion sur ce que doit être une fonction type d'administrateur des données. Parce qu'aujourd'hui, c'est extrêmement hétérogène. J'ai des collègues qui ont un champ d'action différent du mien : plus large sur certains aspects, plus restreints sur d'autres. Je crois qu’il est utile d'homogénéiser.

Quelles difficultés rencontrez-vous au quotidien dans votre travail ?

Il y a un problème de conscientisation de ce qu'est la data : pourquoi cet objet a une valeur particulière et, au-delà de ça, pourquoi cet objet doit être ouvert à l'extérieur. Et ça, c'est assez nouveau dans une administration à qui on demande, à juste titre, d'être garante du secret fiscal et du secret professionnel.

Il y a des secrets légaux qui doivent être absolument protégés et par ailleurs une culture d'ouverture émergente. Tout l'enjeu est de montrer que les deux cultures sont compatibles et ne s'opposent pas.

Il y a donc beaucoup de pédagogie à faire.

En revanche, tout ce qui a trait à la valorisation de la donnée rencontre un écho favorable. Je n’ai pas de difficultés à expliciter l'intérêt d'un désilotage de nos données dans des cas d'usage de lutte contre la fraude fiscale, ou s’agissant de la connaissance du parcours de nos usagers et de leurs attentes.

Merci Lionel Ploquin.

Écrit par Xavier Berne

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Concrètement, quel est le quotidien de l'administrateur des données de la DGFiP ?

Quels sont vos principaux « faits d'armes », un an après votre nomination ?

Cet outil est-il purement interne ou a-t-il vocation à être rendu public ?

Peut-on imaginer que demain, l'on sache exactement quelles sont les sommes versées ou perçues par l'État, via le logiciel Chorus, comme le réclament certains militants de l'Open Data ?

Nous avons récemment pu constater que le ministère pour lequel vous travaillez ne respectait ses nouvelles obligations d'Open Data « par défaut ». Une réaction ?

N’êtes-vous pas frustré de voir que vous avez le droit avec vous mais qu'on ne vous écoute pas forcément ?

Quel regard portez-vous sur cette proposition portée par Henri Verdier de créer un réseau ministériel d'administrateurs des données ?

Quelles difficultés rencontrez-vous au quotidien dans votre travail ?

Fermer

Commentaires (5)


Punaise, j’ai l’impression d’entendre exactement le même discours que tous les CDO des grosses boîtes.

Ils sortent tous du même moule de : On sensibilise, on fait du data stewardship.

On finit toujours par avoir l’impression qu’ils ne servent à rien et qu’ils n’ont aucun pouvoir. Surtout vu le nombre de mensonges qu’il doit se prendre de la part de certains “projets”.


Le « désilotage de nos données »… expression intéressante. Je pensais que ça venait du mot îlot, mais apparemment ça viendrait plutôt du mot silos.


Lire le titre et penser au sketch d’Omar et Fred avec monsieur Poquelin <img data-src=" />



Sinon très intéressant, dur dur de mettre une telle machine en mouvement


on commence quand même à voir les fruits du dialogue Etalab-DGFiP:&nbsphttps://www.data.gouv.fr/fr/datasets/pci-vecteur-plan-cadastral-informatise/ avec bientôt un site dédié https://cadastre.data.gouv.fr pas encore en ligne)


Oui, cela consiste à mettre en commun les données détenues dans une organisation, qui autrement sont contenues dans ces “silos” de manière isolée. L’objectif étant d’accroître les possibilités de valorisation de ces données.&nbsp;