L'Administrateur général des données fait appel à des prestataires privés

L’Administrateur général des données fait appel à des prestataires privés

Data science, ça tourne !

Avatar de l'auteur
Xavier Berne

Publié dans

Internet

05/08/2015 3 minutes
22

L'Administrateur général des données fait appel à des prestataires privés

Agissant discrètement depuis maintenant près d’un an, l’Administrateur général des données a lancé voilà quelques jours un appel d’offres en direction des entreprises spécialisées dans la science des données (« data science »). L’institution aimerait s’offrir les services d'acteurs privés capables de l’aider à répondre à des problèmes rencontrés par des administrations.

C’est un accord cadre d’au moins deux ans que le Secrétariat général pour la modernisation de l’action publique (SGMAP) s’apprête à signer pour le compte de l’Administrateur général des données – qui lui est juridiquement rattaché depuis septembre 2014. Ce service placé auprès du Premier ministre recherche en effet des prestataires capables de fournir une assistance pour « exploiter des données publiques, ouvertes ou non, via des prestations de science des données, dans des domaines ciblés par l'Administrateur général des données ».

Anticiper, à l’aide des données, les impacts potentiels d’une politique publique

L’objectif ultime ? « Mener des expérimentations sur l’utilisation des données pour renforcer l’efficacité des politiques publiques ». À partir de cas très précis, le (ou les) candidat(s) retenu(s) devra dans un premier temps « mobiliser les technologies permettant de collecter de forts volumes de données et de lier entre elles des données jusque-là hétérogènes ». Cela pourra par exemple passer par un appariement de données en vue de la reconstitution d’un budget, la détection de sources et de bases de données en rapport avec le problème à résoudre, etc.

Dans un deuxième temps, le prestataire sera amené à « rapprocher les données de façon itérative pour tester plusieurs hypothèses de résolution du problème posé ». En clair, il s’agira d’analyser les solutions possibles, en essayant de prédire à l’aide des données les résultats d’une réforme ou le potentiel d’une innovation sur des périodes pouvant aller jusqu’à 10 ou 15 ans.

Si les pouvoirs publics restent discrets sur les administrations demandeuses de telles analyses, l’appel d’offres mentionne quelques exemples de problèmes pouvant potentiellement être étudiés : « flux de demandeurs d’asile, nature des prestations à venir pour la dépendance, nouvelles solutions thérapeutiques, services numériques du futur, etc. »

Au moins 250 000 euros pour pousser la réutilisation des données publiques

Les candidats ont jusqu’au 21 septembre pour se manifester. Ceux-ci pourront prétendre à au moins 250 000 euros d’argent public TTC (il s’agit d’un marché sans plafond), qu’il faudra éventuellement se partager si plusieurs sociétés sont sélectionnées. L’Administrateur général des données entend quoi qu’il en soit que les prestataires retenus se mettent rapidement au travail, puisqu’une réunion de lancement devrait avoir lieu dans les 10 jours suivant la notification du marché.

La passation à venir de ce marché permet de souligner qu’en dépit des quatre « data scientists » travaillant depuis la fin 2014 avec Henri Verdier, l’Administrateur général des données, ce dernier estime avoir malgré tout besoin de renforts. Cela montre surtout que l’État continue de chercher à ce que le mouvement d’Open Data trouve des applications concrètes, comme l’ont récemment illustré les 2,5 millions d’euros alloués en ce sens dans le cadre des investissements d’avenir (voir notre article). 

22

Écrit par Xavier Berne

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Anticiper, à l’aide des données, les impacts potentiels d’une politique publique

Au moins 250 000 euros pour pousser la réutilisation des données publiques

Commentaires (22)


Les choses sérieuses commencent <img data-src=" />


Euh vous connaissez des acteurs du monde autre que privé capable de répondre à cet AO? (vraie question)


Non, effectivement, ce genre d’appel offre est réserver à des entreprises privées. La nouveauté que décrit cet article, c’est qu’avant, l’AGD recrutait des talents dans son équipe (les quatre data scientists).



Maintenant, il externalise. Dans l’absolu, ce n’est peut-être pas la première fois qu’il externalise, mais sans doute la première fois pour un marché de cette taille.


Les flux de demandeurs d’asile, je suis un peu dubitatif sur la possibilité d’obtenir des infos autre que des statistiques grossière. ??




il s’agira d’analyser les solutions possibles, en essayant de prédire à l’aide des données

Ou autrement dit de la modélisation. Quand on voit les piètres résultats des modélisations économiques par les instituts publics français, on ne peut que se réjouir de voir confier à des acteurs privés le soin de faire le boulot des guignols au pouvoir.



Cependant cela augure du pire si les politiques se servent de ces ‘résultats’ comme substitut à une ‘réflexion’ politique (même une de faible niveau est préférable) ou pour se défausser à bon compte après un échec probable suite à ladite ‘réflexion’ (le cas général).



Les prévisions des systèmes complexes restent difficiles à établir ou à se réaliser quand elles le sont, et ce n’est pas 250K malheureux € qui y changeront quelque chose : l’état de la Science en la matière n’est simplement pas assez avancé pour le moment, à supposer qu’il le soit assez un jour, ce qui n’est pas démontré.








Gigatoaster a écrit :



Euh vous connaissez des acteurs du monde autre que privé capable de répondre à cet AO? (vraie question)







Les thématique de recherche de mon labo sont en plein dans ce qui est demandé. On fait ça depuis pas mal de temps et de nombreux projets (ANR ou H2020) trempent la dedans :)



Le boulot du prestataire n’est pas seulement de livrer des prédictions, mais aussi d’expliquer comment les intégrer au processus de décision.



En gros, il ne s’agit pas de les utiliser comme un oracle, mais de se dire ‘telles données disent ça’, que disent nos autres sources d’information ? Y a t-il (ou non) une corrélation ?


Les bases de la psycho-histoire?😰


L’age sombre arrive, vite barrons-nous nous barricader sur une planète lointaine _o/

&nbsp;

Tu m’étonnes que les politiques soient interessés pour savoir quand est-ce qu’il faut se barrer pour pas se faire rattraper par ses casseroles <img data-src=" />




Anticiper, à l’aide des données, les impacts potentiels d’une politique publique





Avant: “Le gouvernement va lancer un plan d’envergure dont le montant est estimé à 7 milliards sur 5 ans, qui générera 12 milliards de bénéfices sur 12 ans. L’opposition conteste ces chiffres et parle d’un cout de 15 milliards pour un bénéfice presque nul, estimant que cet argent serait mieux employé autrement”



Après: “Le gouvernement va lancer un plan d’envergure dont le montant est estimé à 6.789 milliards sur 5 ans, qui générera 11.914 milliards de bénéfices sur 12 ans. L’opposition conteste ces chiffres et parle d’un cout de 15 milliards pour un bénéfice presque nul, estimant que cet argent serait mieux employé autrement”



<img data-src=" />








Gigatoaster a écrit :



Euh vous connaissez des acteurs du monde autre que privé capable de répondre à cet AO? (vraie question)





l’INRIA , l’insee

&nbsp;



tmtisfree a écrit :



Ou autrement dit de la modélisation. Quand on voit les piètres résultats des modélisations économiques par les instituts publics français, on ne peut que se réjouir de voir confier à des acteurs privés le soin de faire le boulot des guignols au pouvoir.





&nbsp;La modélisation par apprentissage des données ne valent pas mieux que les modèles économiques quand il s’agit de faire de la prédiction sur des données temporelles. &nbsp;les projections a 1015 ans c’est du Bullshit de compète.

&nbsp;laisser&nbsp;le taff a des acteurs privés c’est aussi s’exposer à du blabla &nbsp;pour &nbsp;faire des modèles qui seront de toute façon invérifiables.

&nbsp;



Après ça empêche pas qu’ils fassent des truc vraiment utiles sur le reste pour peu qu’il y ait des problématiques précises et bien définies (ce qui reste étonnant de la part des politiques)









127.0.0.1 a écrit :



Avant: “Le gouvernement va lancer un plan d’envergure dont le montant est estimé à 7 milliards sur 5 ans, qui générera 12 milliards de bénéfices sur 12 ans. L’opposition conteste ces chiffres et parle d’un cout de 15 milliards pour un bénéfice presque nul, estimant que cet argent serait mieux employé autrement”



Après: “Le gouvernement va lancer un plan d’envergure dont le montant est estimé à 6.789 milliards sur 5 ans, qui générera 11.914 milliards de bénéfices sur 12 ans. L’opposition conteste ces chiffres et parle d’un cout de 15 milliards pour un bénéfice presque nul, estimant que cet argent serait mieux employé autrement”



<img data-src=" />







Ils ont juste à s’inspirer du Retail pour le prix psychologique… On le fait pour le chiffrage psychologique nous.

Annoncer 9 jours passe mieux que 10, va comprendre…









tmtisfree a écrit :



Quand on voit les piètres résultats des modélisations économiques par les instituts publics français, on ne peut que se réjouir de voir confier à des acteurs privés le soin de faire le boulot des guignols au pouvoir.







Pas certains quand on voit comment tous les acteurs économiques privés et non des moindres ce sont plantés dans les grandes largeurs sur la crise bancaire des dernières années il y a de quoi rester dubitatif sur leur grand pouvoir d’analyse…..de toutes façons ce sont les mêmes guignols du privé qui passent au pouvoir quand leur camp gagne et qui retournent glandouiller dans les hautes sphères financières quand leur camp perd









tmtisfree a écrit :



Ou autrement dit de la modélisation. Quand on voit les piètres résultats des modélisations économiques par les instituts publics français, on ne peut que se réjouir de voir confier à des acteurs privés le soin de faire le boulot des guignols au pouvoir.





En générale les modélisations économiques de l’INSEE ou de la Banque de France (les deux organismes publiques de référence sur cette thématique) sont plutôt de bonnes qualité (ça reste de la prévision pas de la magie) par contre l’interprétation qu’en fait les politiques c’est autre chose….&nbsp;









ColinMaudry a écrit :



Le boulot du prestataire n’est pas seulement de livrer des prédictions, mais aussi d’expliquer comment les intégrer au processus de décision.



En gros, il ne s’agit pas de les utiliser comme un oracle, mais de se dire ‘telles données disent ça’, que disent nos autres sources d’information ? Y a t-il (ou non) une corrélation ?







Je visais plutôt la croyance répandue qui veut que tout ce qui sort d’un ordinateur est parole d’Évangile bénie par la sainte onction du calcul mathématique, sans aucune critique des hypothèses de départ, des présuppositions, des a prioris et des choix forcément inclus par les opérateurs pour bâtir le(s) modèle(s). Avant de proposer des prédictions, chaque modèle devra être vérifié et validé de manière indépendante a minima selon les bonnes pratiques du milieu : quelle assurance que cela sera fait et surtout comment, quand on voit la misérable somme de 250K€ proposée au regard des exemples proposés ?









lanoux a écrit :



Pas certains quand on voit comment tous les acteurs économiques privés et non des moindres ce sont plantés dans les grandes largeurs sur la crise bancaire des dernières années il y a de quoi rester dubitatif sur leur grand pouvoir d’analyse…..de toutes façons ce sont les mêmes guignols du privé qui passent au pouvoir quand leur camp gagne et qui retournent glandouiller dans les hautes sphères financières quand leur camp perd







La “crise bancaire” est avant tout la conséquence d’une crise immobilière US elle-même le résultat de la politique socio-économique du logement effarante et interventionniste des gouvernements américains successifs. Je t’invite à lire en entier le lien donné : tous les responsables sont cités et sont encore, ou seront bientôt, au pouvoir (ce n’est pas un hasard).



Ce n’est pas non plus un hasard si un keynésien comme Paul Krugman affirmait en 2002 que l’objectif du gouvernement US ou de son bras financier était de créer une bulle dans l’immobilier pour contrer la récession d’alors.



Le système bancaire n’est qu’un bouc émissaire bien commode pour les idéologues rétrogrades et leur fan-club de majorettes.



En fait il faut regarder le PDF : la création de modèles prédictifs est un type de prestation parmis une vingtaine :







3.1 Recherche et exploration de données





  • enrichissement de bases de données ;

  • appariement de données entre elles pour reconstituer un budget, un résultat de politiques

    publiques;

  • détection de sources et de bases de données en rapport avec les problèmes à résoudre, tant au

    sein des administrations que sur des bases de données ouvertes sur Internet ;

  • formulation de requêtes de données pour chaque analyse à mener ;

  • mobilisation de logiciels dédiés à la collecte (connecteur, crawler, scraper), l’agrégation et la

    fusion de données de nature de format et de technologie hétérogènes (web sémantique) ;

  • création d’entrepôts de données dédiés aux problèmes à résoudre.



    3.2 Analyse des données

    Il s’agit de rapprocher les données de façon itérative pour tester plusieurs hypothèses de

    résolution du problème posé. A titre d’exemples :

  • méthodes de classification ;

  • détection de signaux faibles ;

  • application ou élaboration d’algorithmes ou de modèles prédictifs (machine learning) ;

  • décomposition des données collectées en mots discriminants pour détecter de nouveaux

    comportements ou des innovations produits / de services ;

  • analyses descriptives pour détecter les variables clés influant un résultat de politique publique

    (service rendu, coûts complets) ;

  • analyses prédictives pour prédire les résultats d’une politique publique, des comportements

    bénéficiaires ou le potentiel d’une innovation produits / de service.



    3.3 Elaboration du rendu

    Il s’agit de présenter les solutions, pistes d’action à mener, difficultés à prendre en compte, en

    ayant recours à des techniques de visualisation de données. A titre d’exemples :

  • sélection du modèle de représentation graphique le plus adapté à la situation (hiérarchique, en

    réseau, en cercle, symbolique, etc.) ;

  • développement ou mise à disposition d’interfaces pour les utilisateurs et notamment

    d’interfaces graphiques, de dashboards interactifs ;

  • alimentation d’interfaces graphiques avec les jeux de données nettoyés et structurés ;

  • modification du résultat visuel selon des paramètres autorisés (temps, géographie,

    organisation, concept, etc.) ;

  • création d’API permettant l’exploitation automatisée des résultats ou de certaines données

    issues des analyses ;







    Ce que je vois, c’est même s’il y aura un peu de machine learning , il s’agira surtout de mettre de l’ordre dans les données.








wanou2 a écrit :



En générale les modélisations économiques de l’INSEE ou de la Banque de France (les deux organismes publiques de référence sur cette thématique) sont plutôt de bonnes qualité (ça reste de la prévision pas de la magie) par contre l’interprétation qu’en fait les politiques c’est autre chose….







Certains agrégats macroéconomiques inutiles pour le commun des mortels sont prévus de manière relativement fiable, mais c’est surtout parce qu’ils sont peu affectés par la conjoncture économique/le marché/etc.



Pour le reste, tous les instituts ou labos de modélisation utilisent des modèles basés sur une approche typiquement keynésienne de paramétrage à outrance avec des variables qui sont réajustées rétrospectivement suivant les données qui s’accumulent. Ce n’est pas un gage de qualité fondamentale et/ou algorithmique quand le modèle n’est pas capable de sortir correctement ce pour quoi il est conçu à la base.









ColinMaudry a écrit :



En fait il faut regarder le PDF : la création de modèles prédictifs est un type de prestation parmis une vingtaine :







3.1 Recherche et exploration de données





  • enrichissement de bases de données ;

  • appariement de données entre elles pour reconstituer un budget, un résultat de politiques

    publiques;

  • détection de sources et de bases de données en rapport avec les problèmes à résoudre, tant au

    sein des administrations que sur des bases de données ouvertes sur Internet ;

  • formulation de requêtes de données pour chaque analyse à mener ;

  • mobilisation de logiciels dédiés à la collecte (connecteur, crawler, scraper), l’agrégation et la

    fusion de données de nature de format et de technologie hétérogènes (web sémantique) ;

  • création d’entrepôts de données dédiés aux problèmes à résoudre.



    3.2 Analyse des données

    Il s’agit de rapprocher les données de façon itérative pour tester plusieurs hypothèses de

    résolution du problème posé. A titre d’exemples :

  • méthodes de classification ;

  • détection de signaux faibles ;

  • application ou élaboration d’algorithmes ou de modèles prédictifs (machine learning) ;

  • décomposition des données collectées en mots discriminants pour détecter de nouveaux

    comportements ou des innovations produits / de services ;

  • analyses descriptives pour détecter les variables clés influant un résultat de politique publique

    (service rendu, coûts complets) ;

  • analyses prédictives pour prédire les résultats d’une politique publique, des comportements

    bénéficiaires ou le potentiel d’une innovation produits / de service.



    3.3 Elaboration du rendu

    Il s’agit de présenter les solutions, pistes d’action à mener, difficultés à prendre en compte, en

    ayant recours à des techniques de visualisation de données. A titre d’exemples :

  • sélection du modèle de représentation graphique le plus adapté à la situation (hiérarchique, en

    réseau, en cercle, symbolique, etc.) ;

  • développement ou mise à disposition d’interfaces pour les utilisateurs et notamment

    d’interfaces graphiques, de dashboards interactifs ;

  • alimentation d’interfaces graphiques avec les jeux de données nettoyés et structurés ;

  • modification du résultat visuel selon des paramètres autorisés (temps, géographie,

    organisation, concept, etc.) ;

  • création d’API permettant l’exploitation automatisée des résultats ou de certaines données

    issues des analyses ;







    Ce que je vois, c’est même s’il y aura un peu de machine learning , il s’agira surtout de mettre de l’ordre dans les données.







    Merci pour la copie. Effectivement il y a beaucoup de dirty work pour un pauvre quart de million d’€.



et??? je ne vois pas bien ton propos? par exemple, macron n’a t’il pas été t banquier d’affaires chez Rothschild & Cie?????????????? c’est pas comme si cette banque n’avait pas donné de leçons au monde entier? donc tu viens bien appuyer mon propos comme quoi ce sont tous des enc* qui soit sont au pouvoir soit vont y venir et en attendant vont pentoufler dans leur systèmes financier








lanoux a écrit :



et??? je ne vois pas bien ton propos? par exemple, macron n’a t’il pas été t banquier d’affaires chez Rothschild & Cie?????????????? c’est pas comme si cette banque n’avait pas donné de leçons au monde entier? donc tu viens bien appuyer mon propos comme quoi ce sont tous des enc* qui soit sont au pouvoir soit vont y venir et en attendant vont pentoufler dans leur systèmes financier







Tu ne peux peut-être pas comprendre que confondre les conséquences avec les causes, et le pouvoir politique avec un acteur économique n’est pas un gage de cohérence d’un propos ? Auquel cas il est inutile de poursuivre.



effectivement, le pouvoir économique n’ayant aucune cause ni conséquence sur la sphère politique et vis et versa, comme nous avons tous pu le constater avec la crise grec et la crise bancaire, inutile d’en parler



chut, personne ne l’a remarqué