Le Premier ministre veut un bilan de l’Open Data et la fin des redevances à horizon 2022

Le Premier ministre veut un bilan de l’Open Data et la fin des redevances à horizon 2022

Giboulée d'annonces

Avatar de l'auteur
Xavier Berne

Publié dans

Droit

14/03/2019 8 minutes
34

Le Premier ministre veut un bilan de l’Open Data et la fin des redevances à horizon 2022

En réponse à un référé de la Cour des comptes, Édouard Philippe souhaite qu’un « premier bilan de la mise en œuvre de l’ouverture des données [publiques] et de ses impacts » soit réalisé, dès cette année. Le Premier ministre a dans le même temps décidé de mettre définitivement fin aux redevances, notamment de l'IGN, à « horizon 2022 ».

Même la Cour des comptes le dit, avec un art certain de la litote : la mise en œuvre du volet « Open Data » de la loi Numérique de 2016 « ne se fait pas sans difficulté ». L’institution vient de se pencher sur la « valorisation des données » de l’Institut national de l’information géographique et forestière (IGN), de Météo-France et du Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (Cerema).

Dans un référé publié lundi 11 mars, les trois opérateurs, qui relèvent tous du ministère de la Transition écologique, en prennent clairement pour leur grade. La Cour des comptes pointe explicitement leurs « difficultés récurrentes et multiples pour se conformer au droit ».

Multiples manquements aux lois Lemaire et Valter sur l’Open Data

La liste des manquements s’avère relativement longue : « l'obligation de publication de répertoires des principales données détenues n'est pas respectée ; de nombreux logiciels et certaines de leurs bases de données, qui pourraient être qualifiés d'informations publiques, ne sont pas mis à disposition du public ; il en est de même des codes sources et paramétrages de certains modèles informatiques de Météo-France ».

Bien que la « loi Valter » de 2015 ait gravé dans le marbre le principe de gratuité des données publiques, la Cour des comptes s’inquiète d’entorses trop nombreuses à ce texte (qui autorise malgré tout certaines redevances). « La complexité de la tarification de I'IGN n'apparaît pas conforme à l'esprit, sinon à la lettre, des textes » regrettent ainsi les magistrats.

Avant de poursuivre : « Les licences accompagnant la réutilisation des données, obligatoires en cas de perception de redevances, ne sont pas toutes homologuées (Météo-France) ou le sont à titre dérogatoire et temporaire (IGN) ; certaines de leurs caractéristiques apparaissent très contraignantes, à la fois pour les opérateurs et les réutilisateurs des données. »

Le Cerema fait encore plus fort « en vendant des logiciels et des publications hors habilitation à percevoir des redevances », pour environ 500 000 euros par an.

L’État invité à procéder à des « clarifications »

La Cour des comptes reconnait néanmoins que l’IGN, Météo-France et le Cerema sont soumis depuis plusieurs années à « une forme d'injonction paradoxale : développer leurs ressources propres, notamment par la commercialisation des données, tout en procédant à leur diffusion gratuite » (telle que prévue par la loi Lemaire).

Les recettes de ces opérateurs ont d’ailleurs clairement diminué : « En 2013, les ventes de données brutes représentaient encore 36 % (14,7 M€) du chiffre d'affaires de I'IGN : elles n'en représentent plus que 12 % (6,6 M€) en 2017. » Aussi, « les recettes grand public de Météo-France sont passées de 17,8 M€ en 2012 à 9 M€ en 2017 » (voir d'ailleurs cet article que nous avions consacré à l'établissement public).

L’institution de la Rue Cambon souligne également la « complexité technique de la matière », et le changement « radical » impulsé par la loi Numérique. Mais surtout, elle déplore un « manque d'orientations claires de la part de l'État ».

« Il est indispensable que le périmètre des informations publiques devant être mises à disposition gratuitement soit précisé, en particulier en ce qui concerne les logiciels produits par les administrations, leurs bases de données « intermédiaires » et leurs publications », affirme la Cour des comptes. Ce n’est d’ailleurs pas la première fois que l’interprétation de la loi Numérique pose question, notamment du fait que celle-ci impose la mise en ligne, en Open Data, des « bases de données » ou des données dont « la publication présente un intérêt économique, social, sanitaire ou environnemental ».

Les magistrats plaident enfin pour « un pilotage plus efficace de l'ouverture des données », les yeux rivés sur l’enlisement du projet de Base d’adresses nationale (BAN).

Le Premier ministre veut un « premier bilan » de l'Open Data « sous six mois »

En réponse à ce référé, le Premier ministre a annoncé à la Cour des comptes qu’il convenait effectivement de « corriger » certains points. Édouard Philippe explique avoir demandé à l’Inspection générale des finances d’établir « sous six mois », avec le soutien de la Direction interministérielle au numérique (DINSIC), « un premier bilan de la mise en œuvre de l’ouverture des données et de ses impacts, des difficultés rencontrées par les ministères et leurs opérateurs ». L’objectif est également de faire émerger des propositions de « mesures d’accompagnement adaptées ».

« Je souhaite, par ailleurs, que nous puissions, dans les mois à venir, remettre en place une gouvernance et un suivi interministériels réels des déclinaisons sectorielles de notre politique de la donnée, à commencer par la donnée géographique », poursuit le locataire de Matignon.

Guide pédagogique, mission sur l'ouverture des codes sources...

Quant à la « clarification » réclamée par la Cour des comptes, Édouard Philippe reconnait qu’il est « nécessaire de mieux accompagner les services de l’État, les collectivités territoriales, les délégataires de services publics et tout autre acteur concerné dans l’application de la réglementation relative à l’ouverture des données ». À cette fin, le Premier ministre a demandé à la DINSIC « d’établir et de diffuser sous trois mois un guide pédagogique et opérationnel sur ces sujets ».

S’agissant du cas particulier des codes sources, Matignon estime que leur ouverture « soulève des difficultés supplémentaires, par exemple dans son articulation avec la propriété intellectuelle ». Édouard Philippe a ainsi décidé de lancer « rapidement » une « mission inter-inspections », « dans le but d’évaluer précisément l’impact de l’ouverture des codes sources en open data, et de clarifier, si cela est nécessaire, la doctrine sur les codes sources et les données intermédiaires ».

Le Premier ministre annonce enfin que la gratuité des données publiques sera « complète à horizon 2022 ». Autrement dit, il n’y aura plus de redevances. Cette décision « permettra de simplifier de manière efficace la question de l’utilisation des licences dans la mesure où elle permettra de s’affranchir des doubles licences existantes (payantes ou gratuites avec obligation de repartage), facilitant ainsi le passage à la licence ouverte, se félicite Édouard Philippe. Il ne devra alors être recouru à des licences spécifiques, qui restreignent les possibilités de réutilisation des données, qu’à titre très exceptionnel et dûment justifié. »

Une gratuité « complète » à horizon 2022, y compris pour l'IGN et Météo-France

Quant aux cas particuliers de l’IGN, de Météo-France et du Cerema, l’exécutif reconnaît que « si des compensations financières ont pu être versées, elles ont été partielles et non systématiques ».

Le locataire de Matignon explique avoir invité chacun de ces opérateurs à « redéfinir dans les plus brefs délais, et au plus tard à l’été 2019, son modèle économique et les conditions de son équilibre budgétaire, d’analyser les risques et opportunités spécifiques liés à l’ouverture des données et codes sources, d’identifier en conséquence de nouveaux positionnements et offres de services, et d’évaluer les besoins d’investissement spécifiques pour une bonne et rapide transition ».

Le Premier ministre confirme ses objectifs : une généralisation progressive de la gratuité « au plus tard en 2022 ». Ce qui passera « notamment pour l’IGN, par une ultime homologation de sa licence gratuite jusqu’à cette date ».

Au regard de « l’importance » du projet BAN, l’exécutif a demandé à la DINSIC et aux acteurs concernés « de mettre en œuvre de nouvelles modalités de gouvernance et de fonctionnement, reposant sur la gratuité et en même temps sur la qualité de mise à jour collaborative ». Objectif : « que la BAN soit effectivement diffusée gratuitement dans les plus brefs délais et au plus tard au 1er janvier 2020 sous licence ouverte ».

Édouard Philippe promet enfin la publication d’une circulaire invitant les services de l’État à « utiliser préférentiellement » les données en Open Data « produites par d’autres acteurs publics ».

Écrit par Xavier Berne

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Multiples manquements aux lois Lemaire et Valter sur l’Open Data

L’État invité à procéder à des « clarifications »

Le Premier ministre veut un « premier bilan » de l'Open Data « sous six mois »

Guide pédagogique, mission sur l'ouverture des codes sources...

Une gratuité « complète » à horizon 2022, y compris pour l'IGN et Météo-France

Fermer

Commentaires (34)


Depuis le temps (10 ans) qu’on demande l’accès (gratuit) aux données météo afin de vérifier leur utilisation (en terme d’ajustements et d’analyse post mortem des prévisions des modèles climatiques en particulier), on ne peut pas dire que les décisions qui sont prises soient rapidement suivies d’effets : le manque d’empressement pour ouvrir les données est pour le moins suspect.



Concernant l’IGN, l’accès aux données est bien meilleur. Il est en revanche désolant d’avoir à payer pour des données carto sous forme électronique (mais OK sous forme papier). Il y a aussi la désagréable habitude de dégrader et retirer les anciennes API d’accès aux données qui pour le coup est vraiment de l’obsolescence programmée, alors que les silos de données sont complètement indépendants.








tmtisfree a écrit :



on ne peut pas dire que les décisions qui sont prises soient rapidement suivies d’effets : le manque d’empressement pour ouvrir les données est pour le moins suspect.





Bof, rien de suspect, c’est juste une histoire d’argent. Ils ne veulent pas publier gratuitement des données qui sont aujourd’hui vendues.







tmtisfree a écrit :



Il y a aussi la désagréable habitude de dégrader et retirer les anciennes API d’accès aux données qui pour le coup est vraiment de l’obsolescence programmée, alors que les silos de données sont complètement indépendants.





Tous les acteurs privés le font (déprécier les API n-1 quand la version n sort), pour une raison simple : 2 API à maintenir, 2x le coût de maintenance. Ne serait-ce pas une bien mauvaise utilisation des deniers publics?









tmtisfree a écrit :



Depuis le temps (10 ans) qu’on demande l’accès (gratuit) aux données météo afin de vérifier leur utilisation (en terme d’ajustements et d’analyse post mortem des prévisions des modèles climatiques en particulier), on ne peut pas dire que les décisions qui sont prises soient rapidement suivies d’effets : le manque d’empressement pour ouvrir les données est pour le moins suspect.



Concernant l’IGN, l’accès aux données est bien meilleur. Il est en revanche désolant d’avoir à payer pour des données carto sous forme électronique (mais OK sous forme papier). Il y a aussi la désagréable habitude de dégrader et retirer les anciennes API d’accès aux données qui pour le coup est vraiment de l’obsolescence programmée, alors que les silos de données sont complètement indépendants.





Tu as les infos des aéroports en temps réel et prévisions qui sont gratos, par contre faut bien parser les fichiers.



perdu, tu peux laisser l’api ancienne avec uniquement des correctifs de sécurité et avoir la nouvelle. Sans que cela coute 1€ de plus



ca me rappelle le cout officiel des SMS estimé a 15c à l’époque, la vaste blague :)








Zerdligham a écrit :



Tous les acteurs privés le font (déprécier les API n-1 quand la version n sort), pour une raison simple : 2 API à maintenir, 2x le coût de maintenance. Ne serait-ce pas une bien mauvaise utilisation des deniers publics?





Ce que le privé fait ou pas n’a aucun rapport.



Si les API sont dépréciées elles ne sont plus maintenues donc pas de coûts. Mon point sont les API qui sont retirées, ou ruinées parce que l’accès ou une couche intermédiaire entre l’accès et les données a été modifiée, sans raison alors que les silos de données n’ont pas changés.



Les données aéroport (biaisées à la hausse) sont inutiles toutes seules. Pareil pour les prévisions : comment faire une analyse a posteriori sans l’historique afin de juger de la fiabilité ou précision des modèles ?


Quid de la qualité des données et qui la vérifie ?

 

Car bon pour le prix des carburants, certaines stations pointaient à l’extérieur de la France à l’époque…


Pour le coup c’est n’importe quoi.

L’Etat ne finançant pas en totalité ces entreprises, il faudra m’expliquer pourquoi il faudrait qu’elles mettent à disposition toutes leurs données et tous leurs logiciels.

Car à moins que l’Etat ne prenne à sa charge la totalité des couts de fonctionnement, c’est la mort à moyen terme de la plupart de ces services.



D’ailleurs pour Météo France je serai curieux de voir la position de l’Etat qui d’une part réduit sa dotation et d’autre part demande toujours plus en termes de performance et de fiabilité



Donc à moins que l’Etat ne prenne à sa charge la totalité de budget, je ne vois pas comment l’équation peut être résolue.


Pour moi il y a deux situations :



utilisation commerciale : tu passes au tiroir caisse, l’état n’a pas à subventionner ton business

utilisation non commerciale : utilisation gratuite








carbier a écrit :



pour Météo France je serai curieux de voir la position de l’Etat qui d’une part réduit sa dotation et d’autre part demande toujours plus en termes de performance et de fiabilité



Donc à moins que l’Etat ne prenne à sa charge la totalité de budget, je ne vois pas comment l’équation peut être résolue.





Pour la « demande toujours plus en termes de performance et de fiabilité », il existe la solution évidente du désengagement total de l’État et de la privatisation.



Cela aurait le mérite d’assurer une productivité optimale pour un coût public nul (des économies en fait) et avec les modalités indiquées au-dessus : un modèle économique fonctionnel, rentable et bien connu en IT.









tmtisfree a écrit :



Pour la « demande toujours plus en termes de performance et de fiabilité », il existe la solution évidente du désengagement total de l’État et de la privatisation.



Cela aurait le mérite d’assurer une productivité optimale pour un coût public nul (des économies en fait) et avec les modalités indiquées au-dessus : un modèle économique fonctionnel, rentable et bien connu en IT.





Et donc une suppression de l’opendata ?



Sachant que la gestion et la connaissance de la météo sont quand même relativement capitales pour un Etat, je ne crois pas qu’une privatisation soit judicieuse.

D’autant plus que le cout publique nulle est juste une idée préconçue: l’état aura toujours besoin de prévisions pour les aéoroports militaires ainsi que pour la mise en place de la vigilance météo. Et donc dans le cas d’une privatisation il faudra donc passer à la caisse.

Mais bon, c’est comme tout ce que tu peux dire à ce sujet…



Hint: je sais que c’est dur à comprendre pour tous ceux qui “pensent” comme toi, mais un ingénieur payé par l’Etat n’est pas plus ou moins compétent qu’un ingénieur du privé.



L’idée est surement de préparer la bonne vielle excuse du “mais regardez comme ça coûte cher et comme ça ne rapport rien, supprimons vite tous ces services publics”.








sscrit a écrit :













tmtisfree a écrit :









Bien sûr, parce que l’infra, ou les logiciels qui sont derrière, eux, ne changent jamais et ne nécessitent aucune adaptation de l’applicatif. La correction des bugs de sécurité, ça coûte rien. Le maintient en compétence / la formation des employés qui fournissent l’assistance à l’utilisation de l’API / du SAV aux utilisateurs, c’est gratuit aussi. La recette des nouvelles données sur l’ancienne API, ça se fait magiquement t il n’y a jamais de nouvelles données qui nécessite les fonctionnalités de la nouvelle version de l’API.

(c’est dingue le nombre de bénévoles que l’IGN exploite, j’aurais pas cru)



En plus même votre affirmation sur le silo de donné qui reste identique ça me parait loin d’être évident. Sur n années, ils sont peut-être amenés à changer de format, de techno de stockage etc… pour améliorer la qualité des données, les fonctionnalités, ou le coût de l’infra. Tout ça peut nécessiter des adaptations sur le logiciel qui sert l’API, donc le suivre sur n version augmente d’autant le coût de maintenance.



Je ne dis pas que l’IGN soit parfaitement parfait et que tous leurs choix ont nécessairement été les bons, mais si tout les fournisseurs d’API, privés comme publics, coupent les vielles versions après un délai de ‘deprecated’ sans coupure, il y a peut-être une raison autre que faire chier les utilisateurs.



J’ai recherché un peu pour l’API du Géoportail, la sortie de la v3 c’est fin 2016, la v2 n’est pas encore coupée. C’est pas hyper-agressif rythme de dépréciation.









carbier a écrit :



Hint: je sais que c’est dur à comprendre pour tous ceux qui “pensent” comme toi, mais un ingénieur payé par l’Etat n’est pas plus ou moins compétent qu’un ingénieur du privé.





Oui et non.

L’ingénieur médian de l’Etat est certainement équivalent à l’ingénieur médian du privé. Par contre, pour l’avoir vu de l’intérieur, le fait que l’Etat ne sache pas virer les incompétents / branleurs tire la moyenne vers le bas.









carbier a écrit :



Et donc une suppression de l’opendata ?





Non.







carbier a écrit :



Sachant que la gestion et la connaissance de la météo sont quand même relativement capitales pour un Etat, je ne crois pas qu’une privatisation soit judicieuse.

D’autant plus que le cout publique nulle est juste une idée préconçue: l’état aura toujours besoin de prévisions pour les aéoroports militaires ainsi que pour la mise en place de la vigilance météo. Et donc dans le cas d’une privatisation il faudra donc passer à la caisse.

Mais bon, c’est comme tout ce que tu peux dire à ce sujet…





Affirmer c’est bien, démontrer c’est mieux. L’obtention et la gestion de données sont précisément des opérations que le privé sait mieux faire pour moins cher (c’est la base du succès de l’IT).



La météo n’a rien de capital pour l’État : ceux qui en ont le plus besoin sont les opérateurs/acteurs privés. Et puisque l’utilisation non commerciale serait gratuite, le coût d’accès serait nul pour l’État/collectivités locales/etc. Il existe par ex. aux USA quantité de firmes privées qui font de la vigilance/prévision en libre accès à basse résolution spatio-temporelle, c’est à dire suffisant pour tout le monde mais avec accès payant si on requiert plus de précision, plus longtemps suivant ou d’autres critères spécifique (comme l’évapotranspiration ou ou les rafales en agriculture par ex.).



Les aéroports militaires dépendent d’un budget militaire qui n’a rien à voir avec MF.







carbier a écrit :



Hint: je sais que c’est dur à comprendre pour tous ceux qui “pensent” comme toi, mais un ingénieur payé par l’Etat n’est pas plus ou moins compétent qu’un ingénieur du privé.





Ce que je « pense » ou pas importe peu : l(‘espérance d)e profit est une motivation suffisamment puissante pour faire la différence, ce que le marché prouve tous les jours.



Le but de l’informatique en général et d’une API finale en particulier devrait être la sanctuarisation (qui s’oppose à l’obsolescence et la suppression programmées) de l’accès aux données, d”autant plus quand il s’opère par des protocoles normalisés par version évoluant (très, très) lentement comme c’est le cas ici.



Pour ce qui est de l’IGN, c’est pareil : la dépréciation est normale mais la coupure non. Personne ne demande que l’API v2 soit maintenue (elle ne l’est plus), seulement que l’accès normalisé aux données le soit tant qu’elle est utilisée, puisqu’il manque encore trop de fonctions à la v3 pour sauter le pas.


Auquel il faut ajouter le fait que les concours de recrutement portent beaucoup plus sur la capacité à broder du texte que sur les compétences techniques.








Zerdligham a écrit :



Oui et non.

L’ingénieur médian de l’Etat est certainement équivalent à l’ingénieur médian du privé. Par contre, pour l’avoir vu de l’intérieur, le fait que l’Etat ne sache pas virer les incompétents / branleurs tire la moyenne vers le bas.





Sauf que pour l’avoir moi aussi vu de l’intérieur, cet adage est valable pour l’ensemble des entreprises privées dépassant une taille critique.









mtaapc a écrit :



Auquel il faut ajouter le fait que les concours de recrutement portent beaucoup plus sur la capacité à broder du texte que sur les compétences techniques.





Ou inversement sur la capacité à faire des maths pour des postes de management.







carbier a écrit :



Sauf que pour l’avoir moi aussi vu de l’intérieur, cet adage est valable pour l’ensemble des entreprises privées dépassant une taille critique.





Vrai.

Mon expérience n’est pas forcément représentative, mais le plus extrême que j’ai vu reste dans la fonction publique. Des gens qui ne produisent absolument rien, voire dont la seule action est de détruire le travail des collègues, j’en ai pas croisé dans le privé.









mtaapc a écrit :



Auquel il faut ajouter le fait que les concours de recrutement portent beaucoup plus sur la capacité à broder du texte que sur les compétences techniques.



Malheureusement je ne peux que confirmer. Je ne compte plus les bêtes de concours qui se révèlent de véritables tanches une fois en poste… (et inversement, des mecs qui loupent tout alors qu’ils seraient ultra-compétents sur le futur poste) <img data-src=" />







carbier a écrit :



Sauf que pour l’avoir moi aussi vu de l’intérieur, cet adage est valable pour l’ensemble des entreprises privées dépassant une taille critique.



La différence étant que dans une entreprise, il y a toujours moyen de placardiser facilement qqu’un, s’ils ne veulent pas le virer. Dans la FP, sachant que chaque poste est comptabilisé, c’est bien plus difficile…



Ma compagne m’avait montré le sujet d’un concours technicien informatique, j’ai tout de suite mieux compris la situation désastreuse qu’elle me racontait (pire que notre DSI de boîte privée complètement à la rue).



Etant dans une grosse entreprise, je confirme, on les appelles les emplois fictifs, mais au moins le potentiel de dégâts est limité.



&nbsp;








tmtisfree a écrit :



Le but (…) devrait être la sanctuarisation (…) de l’accès aux données.





C’est une opinion.



Vu que la pratique de déprécier les vielles version est très pratiquée dans le privée, là où l’offre est pilotée par la demande, c’est qu’il n’y a pas de clientèle pour les vieilles versions, ou en tout cas pas assez pour en financier le maintien (s’il y avait un marché, il y aurait quelqu’un pour y répondre)

On en déduit naturellement que si l’IGN le faisait, cela serait nécessairement une dépense supérieur au bénéfice que tirent les utilisateurs de leurs vieilles API, donc comme il s’agit d’argent public d’une n-ième gabegie à supprimer.

C’est en tout cas le type de raisonnement auquel tu nous as habitué.



D’ailleurs, vu la situation financière de l’IGN, je pense qu’ils considèrent très sérieusement les demandes de maintien de leurs vieilles API si elles sont accompagnées d’une proposition de financement à la mesure des coût que ça engendre.







tmtisfree a écrit :



Pour ce qui est de l’IGN, c’est pareil : la dépréciation est normale mais la coupure non. Personne ne demande que l’API v2 soit maintenue (elle ne l’est plus), seulement que l’accès normalisé aux données le soit tant qu’elle est utilisée, puisqu’il manque encore trop de fonctions à la v3 pour sauter le pas.





Je ne connais pas assez le sujet pour avoir une opinion éclairée.

Par contre mon petit doigt me dis que s’ils ont retiré des fonctionnalités, c’est probablement parce qu’ils ont estimé que le ratio coût de maintenance / utilisation était trop faible (et pas exclusivement pour enquiquiner tmtisfree).

Là encore, offre/demande, effort d’un établissement public pour s’aligner avec le marché que je m’attendrais plutôt à te voir regarder d’un bon oeil.







De toute façon la question ne va plus se poser très longtemps, dès que les données seront open data, n’importe qui pourra monter son service de diffusion, et on verra bien à quelles API pour quelle durée de vie le marché aboutira.



Ton raisonnement est bancal : ce qui se fait dans le privé est sans rapport car l’IGN n’a pas le profit comme objectif, donc inutile de gloser sur de supposées motivations commerciales. Secundo, et une fois de plus, personne ne leur demande de maintenir leurs API dépréciées, seulement de ne pas les rendre inutilisables en flinguant l’accès aux données, en supprimant des normes qui sont toujours valides, etc.



Le point est que les utilisateurs de ces données n’ont pas à redévelopper leur projet (le code javascript principalement soit 90% du code total) à chaque nouvelle API quand les données et les normes d’accès sont strictement identiques.



Ce n’est pas que les fonctionnalités qui manquantes n’ont pas été « retirées », elles n’ont pas simplement pas (encore) été implémentées (3 ans après la dépréciation).





Je me ferai mon opinion sur l’ouverture des données quand ce sera fait.


Je suis très étonné de ta position du la gestion de l’argent public, alors que tu est habituellement prompt à exiger la privatisation de plein de trucs justement pour que leur fonctionnement s’aligne avec celui d’une économie de marché.

En tant que contribuable, je me réjouis quand je vois que l’état (ou ses satellites) fait des efforts pour éviter de dépenser de l’argent de mes impôts à maintenir des choses qui ne servent plus ‘ou plus assez).



Pour les normes sous-jacentes, l’IGN utilise je crois les standards OGC, si leur API te conviens pas tu peux toujours les taper en ‘bas niveau’.









tmtisfree a écrit :



Ce n’est pas que les fonctionnalités qui manquantes n’ont pas été « retirées », elles n’ont pas simplement pas (encore) été implémentées (3 ans après la dépréciation).





La différence me semble subtile.









mtaapc a écrit :



Ma compagne m’avait montré le sujet d’un concours technicien informatique, j’ai tout de suite mieux compris la situation désastreuse qu’elle me racontait (pire que notre DSI de boîte privée complètement à la rue).



Etant dans une grosse entreprise, je confirme, on les appelles les emplois fictifs, mais au moins le potentiel de dégâts est limité.



Le pire étant qu’en prime parfois les sujets sont complètement bancals.

Je me souviens d’il y a qques années, où le sujet du concours de tech informatique pénitentiaire était de monter un dossier technique complet de A à Z à partir des documents donnés (chose qu’on ne fait absolument jamais, c’est le boulot des directeurs techniques), pour créer un callcenter dans un coin des cuisines, local technique inclus là aussi à partir de 0, alors que la modif lourde d’ouvrages est plutôt du domaine des BBMI…









Zerdligham a écrit :



Je suis très étonné de ta position du la gestion de l’argent public, alors que tu est habituellement prompt à exiger la privatisation de plein de trucs justement pour que leur fonctionnement s’aligne avec celui d’une économie de marché.





Ne t’y trompe pas, j’exige toujours la privatisation immédiate de toutes les officines (para-)étatiques, et jusqu’au sommet de la pyramide si possible ! Simplement comme ce n’est pas encore le cas, je raisonne au réel.







Zerdligham a écrit :



En tant que contribuable, je me réjouis quand je vois que l’état (ou ses satellites) fait des efforts pour éviter de dépenser de l’argent de mes impôts à maintenir des choses qui ne servent plus ‘ou plus assez).





Il n’a pas été montré que laisser les anciennes API sans maintenance avait un coût. Ce qui a un coût que tu ne vois pas en revanche, c’est de devoir recoder 100% de tous les projets v2 pour passer à la v3. À combien estimes-tu le total de tous ces coûts bien réels par rapport à un coût qui reste pour l’instant du domaine de la supposition ?







Zerdligham a écrit :



Pour les normes sous-jacentes, l’IGN utilise je crois les standards OGC, si leur API te conviens pas tu peux toujours les taper en ‘bas niveau’.





J’utilise celles qui sont utilisées par l’API. Pas le choix.







Zerdligham a écrit :



La différence me semble subtile.





Elle représente pour le moment l’impossibilité technique de passer à la v3.



“Le Premier ministre annonce enfin que la gratuité des données publiques sera «&nbsp;complète à horizon 2022&nbsp;». Autrement dit, il n’y aura plus de redevances.”

&nbsp;Même la redevance copie privée ?


Tu peux ignorer tout ce que tu veux les arguments que j’ai donné, ça ne les invalide pas pour autant. Une API, même dépréciée, a un coût. Au minimum celui de l’infra qui ne sert plus qu’à cette API.

La migration a elle aussi un coût, c’est évident, mais elle coutera pas moins cher l’an prochain que cette année, la seule différence est qu’entre temps, l’IGN aura payé le coût de garder l’API pendant un an, et le client le sur-coût probable de maintenir un truc obsolète. Donc globalement c’est plus cher.



Ce que tu dis en fait, c’est qu’il ne faudrait jamais migrer, cad soit conserver ad vitam eternam toutes les versions (bonjour le coût), soit jamais changer de version d’API (bonjour l’innovation).


Les films, c’est pas de la donnée publique <img data-src=" />


dommage


Le coût supplémentaire est inexistant pour l’IGN, car que les utilisateurs changent d’API ou pas, l’utilisation de son infrastructure reste la même. Donc le coût n’est pas un argument.



Les API de l’IGN sont des API client : tout le reste (données, protocoles) est transparent et normalisé (à part la fine couche d’identification évidemment).



Je ne dis pas qu’il ne faudrait jamais migrer, je dis que pour le moment il manque des fonctions pour ce faire et qu’il n’y a aucune justification à migrer si cela n’offre rien de plus qu’auparavant à part les coûts élevés pour ce faire.


oui là tu parle d’une grosse boite IT, ou d’un GAFAM, la on parle de données de l’etat francais,&nbsp; genre les données de la SNCF, ca fait 2 ans qu’ils sont informatisé ? les données de la CAF, le truc qui n’a pas bougé pendant 25 ans, il y a meme des toiles d’araigné sur leur employé (je rigole hein c’est une image).



les données d’un etat ce n’est pas agile comme tu le pense. Tous ce que tu dis sont des arguments d’autorité, je ne vois aucune ligne dans le budget de l’etat sur la maintenance des API, incroyable non ?&nbsp; meme sur leur appel d’offre fait avec les pieds il n’y a aucune mention du terme API



pour les données meteo elle sont TOUTES internationalement gratuite ou mis a disposition, sauf … en France, les données française








sscrit a écrit :



pour les données meteo elle sont TOUTES internationalement gratuite ou mis a disposition, sauf … en France, les données française





Euh… C’est bien d’affirmer avec des majuscules. Ca n’en fait pas un fait. Les données météo libres et gratuites sont celles d’un document appelé Résolution 40 de l’Organisation Météo Mondiale. Tout le reste ne l’est pas. Chaque pays a sa politique. Pour les USA, ce que tu affirmes est exact. Pour les autres pays (GB, Allemagne, Chine, Japon, Australie,…) c’est faux. Le curseur entre données libres et gratuites et les payantes varie en fonction des politiques publiques nationales.



Ta vision de l’état est rétrograde et manifestement non renseignée.

Je vais poursuivre l’exemple de l’IGN que j’ai un peu gratté puisqu’on a débattu dessus. Le géoportail est sorti dans sa première version en 2006. Pas mal de choses ont changé depuis (les données cartographiées, la précision des images aériennes, certainement certains standards ou formats de données…)

Si l’état n’avait que des données poussiéreuses, crois-tu vraiment que ça intéresserait quelqu’un de les avoir en open data?



La maintenance des API ne fait bien évidemment pas l’objet d’une ligne dédiée dans le budget de l’état, pas plus qu’il n’y a eu une ligne dédiée pour leur mise en place. Pourtant, crois-le ou non, ces API ne sont pas apparues par magie.

Elle est éclatée dans les trouzmilles organisations (para-)étatiques qui fournissent des données, et même quand on rentre dans le détail là-bas, probablement pas distinguée du reste de ma maintenance logicielle, sauf volonté politique spécifique de l’organisme en question.