Entre sac de « nœuds » et auto-descriptions, comment Gaia-X pourrait révolutionner le multi-cloud

Entre sac de « nœuds » et auto-descriptions, comment Gaia-X pourrait révolutionner le multi-cloud

Y'a plus qu'à !

Avatar de l'auteur
Sébastien Gavois

Publié dans

Internet

19/06/2020 10 minutes
29

Entre sac de « nœuds » et auto-descriptions, comment Gaia-X pourrait révolutionner le multi-cloud

Après être revenus sur les ambitions de Gaia-X, il est temps de nous intéresser à ce qu'il y a sous le capot de ce projet, dans ses composants plus techniques. D'autant que de nombreux éléments ont été diffusés par différents membres de l'initiative, notamment à travers les démonstrateurs. De quoi y voir (un peu) plus clair.

Gaia-X est un projet franco-allemand prenant la forme d’une « place de marché » où hébergeurs et fournisseurs de services exposeront leur offre, permettant à de potentiels client de venir piocher dedans, en fonction de leurs besoins.

La plateforme mise sur sa philosophie et un certain nombre d'engagements pour convaincre : interopérabilité des données, pas de coût de cachés, respect de la vie privée, etc. Et mettre ainsi en avant des entreprises plus vertueuses sur ces points qui font en général défaut aux acteurs dominants, qu'ils soient chinois ou américains. 

Mais passé les grandes phrases, promesses politiques et autres communiqués de presse, comment fonctionne-t-elle dans la pratique ? Après avoir analysé la documentation technique du projet et ses premiers éléments concrets, on vous explique tout cela, en commençant par deux des fameux « démonstrateurs ». 

Notre dossier sur Gaia-X : 

Gaia-X : booster de multi-cloud et de services innovants

OVH et Scaleway proposent depuis le début du mois leur démonstrateur, développé en « deux semaines environ ». Pour le moment, il s’agit « simplement » d’un comparateur des services de stockage en ligne, avec la possibilité de les trier par emplacement géographique, protocoles supportés, type de régulation, format de stockage des données, etc.

Par exemple, trois fournisseurs (3DS Outscale, Orange Business Services et Scaleway) sont référencés avec des serveurs en France proposant du stockage objet S3, certifiés HDS. Un lien permet de se rendre directement sur le site du partenaire. D’autres services et filtres seront ajoutés au fil du temps, il s’agit pour le moment d’un premier jet.

De la documentation technique sur le démonstrateur et son API est disponible ici. Pour les développeurs souhaitant passer de « l’autre côté » de l’interface, Yohann Prigent (VP Front chez Scaleway) et Pierre Gronlier (Cloud Solutions Architect chez OVHcloud) expliquent en détail les choix sur les langages de programmation, le fonctionnement du code et des bases de données dans ce Webinaire de 90 minutes. Très instructif au demeurant. 

Gaia-X démonstrateur
Un exemple pour de l’Object storage en France, conforme au RGPD et compatible S3

Ce n’est pas le seul prototype, Cloud&Heat – un membre de Gaia-X, mais pas l'un des cofondateurs – a aussi présenté le sien en vidéo. Son adresse est connue, mais il n’est pour le moment pas librement accessible.

Il s’attaque à un autre aspect de Gaia-X : l’orchestration, ce qui « correspond à la configuration, la gestion et la coordination automatisées des systèmes informatiques, applications et services » rappelle Red Hat. Dans le cas présent, un utilisateur veut mettre en place une solution de reconnaissance de caractères sur des textes manuscrits.

Le démonstrateur de Cloud&Heat propose un catalogue (restreint pour le moment) d’applications disponibles. Une fois l’une d’entre elles sélectionné, les services à associer pour un fonctionnement correct sont listés : du stockage (AWS S3 ou German Edge Cloud OBS), un logiciel d’orchestration (Krake ou ACME K8s Orchestator) et un environnement/hyperviseur (SecuStack Kubernetes, Red Hat OpenShift ou ACME K8s), avec la possibilité d’affiner la recherche.

La plateforme affiche ensuite une page de configuration permettant de donner un nom à votre projet et de modifier les fichiers/données nécessaires au bon fonctionnement du service (OpenRC, Kubernetes manifest, variables S3, etc.). Bien évidemment, les choix précédents influencent directement sur la liste des éléments de cette page.

Vous pouvez ainsi avoir des données hébergées chez une société A et utiliser le service d’intelligence artificielle d’une société B via l’orchestrateur. Dans l’exemple du jour, le premier transfère de manière chiffrée une image au second, qui la déchiffre, la traite et renvoie le résultat (là encore avec du chiffrement).

Pour le moment, les deux démonstrateurs n’intègrent qu’une liste restreinte de services et partenaires, et rien ne dit que la version finale ressemblera à ce qui est présenté. Il s’agit uniquement de prototypes de travail permettant de se faire une idée à un instant t. Les choses ont largement le temps d’évoluer d’ici la sortie de Gaia-X en 2021. 

  • Gaia-X démonstrateur
  • Gaia-X démonstrateur
  • Gaia-X démonstrateur
  • Gaia-X démonstrateur
  • Gaia-X démonstrateur
  • Gaia-X démonstrateur
  • Gaia-X démonstrateur
  • Gaia-X démonstrateur
  • Gaia-X démonstrateur

L'exemple du français Koyeb 

Mais on imagine déjà l'ampleur qu'une telle solution pourrait prendre : intégrer les prix, permettre des comparaisons, et pourquoi pas l'intégrer à un processus de décision ou de migration des données automatisé ? Gaia-X a cela d'intéressant qu'il favorise les approches multi-cloud, et donc des acteurs tiers qui viendront construire de tels outils sur ses API.

Et en la matière, tout reste encore à inventer, même si certains sont déjà sur le coup, des fabricants de NAS aux acteurs plus imposants, comme de jeunes startups. On pense notamment à Koyeb, sorte d'IFTT du cloud « serverless », proposant l'exécution de scripts, mais allant plus loin en mettant à disposition un catalogue complet de solutions clés en main.

On peut ainsi récupérer des données chez Amazon, les traiter via différents services puis exporter le résultat chez Scaleway par exemple. Les trois co-fondateurs sont d'ailleurs des anciens de la filiale d'Iliad, dont Yann Léger qui en était le vice-président jusqu'à l'année dernière. Ayant décidé de tout miser sur cette approche ouverte.

Le service est Freemium, gratuit pour les fonctionnalités de base, payant ensuite. S'il n'est pas encore lié à Gaia-X, on imagine l'intérêt d'un tel projet pour la jeune entreprise, qui pourrait exploiter ses API, utiliser la participation à la plateforme européenne, comme un filtre unique assurant le client du respect de certaines valeurs, etc.

Nœuds, instances… : concrètement, ça marchera comment Gaia-X

Passons maintenant à l'architecture de Gaia-X et ses nœuds, un terme qui revient souvent dans les documentations techniques, désignant une « ressource informatique », au sens large : datacenter, edge, réseau, infrastructure, etc.

Ils « sont génériques dans le sens où différents services peuvent y être déployés. Les nœuds exposent des attributs fonctionnels et non fonctionnels via leur auto-description, permettant aux consommateurs de les sélectionner en fonction de leurs besoins. Un attribut important est la géolocalisation du nœud », expliquent les concepteurs du projet.

Ils peuvent s'imbriquer, ce qui est par exemple utile dans le cas d’un fournisseur de services paneuropéen : il est un nœud à lui tout seul, tandis ses différents points de présence dans les pays sont également des nœuds.

De son côté, une instance Gaia-X est définie comme étant un service s’exécutant sur un ou plusieurs nœuds. Ne restent donc plus que les données pour compléter le tableau. « Il en résulte que les données fournies ou consommées par un service Gaia-X sont hébergées sur un nœud ».

Via l’auto-description, l’ensemble des composants (nœuds, instances et données) sont capables de donner des informations sur ce qu’ils peuvent faire et sur leurs restrictions. « Tout fournisseur de services en nuage, qu’il soit nouveau ou déjà sur le marché, peut devenir un nœud du réseau », tant qu’il respecte les engagements de Gaia-X.

L’interopérabilité promise par les ministres et les membres fondateurs se dessine : on doit pouvoir déplacer ses données de nœuds en nœuds et utiliser des instances provenant de n’importe quel nœud (qui peuvent elles aussi en changer). C’est la théorie, attendons maintenant la mise en pratique avant de crier victoire.

Car deux services compatibles avec l'API S3 peuvent ne pas proposer les mêmes fonctionnalités, la gestion des accès (ACL) peut différer d'un acteur à l'autre, les multiplier peut être une source de problème, tout comme la facturation, etc. C'est là que des intermédiaires ou même le rôle de Gaia-X comme intermédiaire de mise en relation prendra tout son sens.

  • Gaia-X
  • Gaia-X
  • Gaia-X

Une approche « Data-Centric Usage Control »

Dans le cas des données, l’auto-description doit obligatoirement contenir le nom de leur propriétaire, les politiques d’utilisations ainsi que des descriptifs techniques. D’autres informations, notamment sur la qualité du jeu de données et les aspects juridiques, peuvent s’ajouter si besoin, mais ce n'est pas obligatoire.

Gaia-X prône une approche « Data-Centric Usage Control », c’est-à-dire que les données sont au centre de la sécurité. Un jeu de données est donc « capable de préciser ses propres exigences en matière de sécurité et de protection » et ainsi définir sur quels nœuds et/ou instance il peut être utilisé. 

Trois exemples sont mis en avant :

  • Confidentialité : les données classifiées ne doivent pas être transmises à des nœuds ou services qui n'ont pas la certification requise.
  • Séparation des tâches : deux ensembles de données d'entités différentes ne doivent jamais être agrégés ou traités par le même service.
  • Périmètre d'utilisation : les données ne doivent jamais quitter le nœud ou le service pour un point de terminaison externe.

Les auto-descriptions seront vérifiées… promis

Une exception tout de même : « l'auto-description des consommateurs est facultative, mais peut être requise pour accéder à des ressources de données critiques et/ou spécifiques ». Il est prévu que des tiers de confiance puissent signer des morceaux des auto-description pour attester de leur authenticité. Un sujet qu'il ne faudra pas prendre à la légère.

Les auto-descriptions sont regroupées dans des catalogues (accessibles via des API) où les utilisateurs peuvent venir piocher pour trouver des applications, services, stockage, etc. selon leurs besoins. On arrive ainsi à la notion de place de marché. Pour proposer des services sur Gaia-X – que ce soit sous la forme d’instances, nœuds ou données – une entreprise doit être membre et avoir correctement renseigné ses auto-descriptions. Des outils seront proposés en ce sens.

Il est précisé que, bien évidemment, « l'auto-description de la société (et plus tard la description des nœuds et services) sera vérifiée afin de s’assurer qu’elle est complète, intègre et honnête ».  Rien n’est pour le moment précisé concernant la manière de faire, mais il faudra là aussi être très attentif pour éviter toute dérive. 

Gaia-X

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Gaia-X : booster de multi-cloud et de services innovants

L'exemple du français Koyeb 

Nœuds, instances… : concrètement, ça marchera comment Gaia-X

Une approche « Data-Centric Usage Control »

Les auto-descriptions seront vérifiées… promis

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (29)


« On pense notamment à Koyeb, sorte d’IFTT du cloud “serverless” » C’est officiel, je suis trop vieux pour comprendre quoi que ce soit aux article de Next Inpact.


<img data-src=" />



On en reparlera bientôt plus en détails (notamment du serverless <img data-src=" />


Ça m’a l’air bien compliqué tout ça. S’ils arrivent à faire vivre le bousin, chapeau.

Je vois l’intérêt mais je vois aussi la complexité, et ce genre de chose peut jouer en défaveur de l’innovation. Sauront-ils tenir le rythme d’un google / amazon en terme de fonctionnalités?


Ben enfin, le serverless, le-cloud-sans-serveur-mais-en-fait-quand-meme-un-peu.


Disons que “mutualisé sans FTP” ça faisait moins vendeur <img data-src=" />


ça me rappelle un truc dans un autre secteur, un machin censé fédérer des acteurs de l’offre légale…

https://www.nextinpact.com/archive/50254-google-offre-legale-survalorisation-moteur.htm

https://www.nextinpact.com/archive/62611-label-hadopi-offre-legale-.htm



Une entreprise elle se démène déjà pour faire du multi cloud à coup de terraform ou de contrôleur propriétaire en cas de vision horizontale (ex piloter la micro-seg réseau dans AWS et Azure depuis Cisco ACI) c’est pas pour arriver dans un marché aux puces où t’as 10 acteurs de stockage S3 qui ont des variantes de limitations et un routage où chacun y va de ses actions sur des communautés BGP différentes.

&nbsp;

Des acteurs présents sur des points d’échange et/ou pouvant t’apporter une connexion directe garantie, d’autres non, des gens qui vont te vendre de la VM sur de l’ESXi, d’autres sur Qemu…



Les 3 gros acteurs US sont assez similaires sur la plupart des points, mais il reste qu’il faut connaitre beaucoup de détails, personne ne va s’amuser à apprendre / se former sur des dizaines de variantes pour un même service.



Là le seul truc qu’ils semblent centraliser et uniformiser c’est l’authent, savoir si le courant électrique du DC vient d’hamsters qui pédalent ou d’une centrale nucléaire, et si le service est ISO trouzemille1, c’est déjà ça.



Enfin, la latence est un élément pré-pondérant dans un datacenter, et là aussi, personne ne va prendre du stockage chez X, faire tourner du docker chez Y et s’annoncer via reverse proxy + WAF sur internet via Z. Seuls les trucs spécialisés genre sauvegarde ou bigdata sur GPU peuvent se permettre de tourner dans leur coin.


Si je résume ma compréhension du sujet, Gaia-X se pose comme un services qui agrège les capacités des différents Cloud Providers pour que le client puisse exploiter un service réellement taillé sur mesure par rapport à son besoin. Et aussi éviter de mettre tous ses oeufs dans le même panier.



Une sorte de Cloud Providing fédéré, ça me rappelle l’approche du fédiverse d’une certaine façon.



Si c’est bien ça, je trouve le projet très intéressant. Cela peut permettre de mettre en visibilité des acteurs pas forcément très connus. Après à voir la mise en oeuvre, si la plateforme fait aussi office de centre de contrôle (comme OneProvider par exemple) car ce serait ça son intérêt principal.


Au début j’ai pensé qu’on me reparlait de DCE









Stéphane Bortzmeyer a écrit :



« On pense notamment&nbsp;à&nbsp;Koyeb, sorte d’IFTT du cloud “serverless” » C’est officiel, je suis trop vieux pour comprendre quoi que ce soit aux article de Next Inpact.






  Enfin je ne me sens plus seul <img data-src=">  






  Bien qu'il y a moyen d'être encore plus largué, probablement. J'ai encore du mal à comprendre ce que peut bien être Azure entièrement par exemple. Je suis encore au niveau du serveur FTP... pardon, du "Cloud" fabriqué maison avec serveurs personnels et ça se limite au stockage de données.        






  Et le vocabulaire évolue limite plus vite que les produits ou moi-même. Par exemple le terme "application" pour ma part a toujours entendu fichier exécutable+dépendences et compagnie, alors que de nos jours ce n'est pas limite si un vulgaire script bash n'est pas maintenant une application ce qui fait que j'ai parfois des longues périodes de confusion quand je lis un texte qui en parle.     






  D'un autre côté, quand le besoin n'existe pas, l'intêret n'y est pas donc je ne risque pas d'apprendre à me servir de tous ces gadgets.    






  Je suis trop "local", j'imagine.   





Ou juste devenu trop vieux.



Je n’ai pas du tout la compétence pour comprendre comment ça fonctionne, mais je vois bien l’intérêt du truc. Pouvoir en quelque clics construire puis détruire une infrastructure de traitement de données en respectant les obligation légales ne me semble pas du tout un gadget.








TheKillerOfComputer a écrit :



Bien qu’il y a moyen d’être encore plus largué, probablement. J’ai encore du mal à comprendre ce que peut bien être Azure entièrement par exemple. Je suis encore au niveau du serveur FTP… pardon, du “Cloud” fabriqué maison avec serveurs personnels et ça se limite au stockage de données.







Pour vulgariser.



Le Cloud Computing admet généralement trois niveaux : IaaS (Infrastructure as a Service), PaaS (Platform) et SaaS (Software).

Ces niveaux définissent en fait qui est maîtrisant de quoi.



Ce schema te donnera une synthèse des responsabilités entre le Cloud provider et le client.

Comme exemples :




  • IaaS : on te fourni des VM prêtes à l’emploi et une infrastructure réseau virtuelle à configurer pour les faire communiquer. Tu n’as pas accès au physique.

  • PaaS : on te fourni un middleware prêt à l’emploi (une BDD, un Tomcat, etc), tu n’a pas accès aux couches OS et hardware.

  • SaaS : tu te contents d’utiliser le logiciel, tout est géré par le provider (ex : Gitlab en SaaS, un logiciel de compta en ligne, ticketing, etc).



    A cela tu as les définitions des types de Cloud : Privé, Hybride, Public. Microsoft donne une définition dans sa doc Azure qui est plutôt claire.

  • Privé : tu héberges ton infra Cloud dans tes propres locaux et la gère de A à Z. (ex : la DSI de l’entreprise a un VMWare interne qui permet de faire pop de la VM à la demande, une plateforme Docker/Kube pour les containers, etc)

  • Public : une offre en ligne accessible directement dès qu’on y souscrit (Azure, AWS, OVHPublic Cloud, etc), tu ne t’occupes de rien niveau hardware et software de virtu, tu te contentes de payer des services IaaS, PaaS, ou SaaS (des VM, des webapp, des BDD, des outils d’analytique, etc) à l’usage.

  • Hybride : Un mélange des deux, tu externalises par exemple l’infra (genre OVH, Scaleway, etc te fournissent des clusters de virtu, ils maîtrisent l’infra et le software de bas niveau), mais tu maîtrises ce que tu en fais de A à Z.



C’est paradoxal mais moi aussi je préférai l’informatique quand c’était plus “artisanal”. Je n’aime pas trop la façon dont elle évolue, tant sur le plan pro que privé.

Je n’ai rien contre le gain de puissances et de débits mais le reste va trop vite.

Je deviens peut-être trop vieux aussi, obsolète dans le jargon.

Bon pour être décommissionné <img data-src=" />


Amis cinquantenaires (ça doit être ça “trop vieux”), unissons-nous !



En temps que responsable infra dans une entreprise de taille raisonnable (en gros 800 serveurs et autant de VMs), ce qui est, je trouve de plus en plus difficile est de différencier les idées à la c… mais qui bénéficient d’un buzz (pour utiliser un mot de jeune, enfin, je crois) marketing et les bonnes idées qui vont rester et changer la donne. J’ai l’impression (peut-être l’âge) que le rythme des idées soit disant révolutionnaires s’accélère.

Et donc, pour en revenir à l’article est-ce que Gaia-X c’est une bonne idée (la fédération de fournisseurs de cloud) ou un machin qui fera pouf dans pas longtemps?&nbsp;

C’était les 5’ philosophique d’un autre “trop vieux”.








greengolfer a écrit :



Amis cinquantenaires (ça doit être ça “trop vieux”), unissons-nous !



En temps que responsable infra dans une entreprise de taille raisonnable (en gros 800 serveurs et autant de VMs), ce qui est, je trouve de plus en plus difficile est de différencier les idées à la c… mais qui bénéficient d’un buzz (pour utiliser un mot de jeune, enfin, je crois) marketing et les bonnes idées qui vont rester et changer la donne. J’ai l’impression (peut-être l’âge) que le rythme des idées soit disant révolutionnaires s’accélère.

Et donc, pour en revenir à l’article est-ce que Gaia-X c’est une bonne idée (la fédération de fournisseurs de cloud) ou un machin qui fera pouf dans pas longtemps? 

C’était les 5’ philosophique d’un autre “trop vieux”.



Je pense que Flock a bien résumé le projet tel qu’il est actuellement <img data-src=" />



On est toujours le jeune de quelqu’un <img data-src=" />

Donc c’est jamais trop vieux

<img data-src=" />



Signé: un vieux pour qui t’es un jeune

<img data-src=" />








Patch a écrit :



Je pense que Flock a bien résumé le projet tel qu’il est actuellement <img data-src=" />





Non, c’est un regard satyrique sur le projet, comme sur le reste de l’actualité ;)







JoePike a écrit :



On est toujours le jeune de quelqu’un <img data-src=" />

Donc c’est jamais trop vieux





C’est surtout que ce n’est pas une histoire d’âge. On peut être “jeune” ou “vieux” et très au fait des nouvelles tendances du secteur, les apprécier ou non. A une époque, on jugeait qu’être vieux, c’était penser que l’informatique était un démon.



Cela ne veut pas dire que tout nouveauté technologique est bonne (ou mauvaise) par essence, juste que c’est un secteur qui évolue, vite, et qui nécessite qu’on s’y repencher couramment, qu’on se remette en question constamment dans ses pratiques, etc.



Je pense que le cloud, de ses éléments les plus basiques au serverless (FaaS pour les intimes), est un bon exemple, comme l’IA. Le problème ne sont pas les termes ou ce qu’ils désignent, mais l’usage qui en est fait par des personnes qui ne maitrisent au mieux que le bonimensonge.



Mais comme dit plus haut, du FaaS c’est pouvoir exécuter simplement un script selon des évènements particulier sans avoir à se préoccuper de l’infrastructure, de sa capacité à “scaler”. Une sorte de retour à l’essentiel pour les développeurs et concepteur de services.



Comme constamment, il y aura ceux qui préfèreront l’échelle d’intégration du dessous, voire même la plus “native” (comprendre configurer les serveurs, gérer leur montée en charge, etc.) mais ce ne sera pas plus une solution adaptée à toutes les situations ni à toutes les tailles d’entreprises. C’est donc (comme à chaque fois) à adapter selon les critères, mais c’est un outil complémentaire et qui peut être intéressant.





+1 <img data-src=" />

Il faut s’adapter , et se poser des questions, l’age y est un peu pour quelque chose dans le sens ou certains neurones arrivent au rupteur un peu plus tot qu’avant.(bien sûr je ne parle que pour moi)

Et je suis donc comme d’autres ici , je ne comprend pas tout.

D’un autre côté ,ce que je vois aujourd’hui après un passé assez chargé <img data-src=" /> , ce sont des nouveautés très sympas , parfois des impressions de déja vu, malgré ces trucs que je ne comprend pas.

J’ai bien aimé le terme Bonimensonge <img data-src=" />

L’IA par exemple ( en temps que terme à la mode) me rappelle furieusement ce que j’utilisais il y a 30 ans et qu’on nommait “système expert” qui permettait de dépanner des controlleurs de disques et

apprenait en fonction des succès et echecs de nos dépannages, (quand on refaisait la même manip échouée 1 heure auparavant, le système nous quidait autrement (par contre je vous rassure ça ne marchait pas à tous les coups, les puissances et capacité des outils bien inférieures malgré la qualité du code ne suffisant pas)



Cet article m’a fait penser à DCE ( Distributed Computing Environment) et ses débuts , ou on parlait d’appli répertoriées quelque part dans des systèmes de fichiers (DCE/DFS, AFS) ou des DB répertoriées et situées dans un autre quelque part dans un autre pays et des systèmes de sécurité ( Kerberos) répertoriés encore ailleurs , et avec un peu de RCP on faisait marcher le bouzin ( sauf que ça ne marchait pas c’était lent et les clients potentiels ( de très gros clients) chez qui on installait ces solutions nous ont mis dehors.

( me souviens d’avoir mis l’usine à gaz avec des ricains du lab chez un très grand contructeur en France qui bossait avec un très grand constructeur en Allemagne, et on est rentré la queue entre les jambes)

DCE s’est orienté vers un truc avec 4 éléments (DFS/Kerberos/RCP/serveur de temps) puis je pense a disparu.( j’ai pas suivi à cause du traumatisme subi <img data-src=" />)



Le storage “Cloud” qui n’est rien d’autre que du stockage à distance existe depuis 50 ans mais il s’est simplement démocratisé et il a un maintenant joli nom.



Le nouveau terminal semi passif qui allait remplacer tous les PC de bureau en utilisant l’intelligence du serveur au loin est tombé à l’eau ( au musée plutot) non pas parce que les tuyaux réseau étaient trop faibles mais parce que les utilisateurs voulaient garder leur puissance de calcul à eux en local même s’ils ne se servaient du PC qu’en terminal passif connecté à un MVS, un VM, un AIX ou un as400.



Des trucs marrants se sont produits , ce sont les nouvelles générations d’informaticiens qui avaient des réticences à mettre de la virtualisation en prod, alors que les anciens ne comprenaient pas cette peur vu qu’ils en faisaient depuis les années 70.

Par contre un truc comme le SDN a redessiné l’écosystème réseau et a été accepté très rapidement par les anciens comme les nouveaux.



Mais comme l’a dit quelqu’un ici , il sera intéressant de voir ce qu’il reste après les effets d’annonces.



Bon je retourne à ma sieste

<img data-src=" />








David_L a écrit :



Non, c’est un regard satyrique sur le projet, comme sur le reste de l’actualité ;)



Satyrique? Tu sous-entends que Flock a des cornes? <img data-src=" />









Patch a écrit :



Satyrique? Tu sous-entends que Flock a des cornes? <img data-src=" />







Que veux tu c’est la génération Y

<img data-src=" />



Mais non, il est juste lubrique <img data-src=" /> lubrique-à-brac <img data-src=" />








JoePike a écrit :



Bon je retourne à ma sieste

<img data-src=" />





Manque la camomille, t’es donc pas encore si vieux que ça <img data-src=" />



A quand un dossier NextInpact (reprenant ton texte au passage) pour les vieux largués ? <img data-src=" />









JoePike a écrit :



+1 <img data-src=" />



  Il faut s'adapter , et se poser des questions, l'age y est un peu pour quelque chose dans le sens ou certains neurones arrivent au rupteur un peu plus tot qu'avant.(bien sûr je ne parle que pour moi)         

Et je suis donc comme d'autres ici , je ne comprend pas tout.

D'un autre côté ,ce que je vois aujourd'hui après un passé assez chargé <img data-src="> , ce sont des nouveautés très sympas , parfois des impressions de déja vu, malgré ces trucs que je ne comprend pas.








 Azure me donne l'impression d'être surtout du Windows Server sans serveur local, vu les Active Directory et divers. Je me demande juste ce qui se passe quand on débranche le câble ethernet pour simuler une panne, l'entreprise s'arrête ?       






 Et c'est là que ça gène. S'adapter est une chose, mais ça a tendance à  aller un peu trop vite à mon goût... et surtout le "Cloud" rend la chose compliquée car l'avantage du local est de permettre cela  sur son temps libre avec un  contrôle quasi total sur les coûts/l'équipement et la façon de simuler les problèmes... alors que le "Cloud" les retire tout ou partie. Azure par exemple offre bien 30 jours d'essai du  premium mais ça me semble bien insuffisant pour tout essaier. A moins de créer 36 comptes avec fausses identités (ce n'est pas comme si je n'avais jamais fait cela dans ma vie <img data-src=">).       






 J'ai l'impression de vivre une période de transition local/cloud qui est extrémement pénible à vivre.    






 Après il y a le fait que ce n'est pas mon rayon d'action habituel, ce qui complique l'adaptation. Pourquoi tester et donc dépenser de l'argent dans ce qui ne me sert pas... mais que je pourrais pourtant évoquer comme solution si j'en avais connaissance et testé... sauf que si ça se trouve jamais une telle situation ne m'arrivera (et je ne les compte plus).








TheKillerOfComputer a écrit :



A quand un dossier NextInpact (reprenant ton texte au passage) pour les vieux largués ? <img data-src=" />





D’après toi, pourquoi on parle de tout ça ? <img data-src=" />





<img data-src=" />

Growing old is mandatory; growing up is optional.

Chili Davis



S’adapter ne signifie pas se comporter comme un mouton

Le problème comme tu le dis c’est que l’utilisateur n’est pas toujours au fait des conséquences ou de la viabilité de son choix.

Les départements de boites qui ont insisté pour n’avoir que des tablettes au lieu d’ordinateurs portables parce que c’était plus léger et plus cool mais qui ont du acheter pleins de PC portables pour le télétravail pendant le confinement, sont ceux qui ont joué aux moutons et en ont été pour leur frais ( ce n’est qu’un exemple)

( je ne compte pas à titre privé malgré toutes mes “warnings” des gens qui ont du acheter un PC car “la tablette pouvait pas faire”)

Les gens du marketing ont gagné.

Un autre exemple :au départ le Cloud a été créé pour simplifier la vie des départements des entreprises dont les patrons en avaient marre de s’adresser au service informatique , qui étudiait la demande, calculait, plannifiait et donnait un devis et mettaient plusieurs semaines(ou mois) à implémentet le zinzin.

( et ayant été du côté de la DSI je dois avouer qu’on était chiant)

Le chef de dept en train de baver sur les plaquettes commerciales du marketeux assis en face de lui ne voulait pas attendre.

Le cloud en interne a permis de réduire cette latence, puis le cloud externe a permis de réduire presque entièrement les délais (le nombre de chefs de dept qui en avaient marre des SI et qui sont allés

acheter du Cloud sur Amazon avec une note de frais et ont fait installer un progiciel sur la bécane virtuelle on ne sait pas oû.)

En plus c’est devenu très vite populaire car les coûts étaient cachés en partie.

Mais parfois le réveil a été brutal au moment des dysfonctionnements, parce que certains avaient mis tous leurs oeufs dans le même panier.

Et t’as raison le symptome de la pelleteuse risque de faire de plus en plus mal )



Je suis de la vieille école , je télécharge mes films et je les regarde après en local, je ne supporte pas que ça lague ou que ça pixelise mais aujourd’hui beaucoup l’acceptent

En résumé et pour simplifier: Le streaming est un choix pas une obligation de s’adapter.








TheKillerOfComputer a écrit :



Azure me donne l’impression d’être surtout du Windows Server sans serveur local, vu les Active Directory et divers. Je me demande juste ce qui se passe quand on débranche le câble ethernet pour simuler une panne, l’entreprise s’arrête ?







C’est pour ça que l’étude d’un projet d’utilisation du Cloud doit se faire selon le besoin de l’entreprise et non uniquement sur une question de coût (comme à peu près tout dans l’IT en fait, voir uniquement le coût c’est ne pas voir le mur d’emmerdes non prévues arriver). Car derrière, oui, elle devient dépendante d’un prestataire (et donc de sa stabilité et fiabilité) et de conditions techniques. Selon la façon dont c’est implémenté, les solutions métier de l’entreprise peuvent être accessibles directement depuis un accès Internet lambda si celles-ci le permettent. Sinon, ça sera comme lors de n’importe quelle coupure d’accès avec son datacenter lorsqu’il est délocalisé… Blackout.



Ce sont les mêmes notions de dépendance que lorsqu’elle a une grosse partie de ses progiciels développés par un seul éditeur par exemple. Dans une précédente vie sur un projet de migration du SI de magasins, très hétérogène du fait que les enseignes étaient issues de rachats et qu’ils voulaient uniformiser pour faciliter la maintenance et baisser les coûts.

Le choix des solutions métier est fait en partant des existants du groupe, le déploiement commence, un peu de souffrance au début normal… Quelques mois après, l’éditeur du backoffice magasin se fait racheter et le prix de la licence triple. Bah obligé de changer de solution en cours de route et re-migrer les magasins déjà fait car le coût de licence était devenu prohibitif. Et ça c’était que la vue de notre projet, car derrière tout le groupe a du se taper une migration pour les existants.



Bien maîtrisé, un Cloud est intéressant financièrement et ça apporte une forte souplesse par rapport à l’inertie de certaines DSI qui se sont ancrées dans une lourdeur administrative (il me fallait plus de temps pour avoir une VM qu’un serveur physique à une époque … Bordel !). Le modèle économique du “pay as you go” est très séduisant mais il faut faire attention, suivre ses usages et estimer ses besoins de manière assez précise car les factures peuvent vite devenir des blocs de sel. Ca demande de changer la mentalité et d’organisation d’une certaine façon.

Après, ils ont aussi des offres commerciales où le client s’engage pour une période donnée de louer la ressource, moyennant une ristourne. Ce qui se rapproche des méthodes de calculs de coûts plus traditionnelles mais n’est valable que pour du moyen terme car généralement c’est un engagement de 3 ans.









TheKillerOfComputer a écrit :



Et c’est là que ça gène. S’adapter est une chose, mais ça a tendance à aller un peu trop vite à mon goût… et surtout le “Cloud” rend la chose compliquée car l’avantage du local est de permettre cela sur son temps libre avec un contrôle quasi total sur les coûts/l’équipement et la façon de simuler les problèmes… alors que le “Cloud” les retire tout ou partie. Azure par exemple offre bien 30 jours d’essai du premium mais ça me semble bien insuffisant pour tout essaier. A moins de créer 36 comptes avec fausses identités (ce n’est pas comme si je n’avais jamais fait cela dans ma vie <img data-src=" />).




  J'ai l'impression de vivre une période de transition local/cloud qui est extrémement pénible à vivre.







Ahh, mais les vendeurs de nuages ont une solution toute trouvée pour toi, ça s’appelle le cloud hybride!! <img data-src=" />

&nbsp;









jotak a écrit :



Ahh, mais les vendeurs de nuages ont une solution toute trouvée pour toi, ça s’appelle le cloud hybride!! <img data-src=" />







Vous êtes taquin cher ami

<img data-src=" />



Je n’ai pas forcément lu en détail tous les articles NXI sur le sujet, mais indépendamment des aspects techniques, avec qui une DSI qui voudrait utiliser cette plateforme contractualise t-elle ? On achète un service, ça sous entend des engagements et des responsabilités, une facturation.&nbsp;

Ça veut dire qu’il faut le faire avec tous les fournisseurs qui serait potentiellement présents sur la plateforme ?