Docker, Amazon, Microsoft et d'autres s'unissent autour d'un standard pour les conteneurs

Docker, Amazon, Microsoft et d’autres s’unissent autour d’un standard pour les conteneurs

C'est le moment d'être compatible avec Docker

Avatar de l'auteur
Vincent Hermann

Publié dans

Logiciel

23/06/2015 4 minutes
48

Docker, Amazon, Microsoft et d'autres s'unissent autour d'un standard pour les conteneurs

Docker et plusieurs poids lourds de l’industrie comme Amazon, Microsoft, Google et VMware se sont réunis pour jeter les bases de spécifications communes autour d’un standard pour les conteneurs logiciels. La technologie de base est celle de Docker, et devrait permettre à terme aux différents éditeurs de permettre les échanges de conteneurs d’un système à un autre.

Des conteneurs logiciels de plus en plus utilisés

Les conteneurs logiciels appartiennent au domaine de la virtualisation. Dans un cas « classique », c’est l’ensemble du système qui est virtualisé, comme dans VirtualBox quand on crée une machine accueillant une distribution Linux ou Windows. Les conteneurs ne contiennent que des espaces utilisateur, en vue le plus souvent de faire fonctionner un logiciel en particulier. Ce dernier peut alors fonctionner de manière autonome, sans dépendre d’une version particulière d’une API sur le système hôte, mais tout en profitant par exemple des accès directs au système de fichier et sans perdre de cycles à travers une émulation ou une virtualisation.

Il existe actuellement un nombre croissant de technologies pour ces conteneurs logiciels. Dans ce domaine, la référence est Docker, une solution open source qui permet, comme indiqué plus haut, de prendre une application et ses dépendances pour les rassembler. À tel point que Microsoft, qui doit présenter dans les prochains ses Windows Server Containers et Hyper-V Containers, a déjà annoncé que ces technologies seraient compatibles avec Docker.

Open Container Project : une base commune à toutes les entreprises

Et justement, plus d’une vingtaine d’entreprises s’associent désormais autour d’un format qui se veut un futur standard. L’Open Container Project vient tout juste d’être lancé et réunit Amazon Web Services, Cisco, CoreOS, Docker, EMC, Google, Goldman Sachs, HP, Huawei, IBM, Intel, Joyent, Microsoft, Pivotal, Red Hat et VMware notamment. Et puisque Docker fait figure de référence, c’est sa technologie et son moteur d’exécution (runtime) qui seront utilisés comme base pour le nouveau format.

Le projet, placé sous la houlette de la Linux Foundation (qui l’héberge également), doit permettre à terme d’obtenir des spécifications communes auxquelles toutes les entreprises pourront se référer. Rien n’empêche donc chacune d’innover dans la direction qui lui plaira, mais leurs propres technologies respecteront un socle commun. Conséquence, les conteneurs créés avec une solution pourront être lus sur une autre. En tout cas, pour l’ensemble des fonctionnalités de base.

Ben Golub, PDG de Docker, a ainsi indiqué à ZDnet : « C'est une portion de code assez minime qui est prête pour réunir tout le monde. […] 90 % de ce que Docker propose se trouve en dehors. Mais tout le monde exprime le souhait de partir du même point et de ce qui est le plus répandu ». Ce qui signifie dans le même temps que cette partie du code ne sera plus entre les seules mains de Docker, mais son fondateur, Solomon Hykes, explique à TechCrunch que la démarche était logique : « Nous pensons qu’après deux ans, la technologie et le code du runtime ont mûri au point qu’ils tireraient un bénéfice d’une gouvernance indépendante et hors du projet Docker ».

Un premier brouillon du standard dans deux à trois semaines

La technologie sera à terme utilisable pour tous types de besoins et les conteneurs devront par exemple être capables de transiter d’un serveur classique à une solution cloud, complète ou hybride. Les conteneurs auront donc l’assurance de fonctionner partout, quel que soit le système hôte ou l’architecture employée. Et le développement pourrait être rapide, si l’ensemble des entreprises se met d’accord sur la base minimale à respecter par tous.

Sur le site officiel, on rappelle que le standard ne sera lié à aucun constructeur et que tout ce qui touche à la pile d’orchestration ou aux fonctionnalités du client n’a pas vocation à en faire partie. En outre, les développeurs qui s’occupaient déjà de la maintenance de cette partie du code vont recevoir de l’aide d’un nouveau lot d’ingénieurs, et un premier brouillon du standard devrait sortir d’ici deux à trois semaines.

On notera que c'est la deuxième fois en peu de temps que de grandes entreprises se rassemblent pour mettre en place une technologie amenée à devenir un standard. En fin de semaine dernière, Microsoft, Google, Apple et Mozilla avaient annoncé leur union d’un format binaire commun pour le web, WebAssembly.

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Des conteneurs logiciels de plus en plus utilisés

Open Container Project : une base commune à toutes les entreprises

Un premier brouillon du standard dans deux à trois semaines

Commentaires (48)


Très bon choix d’illustration du mot “standard”


Très bonne techno… si elle est bien utilisée.


Ca, c’est LA techno qu’on attendait. J’espère que le standard ira loin et qu’on ne se retrouvera pas avec 300 forks  !


Le titre et l’illustration m’on fait douter ; j’ai vraiment cru qu’ils voulaient imposer un standard pour le transport de marchandises XD


Microsoft aurait été bien inspiré de cette démarche pour la bureautique ! Mais quand on a un monopole , on est pas tenté de facilité la vie à ses “clients” .


Qu’est-ce que tu entends par “mal utilisé” ? (des exemples ?)


Autant l’annonce de la semaine derniere (sur le wasm) m’avait clairement surpris… Autant là je trouve ça purement logique, et dans l’intérêt de tous.


et dire qu’OpenVZ existe depuis belle lurette <img data-src=" />


Du coup, vu qu’il y a CoreOS dans le coup, ils vont réutiliser la spec App Container (qui vise la même chose), l’abandonner ?


Docker c’est une sorte de java de bas niveau? <img data-src=" />


Plus qu’à faire la même chose pour les Bytecodes et on pourra presque avoir du .Net, Java et javascripts compatibles, la bataille se fera sur le coeur, donc le plus important.


C’est un système qui te permet, en gros et si j’ai bien compris, d’installer un logiciel et toutes ses dépendances dans un environnement cloisonné. Ca te permet de déployer deux services qui utilisent une même lib mais avec deux versions différentes, sans te faire chier.


comme si ça s’installait dans un dossier et que tous les fichiers présents dans ce dossier sont prioritaires? (et que bien sûr, sauf action de l’utilisateur, il ne peut rien modifier au-dela de ce dossier)


OpenVZ certes existe depuis belle lurette mais ne propose rien de comparable à Docker que ce soit au niveau des outils et des APIs

&nbsp;

Dans le même genre qu’OpenVZ mais en mieux on a les zones Solaris.. qu’on trouve également sous Illumos, le fork d’OpenSolaris..

&nbsp;

Un des membres de l’OCP, Joyent, a ajouté à Illumos (dans leur version SmartOS)&nbsp;d’une part la virtualisation KVM d’autre par le support de Linux dans les zones, via translation des appels systèmes.



Joyent a &nbsp;depuis implémenté les API docker dans la solution cloud&nbsp;SmartdataCenter, le datacenter est alors présenté comme un hôte docker elastique, &nbsp;ils appellent ça “Triton”&nbsp;et ça vient de sortir de beta.&nbsp;

&nbsp;

C’est AMHA la façon la plus viable de déployer du docker en production: une isolation supérieure aux containers Linux, des performances plus élevées que dans des VM.

&nbsp;

Le tout est&nbsp;opensource&nbsp;et peut être mis en oeuvre dans leur cloud public comme en interne.&nbsp;








feuille_de_lune a écrit :



et dire qu’OpenVZ existe depuis belle lurette <img data-src=" />





Avec un kernel patché.







fullsun a écrit :



Docker c’est une sorte de java de bas niveau? <img data-src=" />





https://fr.wikipedia.org/wiki/Docker_%28logiciel%29







ErGo_404 a écrit :



C’est un système qui te permet, en gros et si j’ai bien compris, d’installer un logiciel et toutes ses dépendances dans un environnement cloisonné. Ca te permet de déployer deux services qui utilisent une même lib mais avec deux versions différentes, sans te faire chier.





C’est également un complément à la virtualisation, voire carrément une alternative, en mode «cloud» (privé ou pas, ou mixte).



Docker, essayer c’est l’adopter.








lataupe a écrit :



Microsoft aurait été bien inspiré de cette démarche pour la bureautique ! Mais quand on a un monopole , on est pas tenté de facilité la vie à ses “clients” .





Y en fallait bien un pour râler sur un truc qui n’est pas le sujet de la news…



Pour ceux qui ont du mal il suffit de considérer qu’un container docker est une application. à l’installation il est possible de la personnaliser, si par exemple vous voulez que la webUI de votre appli soit accessible via le port 8181 de l’hote, il suffit de lui filer le parametre qui va bien. Si vous voulez que votre application accède à tel repertoire de l’hôte, il suffit de lui filer le paramètre qui va bien.

&nbsp;

C’est assez pratique&nbsp;<img data-src=" />


en gros ce n’est qu’une API qui s’appuie ,directement et uniquement, sur le noyaux linux. (donc mieux que java, surtout si Microsoft l’adapte pour Windows)


Pour comprendre Docker. Il faut comprendre le concept d’images.








fullsun a écrit :



en gros ce n’est qu’une API qui s’appuie ,directement et uniquement, sur le noyaux linux. (donc mieux que java, surtout si Microsoft l’adapte pour Windows)





Non



Que vient faire Java dans cette histoire ? <img data-src=" />


Ben Golub, PDG de Docker, a ainsi indiqué : Un conteneur pour les gouverner tous et dans le cloud les lier, n’est ce pas mon précieux…&nbsp;



&nbsp;Et si on continue comme cela, on peut même rêver qu’un jour tous les constructeurs se mettent d’accord sur un standard commun, matériel et OS&nbsp;<img data-src=" />.








Gigatoaster a écrit :



Docker, essayer c’est l’adopter.





Ou pas :p .

Ca reste quand même complexe a appréhender et si tu veux te monter un cluster qui ai du sens avec Docker c’est du boulot. Les outils mûrissent petit à petit donc c’est bien mais y’a encore du chemin.

&nbsp;



&nbsp;Sinon pour ceux que ça intéresse une démo assez intéressante d’une solution basée sur Docker :

&nbsp;https://www.youtube.com/watch?v=0I6qG9RQUnY



Il n’y a que moi qui tique sur la liste des participants ? Que vient fourré Goldmann Sachs là dedans ?








le duc rouge a écrit :



Le titre et l’illustration m’on fait douter ; j’ai vraiment cru qu’ils voulaient imposer un standard pour le transport de marchandises XD





<img data-src=" /> (pareil !)

&nbsp;



Microsoft, ils z’ont pas pour objectif de vendre des W10 par palettes, par conteneurs entiers ? <img data-src=" />









polytan a écrit :



Il n’y a que moi qui tique sur la liste des participants ? Que vient fourré Goldmann Sachs là dedans ?





GS, il doit leur rester des conteneurs d’actifs pourris, millésime 2008…? <img data-src=" /> <img data-src=" />



Tout dépend de la taxe sur le volume <img data-src=" /> (et le poids et du produit inclus)








seb2411 a écrit :



Ou pas :p .

Ca reste quand même complexe a appréhender et si tu veux te monter un cluster qui ai du sens avec Docker c’est du boulot. Les outils mûrissent petit à petit donc c’est bien mais y’a encore du chemin.

&nbsp;



&nbsp;Sinon pour ceux que ça intéresse une démo assez intéressante d’une solution basée sur Docker :

&nbsp;https://www.youtube.com/watch?v=0I6qG9RQUnY







Top la demo. J’aime bien aussi ce que fait IBM avec Bluemix, quelqu’un a testé ?









polytan a écrit :



Il n’y a que moi qui tique sur la liste des participants ? Que vient fourré Goldmann Sachs là dedans ?





Ils ont en besoin pour leurs infrastructures.

Le HFT ne se fait pas sur un macbook air (entre autre)…



Je comprend rien aux comm…

Bonne nuit !








lateo a écrit :



Avec un kernel patché.



Avec un kernel patché bloqué en version 2.6.32.









zogG a écrit :



Qu’est-ce que tu entends par “mal utilisé” ? (des exemples ?)





Cela permet d’empaqueter un logiciel + ses dépendances. En gros un mini-OS qui utilise (dans le cadre de docker) le kernel de l’hôte et communique via une interface réseau virtuelle. Donc cela permet potentiellement d’empaqueter des trucs dégueulasses dont personne ne se souciera car copier et exécuter le container fonctionne. Pire encore avec les failles de sécurité on va en voir partout. Il suffit de voir les containers LXC dont certains templates se traînent des failles critiques depuis des années.

&nbsp;

&nbsp;Connaissant comment marchent les entreprises je pense que la plupart des sysadmin utiliseront les containers sans se demander ce qu’il y a dedans et sans jamais le mettre à jour.&nbsp;



J’ai fais un benchmark sur les différents systemes de virtualisation/contenerisation dispo en gratuit car j’ai plusieurs clients qui me demandent de gérer leur hébergement, et bien la conclusion de tout ça c’est que Proxmox c’est de la balle, Docker j’y ai passé 1 semaine et j’ai clairement été très déçu, impossible de fixer un quota disque de manière simple, obligation d’utiliser un systeme de “volumes” pour étendre l’espace disque en créant au passage un autre conteneur, impossible de faire un “snapshot”, impossible d’assigner une adresse privée fixe sans se faire chier à écrire des règles pour les interfaces réseaux… Bref totalement à proscrire pour mon utilisation.

Alors certe Proxmox se base en partie sur openvz mais putain qu-est-ce-que c’est simple d’utilisation et rapide !








stb007 a écrit :



J’ai fais un benchmark sur les différents systemes de virtualisation/contenerisation dispo en gratuit car j’ai plusieurs clients qui me demandent de gérer leur hébergement, et bien la conclusion de tout ça c’est que Proxmox c’est de la balle, Docker j’y ai passé 1 semaine et j’ai clairement été très déçu, impossible de fixer un quota disque de manière simple, obligation d’utiliser un systeme de “volumes” pour étendre l’espace disque en créant au passage un autre conteneur, impossible de faire un “snapshot”, impossible d’assigner une adresse privée fixe sans se faire chier à écrire des règles pour les interfaces réseaux… Bref totalement à proscrire pour mon utilisation.

Alors certe Proxmox se base en partie sur openvz mais putain qu-est-ce-que c’est simple d’utilisation et rapide !







Proxmox, c’est de la virtualisation, pas vraiment des conteneurs.

Les conteneurs sont beaucoup plus proches du systemes donc fatalement ils ont des “lacunes” au niveau reseau et stockage.



Ce serait plutôt un “Super Chroot”, en plus étanche …








Obidoub a écrit :



Cela permet d’empaqueter un logiciel + ses dépendances. En gros un mini-OS qui utilise (dans le cadre de docker) le kernel de l’hôte et communique via une interface réseau virtuelle. Donc cela permet potentiellement d’empaqueter des trucs dégueulasses dont personne ne se souciera car copier et exécuter le container fonctionne. Pire encore avec les failles de sécurité on va en voir partout. Il suffit de voir les containers LXC dont certains templates se traînent des failles critiques depuis des années.

 

 Connaissant comment marchent les entreprises je pense que la plupart des sysadmin utiliseront les containers sans se demander ce qu’il y a dedans et sans jamais le mettre à jour.







Oui mais d’une part ce n’est pas l’outil mais l’admin qui pose problème dans ton argumentaire, et par ailleurs le système ne serait pas compromis, «seulement» le conteneur.

Alors ok c’est pas cool, mais avoir une app compromise c’est quand même vachement moins chiant qu’un système entier.



Et pis c’est vraiment cool pour migrer une appli d’une machine à une autre. <img data-src=" />









Obidoub a écrit :



Cela permet d’empaqueter un logiciel + ses dépendances. En gros un mini-OS qui utilise (dans le cadre de docker) le kernel de l’hôte et communique via une interface réseau virtuelle. Donc cela permet potentiellement d’empaqueter des trucs dégueulasses dont personne ne se souciera car copier et exécuter le container fonctionne. Pire encore avec les failles de sécurité on va en voir partout. Il suffit de voir les containers LXC dont certains templates se traînent des failles critiques depuis des années.

&nbsp;

&nbsp;Connaissant comment marchent les entreprises je pense que la plupart des sysadmin utiliseront les containers sans se demander ce qu’il y a dedans et sans jamais le mettre à jour.&nbsp;





&nbsp;Les containers sont censé êtres des systèmes minimalistes et isolés,&nbsp;il y a donc peu de risques de sécurité.





stb007 a écrit :



J’ai fais un benchmark sur les différents systemes de virtualisation/contenerisation dispo en gratuit car j’ai plusieurs clients qui me demandent de gérer leur hébergement, et bien la conclusion de tout ça c’est que Proxmox c’est de la balle, Docker j’y ai passé 1 semaine et j’ai clairement été très déçu, impossible de fixer un quota disque de manière simple, obligation d’utiliser un systeme de “volumes” pour étendre l’espace disque en créant au passage un autre conteneur, impossible de faire un “snapshot”, impossible d’assigner une adresse privée fixe sans se faire chier à écrire des règles pour les interfaces réseaux… Bref totalement à proscrire pour mon utilisation.

Alors certe Proxmox se base en partie sur openvz mais putain qu-est-ce-que c’est simple d’utilisation et rapide !





Mauvais outil pour ton utilisation.









Yzokrad a écrit :



Rien compris, je ne crois pas que ça a sa place sur NXI.





Ça ne t’est pas destiné.

Le news a au moins le mérite de repérer les mythos comme toi <img data-src=" />



Docker c’est de la virtualisation mais au lieu de virtualiser un serveur pour faire tourner plusieurs applications, on virtualise une application.

ITIL, un guide permettant de bien manager un SI, préconise le fait de découper les gros blocs en pleins de petits bloc.

&nbsp;Au lieu de faire un serveur qui fait tout, faire pleins de serveurs qui font que 1 chose.

&nbsp;Avec la virtualisation classique c’est pas rentable. On va demander a l’hyperviseur de virtualiser 15 fois le même OS, et autre..

Avec Docker c’est fini, cf cette image :&nbsp;Virtualisation vs Container

&nbsp;Le coté pratique c’est que Docker est plus flexible, On demand, et facilement transportable d’une machine hôte a une autre.

&nbsp;Par exemple pour donner une VM à un collègue, il faut l’exporter (car virtualiseur pas forcément le même), ça prend du temps de la taille etc.. Docker il suffit d’un fichier de conf, le reste se télécharge du net en mode light.

&nbsp;Autre cas, admettons que l’on ai une application et qu’on veut de la scalabilitée, on peut récupérer l’utilisation des ressources du container, et si elle est trop limite, en deux secondes un script peut lancer un autre docker (exactement le même), un autre script l’enregistre au près du load balancer, et du coup la charge utilisateur est augmentée de façon transparente pour l’utilisateur et l’administrateur.

&nbsp;Bref il y a encore 1.000.000 de possibilités grâces aux containers !!

&nbsp;


Je sait bien que ça fait 14 ans que Ballmer a déclaré “Linux is a cancer…” (https://en.wikiquote.org/wiki/Steve_Ballmer)… mais ça me fait drôle de voir M$ participer à un projet sous la houlette de la Linux Foundation.

&nbsp;



O tempora o mores.








KP2 a écrit :



Proxmox, c’est de la virtualisation, pas vraiment des conteneurs.

Les conteneurs sont beaucoup plus proches du systemes donc fatalement ils ont des “lacunes” au niveau reseau et stockage.





Heu openvz c’est pas de la conteneurisation ? Dans proxmox t’as le choix entre KVM et Container pour info.



MS change depuis que son CEO a changé,&nbsp;Satya Nadella. Il a pour ambition de changer la culture de MS, ce qu’il a déjà commencé a faire (cf :&nbsp;Github dotnet), en s’ouvrant à l’Open Source.

&nbsp;

&nbsp;





stb007 a écrit :



Heu openvz c’est pas de la conteneurisation ? Dans proxmox t’as le choix entre KVM et Container pour info.





C’est de la conteneurisation aussi, mais c’est pas la même vision des choses. OpenVZ, c’est plus pour des VPS (Full Stack, ex: LAMP), alors que Docker ça sera 4 Docker pour faire un LAMP.&nbsp;



Effectivement, Satya n’est pas Steve… je l’aimais bien moi Steve, il débitait tellement de bêtises et faisait tellement n’importe quoi que le navire aurait sombré bien vite !



Cela dit, je peine toujours à voir l’intérêt d’un Windows pour Docker. Certes ça tourne, mais au prix d’une machine virtuelle… ce que Docker veut précisément éviter.

&nbsp;

… ou alors on va bientôt lire que Satya a décidé de rendre “officiel” CygWin et même de larguer kernel32.dll et NTFS pour utiliser le noyau Linux avec ext4 par défaut ! <img data-src=" />



Mais alors on en revient toujours à la question à laquelle Satya cherche visiblement toujours une réponse : où est le nouveau modèle économique ?

&nbsp;



En effet, M$ reste le dernier acteur à forcer la vente de licence, et ce modèle a de plus en plus de mal à passer.

Article intéressant (en anglais) à ce sujet : http://www.zdnet.com/article/windows-10-the-only-major-os-still-trying-to-squeeze-a-buck-from-consumers/








Bylon a écrit :



En effet, M$ reste le dernier acteur à forcer la vente de licence, et ce modèle a de plus en plus de mal à passer.

Article intéressant (en anglais) à ce sujet : http://www.zdnet.com/article/windows-10-the-only-major-os-still-trying-to-squeeze-a-buck-from-consumers/





Leur nouveau modèle économique ils l’ont trouvé depuis un moment, licences Office en mode cloud (j’aime pas ce terme !!) par exemple. M’est avis que la récente annonce de la migration W10 gratos n’est que le début, leur nouvelle stratégie c’est se concentrer sur les services cloud, et les entreprises, c’est là qu’ils vont gagner du pognon.



C’est un peu l’impression que j’avais, mais ça veut dire quitter le monde des particuliers… pas sûr que ce soit un bon calcul à long terme !








Bylon a écrit :



C’est un peu l’impression que j’avais, mais ça veut dire quitter le monde des particuliers… pas sûr que ce soit un bon calcul à long terme !





Ha non ce n’est pas ce que j’ai dis, au contraire pour couper l’herbe sous le pied d’une éventuelle concurence (macos X et autre ubuntu) ils vont finir par proposer windows gratuitement à tout le monde un peu comme fait apple, et se rattraper sur ce que claqueront les gens sur leur appstore et autre licence cloud. Enfin peut-être que je me trompe aussi…

&nbsp;

&nbsp;

&nbsp;