Bash Ubuntu de Windows 10 : Microsoft explique le fonctionnement du sous-système Linux

Bash Ubuntu de Windows 10 : Microsoft explique le fonctionnement du sous-système Linux

Traduisons-les

Avatar de l'auteur
Vincent Hermann

Publié dans

Logiciel

27/04/2016 6 minutes
124

Bash Ubuntu de Windows 10 : Microsoft explique le fonctionnement du sous-système Linux

Microsoft a décidé d'expliquer les grandes lignes du fonctionnement de Bash sous Windows 10. L'outil repose sur un ensemble de composants, le Windows Subsystem for Linux. Une technologie entièrement fondée sur les concepts de virtualisation et de conteneurs.

Microsoft a publié il y a quelques jours un billet explicatif sur la manière dont était intégré le sous-système Linux dans la future mise à jour majeure de Windows 10 (Anniversary Update). Beaucoup se demandent si le système ne cachait pas en fait un noyau Linux permettant de faire fonctionner Ubuntu 14.04. Il n’en est en fait rien.

Un vrai sous-système Linux dans Windows 10

Cette intégration d’Ubuntu repose sur le Windows Subsystem for Linux (WSL). Il s’agit d’un ensemble de composants dont la mission est de rendre opérationnels les binaires Linux ELF64, un format de fichier standard. Sur son blog, l’éditeur explique que l’on trouve principalement trois éléments servant de moteurs, à commencer par un gestionnaire de session en mode utilisateur. Il est accompagné par des pilotes émulant le kernel Linux.

Le troisième composant est le fameux Linux non modifié, ici Ubuntu 14.04 (du moins en l’état). Pour qu’il fonctionne sans changement, il est contenu dans une série de processus Pico qui l’hébergent en l’état. Ces processus évoquent peut-être de lointains souvenirs chez ceux qui avaient suivi l’évolution Drawbridge.

Un processus Pico (ou picoprocess) est un conteneur isolé pouvant contenir des binaires et interagissant avec un système via une interface sans état. Cette ABI (application binary interface) sert de relai et l’ensemble des opérations est surveillé par un contrôle de sécurité. Ceux qui souhaitent davantage d’informations sur ces processus pourront lire ce document de Microsoft sur Drawbridge.

Interpréter les appels systèmes émis depuis le mode utilisateur

Ces processus Pico permettent à Ubuntu 14.04 de fonctionner sur Windows 10 sans nécessiter de changement dans le code. Les appels système de Linux sont automatiquement envoyés vers le noyau Windows. Ce travail est effectué par les pilotes lxss.sys et lxcore.sys qui les traduisent en API du noyau NT pour qu’ils soient compréhensibles. Microsoft confirme d’ailleurs du même coup que le noyau de Windows est bel et bien compatible avec les processus Pico.

Tout n’est pas forcément simple pour autant. Si le WSL exécute bien des binaires ELF64 non modifiés via le noyau Windows, faire fonctionner l’ensemble a requis d’importants travaux. L’interface avec le kernel Linux a ainsi été virtualisée pour exposer les syscalls (appels système), des services pouvant être appelé depuis le mode utilisateur. Les deux noyaux fonctionnent peu ou prou de la même manière, chacun avec des centaines d’appels différents, mais la sémantique en est différente. Ils ne sont donc pas directement compatibles.

windows wsl linux ubuntu bash

Des performances de bon niveau

Microsoft donne quelques exemples. Le noyau Linux possède par exemple des commandes comme fork, open, et kill, tandis que les équivalents sur le noyau Windows se nomment NtCreateProcess, NtOpenFile, et NtTerminateProcess. Les deux pilotes cités plus haut agissent à cet endroit. Ils sont des implémentations recrées depuis zéro des interfaces Linux. Quand un équivalent à l’appel existe, il est donc traduit. Quand ce n’est pas le cas, il est géré par le pilote en mode utilisateur qui doit s’en occuper directement.

La question qui vient immanquablement avec ces explications concerne évidemment les performances. Dans la grande majorité des cas, le simple fait de parler de virtualisation et de traduction des appels signifie une perte de puissance, dans la mesure où des cycles du processeur sont utilisés pour ces opérations. Pourtant, Microsoft avait indiqué que les performances seraient presque « natives ». Une assertion en fait confirmée par une série de tests menés par Phoronix, dont les résultats étaient très bons, sans aller toutefois jusqu’au niveau d’opérations réalisées directement sur Linux.

Une indication de la direction prise avec Windows

Les explications données par Microsoft se font dans un contexte particulier. L’annonce durant la conférence Build de l’intégration du sous-système Ubuntu se faisait surtout pour présenter l’utilisation de Bash au sein de Windows 10. Un ajout qui a fait couler de l’encre, certains se perdant encore conjectures sur le pourquoi d’un tel mouvement. On peut en fait surtout en tirer deux conclusions.

La première est que l’éditeur répond à une demande, Bash étant très utilisé dans les environnements serveurs. Cette intégration permet à un administrateur sous Windows 10 de piloter des machines sur un réseau par exemple en utilisant un outil très souvent utilisé sous Linux.

La seconde est que Microsoft peut faire la démonstration technique d’un travail qui a mûri pendant plusieurs années et qui montre le potentiel de Windows 10, avec cette capacité à reprendre un sous-système entier pour l’héberger tel quel. On trouve d’ailleurs des expériences d’utilisateurs ayant par exemple réussi à faire fonctionner la distribution Fedora en se basant sur le WSL.

L'avenir appartient aux conteneurs

Le travail sous-jacent réalisé sur le Windows Subsystem for Linux n’est en outre que l’émanation d’un mouvement plus général vers la virtualisation et les conteneurs. Microsoft mène des expériences et des projets depuis de nombreuses années dans ce domaine, et beaucoup estiment aujourd’hui que l’avenir de Windows est basé sur ce type de technologie.

Le système se dirigerait ainsi vers une isolation renforcée des processus, que ce soit pour les pilotes ou les applications. Une chose semble claire dans tous les cas : ces concepts envahiront Windows, et pas seulement pour des sous-systèmes « étrangers ». Il est fort probable que Microsoft finisse par les appliquer par exemple aux logiciels Win32, pour les faire fonctionner dans un environnement beaucoup plus sécurisé.

Notez enfin que ce billet sur le WSL n’est que le premier d’une longue série. Au fur et à mesure que les nouvelles préversions de Windows 10 avanceront, d’autres explications seront fournies, qui donneront sans doute des indices supplémentaires sur la direction que prend le système.

124

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Un vrai sous-système Linux dans Windows 10

Interpréter les appels systèmes émis depuis le mode utilisateur

Des performances de bon niveau

Une indication de la direction prise avec Windows

L'avenir appartient aux conteneurs

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Commentaires (124)


 Ca serais limité a W10 pro ?


Dans mon esprit, la solidité d’une construction dépend beaucoup de celle de ses fondations.

J’aurais trouvé plus logique, techniquement, de bâtir sur une couche *nix (au moins POSIX), et d’adapter le noyau NT pour qu’il y soit “chez lui” comme sur du hard.

“Pourquoi faire simple quand on peut faire compliqué ?”


Windows ne serait il pas sur la voie pour revenir a ses source, a savoir un simple environnement de bureau, mais cette fois avec un GNU/Linux en dessous ? <img data-src=" />


Faut pas exagérer hein…








neointhematrix a écrit :



Faut pas exagérer hein…





Le choix de ne pas avoir repris le noyau Linux au moment de la réécriture de Vista est une erreur majeure de Microsoft. Ils auraient pu bénéficier du support matériel, notamment dans le monde du mobile alors qu’ils ont du passer des ressources importantes dans la création de drivers.&nbsp;



C’est d’autant plus dommage qu’il n’y a pas vraiment de valeur ajoutée a ne pas utiliser le noyau Linux.



Enfin bon, avoir enfin un shell correct sur windows en 2016, c’est deja ca de pris.









GruntZ a écrit :



Dans mon esprit, la solidité d’une construction dépend beaucoup de celle de ses fondations.

J’aurais trouvé plus logique, techniquement, de bâtir sur une couche *nix (au moins POSIX), et d’adapter le noyau NT pour qu’il y soit “chez lui” comme sur du hard.

“Pourquoi faire simple quand on peut faire compliqué ?”





Oui enfin depuis Windows Vista et plus particulièrement 7, Microsoft a prouvé à quel point il savait bâtir des fondations solides et fiables.&nbsp;









Mimoza a écrit :



Windows ne serait il pas sur la voie pour revenir a ses source, a savoir un simple environnement de bureau, mais cette fois avec un GNU/Linux en dessous ? <img data-src=" />







J’aime pas particulierement Windows mais faut quand meme pas abuser, c’est beaucoup plus large qu’un environnement de bureau.

Et même si MS est en pleine periode d’ouverture, voire de revolution culturelle, ils vont surement pas abandonner leurs technos. D’autant plus qu’elles ont pas mal de potentiel…



je me demande si l’utilisation de Bash sur les serveurs a, à terme, pour but d’épauler ou de remplacer Powershell…








GruntZ a écrit :



Dans mon esprit, la solidité d’une construction dépend beaucoup de celle de ses fondations. &nbsp;



sauf pour les hélicoptères <img data-src=" />



J’aurais trouvé plus logique, techniquement, de bâtir sur une couche *nix (au moins POSIX), et d’adapter le noyau NT pour qu’il y soit “chez lui” comme sur du hard.

“Pourquoi faire simple quand on peut faire compliqué ?”

et ils auraient alors appelé leur noyau NT :&nbsp; “wine 10” <img data-src=" />









yorglaa a écrit :



je me demande si l’utilisation de Bash sur les serveurs a, à terme, pour but d’épauler ou de remplacer Powershell…







Non, pas du tout… Windows et l’ecosysteme windows ne sont pas du tout adaptés à un pilotage par un shell orienté texte comme bash. Rien que cette dégueulasse base de registre est absolument ingérable via Bash.



Bash va servir uniquement a faciliter la vie des devs qui codent pour une prod linux avec des composants libres (java, web, etc). Il va servir aussi éventuellement a aider les sysadmins qui doivent gérer du Libre sur du Windows (genre une base Mysql, un serveur d’appli Tomcat, etc)



Mais bash n’est pas prêt de remplacer PS et les 2 vont cohabiter pendant très longtemps…



Bash n’est pas une révolution pour Windows, c’est surtout la confirmation que MS a compris, enfin, que le Libre n’est plus négligeable et qu’il peut aussi en profiter.



Impossible. Leur fierté les en empêche. Ils devaient utiliser leur propre produit.








Mimoza a écrit :



Windows ne serait il pas sur la voie pour revenir a ses source, a savoir un simple environnement de bureau, mais cette fois avec un GNU/Linux en dessous ? <img data-src=" />







Un linux bureau convaincant et qui ne plante pas 1 fois par jour ? mouai!







flagos_ a écrit :



Le choix de ne pas avoir repris le noyau Linux au moment de la réécriture de Vista est une erreur majeure de Microsoft. Ils auraient pu bénéficier du support matériel, notamment dans le monde du mobile alors qu’ils ont du passer des ressources importantes dans la création de drivers. 



C’est d’autant plus dommage qu’il n’y a pas vraiment de valeur ajoutée a ne pas utiliser le noyau Linux.



Enfin bon, avoir enfin un shell correct sur windows en 2016, c’est deja ca de pris.





Heu…. Vista, c’est la version 6.0 du noyau NT, il n’ont pas tout réécrit. Ce noyau est utilisé pour les Windows “grand public” depuis Windows 2000 (V4.0). Et déjà vu le bordel qu’il y a eu pour passer de la version 5 (XP) à la version 6.0, je n’ose imaginer le bordel si il avait décider d’utiliser un autre noyau. Wine/playOnLinux n’est pas non plus très au point.



Sinon, il y a de plus grande chance que si un jour il change de noyau, ils utilisent leur projet Midori.



Je suis depuis longtemps un adepte de Linux, y compris à la maison, comme PC de bureau.

Mais Windows a aussi de nombreuses qualités techniques, il faut le reconnaître !

Par exemple, les systèmes de fichiers Windows ont, pour moi, toujours été supérieurs aux filesystems variés de Linux….

Ce qui a nui à Windows, c’est son marketing (système fermé, diffusion de versions non matures, … )

Car depuis Windows NT, le noyau est robuste et bien conçu.



Si, maintenant, Microsoft est capable d’offrir le meilleur des deux mondes sans sectarisme, je considère que c’est un grand pas en avant.



Je ne cherche à convaincre personne, seulement à donner mon opinion.


Ce serait dommage d’abandonner PowerShell, qui est un très bon produit.



En tout cas je me réjouis d’avoir un bon bash sous la main (avec Cygwin, c’est mieux que rien mais les performances sont au mieux médiocres).


On peut citer de nombreuses qualités de Windows par rapport à Linux, mais très certainement pas le système de fichier ! <img data-src=" />

&nbsp;

De nombreux appareils (je pense notamment aux autoradios ou chaînes Hi-Fi) n’acceptent que le vieux format FAT32 (pratique pour faire cohabiter des vidéos de vacances avec sa musique) et le “nouveau” format NTFS a des performances clairement en dessous de ce qui existe aujourd’hui.


Tu parles de quelle version de NTFS ? Parce que les dernières versions (qui ont beaucoup évoluées avec 8.x en particulier et ensuite10) sont très bonnes !








Doume59249 a écrit :



Par exemple, les systèmes de fichiers Windows ont, pour moi, toujours été supérieurs aux filesystems variés de Linux….







NTFS est vraiment particulier… il a un nombre hallucinant de fonctionnalités (au vu de son age en plus !) mais un défaut principal hallucinant aussi, la fragmentation, qui même si elle est moins pire que sous FAT est toujours présente.

Mais sous linux, les systemes de fichiers sont loins d’etre mauvais, ils ont juste pris des directions différentes à une époque, perfs et stabilité pour linux, fonctionnalités pour MS.

Et avec des surcouches comme LVM, Linux permet de faire des trucs très interessants aussi.

Sans compter btrfs et zfs qui arrivent en fanfare et qui déboitent littéralement pour ceux qui ont des besoins spécifiques à ce niveau.



[Mode Complot On]

C’est un très bon moyen de pouvoir faire modifier par le kernel windows les instruction de compilation d’un gcc et y implanter des backdoors ou faiblesse alors que ces faiblesses ne sont pas présentes dans le code source d’origine. En plus d’avoir le hash du binaire il va falloir vérifier également sur quoi il a été compilé…

[Mode Complot off]

&nbsp;<img data-src=" /> -&gt; []


Petite question hors sujet :



est il possible que Win 10 s’installe tout seul avec les mises à jour de Windows ?


La fragmentation est un phénomène physique et existe aussi avec les FS Linux, même si selon le FS, elle est plus ou moins bien compensée. ext4 la compense à la volée (défragmentation intégrée au FS), NTFS via une défragmentation externe.


Je ne suis pas sûr que la fragmentation soit vraiment liée au FS. C’est plutôt l’implémentation qui décide de comment écrire les données.

Ceci dit, je ne comprends pas cette critique de la fragmentation. Sous Linux, beaucoup considèrent immédiatement qu’il n’y en a pas alors que c’est totalement faux. J’ai déjà vu des FS avec des taux de fragmentation de plus de 60%…

Sous Windows, plus personne ne défragmente depuis bien longtemps. Ca n’apporte rien de le faire manuellement, Windows le fait en tache de fond, et avec les SSD, ça devient encore plus inutile (excepté dans le cas où on veut réduire une partition).


Oui, j’ai le cas.


Ok cool…



Ma femme a éteins son ordi hier soir sans faire gaffe et ce matin, il y a un drôle d’écran windows 10 au démarrage…

Je me fais engueuler merci Microsoft !! <img data-src=" />








Edtech a écrit :



La fragmentation est un phénomène physique et existe aussi avec les FS Linux, même si selon le FS, elle est plus ou moins bien compensée. ext4 la compense à la volée (défragmentation intégrée au FS), NTFS via une défragmentation externe.







Tout à fait.

En fait, tous les systèmes de fichiers sous Linux ont un mécanisme intégré de gestion de la fragmentation. Aucun sous windows.

Ce qui, dans le cahier des charges d’un système de fichiers, est particulièrement con étant donné qu’une des choses les plus primaires qu’on demande à un fs est de rester stable dans le temps.

Mais MS a préféré implémenter depuis des années un système de fichiers capable de gérer des agrégats de volumes et des ACL absolument démentielles (et inutiles pour la plupart). Bref, chacun fait comme il veut mais les choix de MS me paraissent avoir été un peu trop dictés par les experts qui voulaient se faire plaisir en oubliant un peu les besoins de base et le quotidien de la prod.

Et quand on y regarde bien, y’a pleins de technos dans MS qui sont sur le même modèle : liste de fonctionnalités top niveau mais avec qq “oublis” sur les besoins de base…









Mimoza a écrit :



Windows ne serait il pas sur la voie pour revenir a ses source, a savoir un simple environnement de bureau, mais cette fois avec un GNU/Linux en dessous ? <img data-src=" />





Ca serait bien, mais là Linux est plutôt au-dessus, je préfère la solution ci-dessous, où c’est Windows/WINE au-dessus de Linux :

&nbsp;



GruntZ a écrit :



Dans mon esprit, la solidité d’une construction dépend beaucoup de celle de ses fondations.

J’aurais trouvé plus logique, techniquement, de bâtir sur une couche *nix (au moins POSIX), et d’adapter le noyau NT pour qu’il y soit “chez lui” comme sur du hard.

“Pourquoi faire simple quand on peut faire compliqué ?”





<img data-src=" />









tazvld a écrit :



Un linux bureau convaincant et qui ne plante pas 1 fois par jour ? mouai!&nbsp;





Tu arrives à planter ton bureau Linux ? (ou alors j’ai mal compris ta remarque)

&nbsp;





Doume59249 a écrit :



Je suis depuis longtemps un adepte de Linux, y compris à la maison, comme PC de bureau.



Mais Windows a aussi de nombreuses qualités techniques, il faut le reconnaître !      

Par exemple, les systèmes de fichiers Windows ont, pour moi, toujours été supérieurs aux filesystems variés de Linux....&nbsp;





Je suis curieux de savoir en quoi ils ont été supérieurs (alors que c’est évidemment l’inverse)&nbsp;<img data-src=" />



Perso je vois bien arriver un docker sans vm (mais du coup, toujours nunux derriere, pas du Windows natif).








KP2 a écrit :



NTFS est vraiment particulier… il a un nombre hallucinant de fonctionnalités (au vu de son age en plus !) mais un défaut principal hallucinant aussi, la fragmentation, qui même si elle est moins pire que sous FAT est toujours présente.&nbsp;





La fragmentation pouvait être un problème avec le FAT, mais depuis ext2 et NTFS, elle n’est plus un problème : il y en a toujours, mais ça n’est pas gênant pour les performances.

Et c’est sans objet sur un SSD.







Edtech a écrit :



La fragmentation est un phénomène physique et existe aussi avec les FS Linux, même si selon le FS, elle est plus ou moins bien compensée. ext4 la compense à la volée (défragmentation intégrée au FS), NTFS via une défragmentation externe.





Tu es sûr de ton histoire de ext4 qui compense à la volée ? (ça dépend de ce que tu veux dire par là)

A ma connaissance, il s’arrange pour fragmenter le moins possible (ce que faisait ext2 déjà), en réservant des plages entières de bloc directement (le nouveau système des extents, si je ne m’abuse).









Strimy a écrit :



Je ne suis pas sûr que la fragmentation soit vraiment liée au FS. C’est plutôt l’implémentation qui décide de comment écrire les données.







En fait, la fragmentation est indispensable (ou presque) pour les perfs mais après, chaque fs a sa manière de la compenser plus ou moins bien. Et celle de NTFS n’est pas très bonne.







Strimy a écrit :



Ceci dit, je ne comprends pas cette critique de la fragmentation. Sous Linux, beaucoup considèrent immédiatement qu’il n’y en a pas alors que c’est totalement faux. J’ai déjà vu des FS avec des taux de fragmentation de plus de 60%…







Bien sur qu’elle existe sous linux mais elle n’a pas du tout les même INpacts que sous windows. La dégradation de perfs est pratiquement imperceptible à coté.

ext3 n’avait même pas d’outil de défrag natif tellement c’etait inutile. ext4 en a intégré un pour des cas très specifiques mais personne ou presque ne s’en sert (à part des admin windows qui se retrouvent avec des linux dans les pattes et qui ont une sale tendance à reporter leurs mauvaises habitudes)







Strimy a écrit :



Sous Windows, plus personne ne défragmente depuis bien longtemps.







NTFS existe depuis 20 ans et il existe un système de defrag online seulement sur windows server à partir de la version 2008) donc il aura eu un paquet de temps pour faire du mal même si c’est de moins en moins grave de nos jours.







Strimy a écrit :



Ca n’apporte rien de le faire manuellement, Windows le fait en tache de fond, et avec les SSD, ça devient encore plus inutile (excepté dans le cas où on veut réduire une partition).







Oui mais c’est relativement récent tout ça.






Traduisons-les



OK mais sans contresens qui rendent la compréhension difficile.

“Windows Subsystem for Linux” n’est pas “le sous-système Linux”. Oublier de traduire “for” induit en erreur.

Ce n’est pas un sous-système Linux, mais un sous-système pour des logiciels natifs pour Linux. Il n’y a pas le noyau Linux dans ce qu’offre Microsoft, ce n’est donc pas Linux.



Pourquoi parler de “Linux non modifié” alors que le billet initial parle suivant les cas de :

unmodified user mode Linux

unmodified Linux binaries

unmodified Linux code

unmodified Linux ELF64 binaries ?

Cela change tout. Ce n’est pas Linux qui est embarqué non modifié mais le mode utilisateur, les programmes binaires qui tournent sous Ubuntu 14.04.


Je ne connais pas le mécanisme exact. En tout cas, il travaille en intégrant la notion de fragmentation alors que NTFS ne s’en soucie pas et la traite à posteriori.








durthu a écrit :



Ok cool…



Ma femme a éteins son ordi hier soir sans faire gaffe et ce matin, il y a un drôle d’écran windows 10 au démarrage…

Je me fais engueuler merci Microsoft !! <img data-src=" />





Vraiment? Sans n’avoir rien validé du tout?

&nbsp;Cela m’étonne car ça serait un sacré droit que se donnerait Microsoft.



Sauf erreur tu as 1 mois pour revenir à Windows 78. C’est ce que propose l’offre gratuite proposé aux forceps


Sur son PC, ma femme a un popup de temps en temps qui lui demande de planifier la mise à jour à windows 10.



Sans faire attention il est possible planifier la mise à jour au prochain arrêt.


J’ai eu ma mère au tel hier et elle est passée malgré elle à Windows 10 il y a quelques jours.

Elle a sûrement accepté sans s’en rendre compte, mais, Microsoft fait manifestement tout ce qu’ils peuvent pour que les personnes peu averties migrent malgré elles.

Elle était au courant de l’existence de W10 et du fait que c’était proposé, mais nous avions convenu d’attendre que je l’aide pour la migration (même si je ne connais pas W10). Elle s’est donc fait avoir bien qu’elle fasse attention.



En l’occurrence, elle avait perdu l’accès à ses mails dans la bataille ce que je trouve lamentable alors qu’elle utilisait l’outil mail standard. Elle a fait appel à quelqu’un pour lui rétablir, je ne connais donc pas les détails.








tazvld a écrit :



Sinon, il y a de plus grande chance que si un jour il change de noyau, ils utilisent leur projet Midori.





&nbsp;Sauf que le projet Midori a été abandonné.





OlivierJ a écrit :



Tu arrives à planter ton bureau Linux ? (ou alors j’ai mal compris ta remarque)





Personnellement, ça m’arrive très régulièrement en essayant de faire tourner des jeux pour Windows via wine. Sinon, c’est vrai que c’est généralement plutôt stable.



Je suppose qu’elle a dû cliquer sur quelque chose sans faire attention à l’extinction du PC…



J’ai vu un article ce matin (je ne trouve déjà plus le lien) expliquant que l’installation automatique est possible en fonction du paramétrage des mises à jour et du fait que Microsoft a changé récemment le type (recommandé, grave, …) de cette mise à jour.



EDIT : lien vers l’article (trouvé via Google, je ne suis pas lecteur de Clubic…)


Ok je comprend mieux là.



J’ai cette popup moi aussi (que je prend le temps de lire!) et je serai pas content que la MaJ se fasse dans mons dos.








durthu a écrit :



Petite question hors sujet :



est il possible que Win 10 s’installe tout seul avec les mises à jour de Windows ?





je ne le pense vraiment pas.

En laissant mon pc (win7 pro) allumé toute une semaine sans y toucher, (juste une prise de main teamviewer une fois par jour pendant 5mn), il a installé un flot de MàJ mais pas Win10.

L’écran demandant son installation est insistant et y en a un qui dit “installer maintenant” ou “planifier la Mise à Jour” (et qui prend comme un “fout moi la paix” le fait de passer par la croix pour fermer la fenêtre)



Le système est piégeux, c’est indéniable, mais je suis quasi sûr qu’il ne s’installe pas entièrement tout seul. (en tout cas sur w7 pro… pour la version home, je n’ai aucun sujet de test sous la main ;) )









Uther a écrit :



&nbsp;Personnellement, ça m’arrive très régulièrement en essayant de faire tourner des jeux pour Windows via wine. Sinon, c’est vrai que c’est généralement plutôt stable.





En fait c’est plutôt l’émulation de jeux via WINE qui plante, ce qui m’étonne moins car c’est complexe à émuler et donc sujet à bugs. C’est déjà une belle performance d’y arriver.



Personnellement j’ai toujours refusé la mise à niveau. Au début les pop-up proposaient “maintenant” ou “plus tard”.

La semaine dernière c’était “Tout de suite” ou “Ce soir”.

Je l’ai fermée et le lendemain j’ai cliqué sur l’icône de mise à niveau, dans la barre des tâches, qui m’a informé que la mise à niveau était programmée vendredi soir, alors que je n’avais rien accepté.



&nbsp;Il est donc tout à fait possible qu’elle n’ait rien accepté et que la mise à niveau se soit faite sans son accord.


Il y a surement eu une pop-up avant la fermeture de sa session qu’elle n’a pas pris le temps de lire et a cliqué en pensant que c’était une mise à jour…


#13



“Par exemple, les systèmes de fichiers Windows ont, pour moi, toujours été supérieurs aux filesystems variés de Linux….”



les 5 disques durs de mon NAS sont en ext4 et j’apprécie de ne pas avoir à les défragmenter…








Doume59249 a écrit :



Par exemple, les systèmes de fichiers Windows ont, pour moi, toujours été supérieurs aux filesystems variés de Linux….&nbsp;





Non.

&nbsp;

Certes NTFS est très bon en termes de perf et de solidité (j’ai jamais réussi à péter un système de fichiers NTFS malgré des reboot sauvages et autres maltraitances).

&nbsp;

Mais franchement le meilleur système de fichiers du moment c’est ZFS et de loin, il relègue les autres FS aux années 90.



Oula … Un peu d’historique :




  • NT 3.1 (le tout premier) noyau ? 1.0 je suppose

  • NT 3.5 noyau ? 2.0 je suppose

  • NT 3.51 noyau 3.0 je crois

  • NT 4.0 noyau 4.0

  • Windows 2000 noyau 5.0

  • Windows XP noyau 5.1

  • Windows 2003 et 2003 R2 noyau 5.2

  • Windows Vista noyau 6.0

  • Windows 7, 2008 et 2008 R2 noyau 6.2

  • Windows 88.110 noyau 6.3 ?


Edit correctif ! (‘ai vainement tenté d’éditer le message du dessus sans y parvenir)









Gilbert_Gosseyn a écrit :



Oula … Un peu d’historique :




  • NT 3.1 (le tout premier) noyau ? 1.0 je suppose

  • NT 3.5 noyau ? 2.0 je suppose

  • NT 3.51 noyau 3.0 je crois

  • NT 4.0 noyau 4.0

  • Windows 2000 noyau 5.0

  • Windows XP noyau 5.1

  • Windows 2003 et 2003 R2 noyau 5.2

  • Windows Vista noyau 6.0

  • Windows 7 noyau 6.1

  • Windows 2008 et 2008 R2 noyau 6.2

  • Windows 88.110 noyau 6.3 ?







ZFS c’est particulier et en perf je ne sais pas sûr qu’ils soient meilleurs que ext4 ou ntfs et ils consomment énormément.



Après ils apportes des nouveaux concepts vraiment pas mal.








flagos_ a écrit :



Le choix de ne pas avoir repris le noyau Linux au moment de la réécriture de Vista est une erreur majeure de Microsoft. Ils auraient pu bénéficier du support matériel, notamment dans le monde du mobile alors qu’ils ont du passer des ressources importantes dans la création de drivers.&nbsp;



C’est d’autant plus dommage qu’il n’y a pas vraiment de valeur ajoutée a ne pas utiliser le noyau Linux.





Si Microsoft passait Windows en noyau Linux, ce serait un risque pour eux. Comme ça obligerait les constructeurs et développeurs à créer des pilotes et logiciels compatibles avec Linux, ça permettrait d’utiliser ceux-ci sur d’autres distributions, donc de favoriser la migration.



Mais c’est imaginable si Microsoft veut se rémunérer sur le service et le développement logiciel hors Windows. Au risque de voir apparaitre Exchange sous Gnunux. <img data-src=" />









millman42 a écrit :



ZFS c’est particulier et en perf je ne sais pas sûr qu’ils soient meilleurs que ext4 ou ntfs et ils consomment énormément.



Après ils apportes des nouveaux concepts vraiment pas mal.





Il n’y a pas que les perfs, il y a la facilité de gestion.

Plus besoin de LVM, plus besoin de mdraid, plus besoin de se prendre la tête avec le partitionnement.

ZFS a tous les outils pour gérer les disques, les datasets, les snapshots, les périphériques block…

En usage NAS c’est du pur bonheur.



Je ne vois aucun intérêt à passer Windows sur un noyau Linux (sans des trolls à 2 sous). C’est complètement absurde !

Les deux ont leurs avantages et&nbsp;leurs&nbsp;défauts et c’est mieux comme ça !

&nbsp;








DHMO a écrit :



Si Microsoft passait Windows en noyau Linux, ce serait un risque pour eux. Comme ça obligerait les constructeurs et développeurs à créer des pilotes et logiciels compatibles avec Linux, ça permettrait d’utiliser ceux-ci sur d’autres distributions, donc de favoriser la migration.



Mais c’est imaginable si Microsoft veut se rémunérer sur le service et le développement logiciel hors Windows. Au risque de voir apparaitre Exchange sous Gnunux. <img data-src=" />





Ca depend de quelle plateforme tu parles. Sur SoC ARM, l’OS de reference c’est Linux et Android. Le seul risque que prendrait Microsoft serait d’avoir des SoC compatibles avec leur OS…









Gooom a écrit :



Je ne vois aucun intérêt à passer Windows sur un noyau Linux (sans des trolls à 2 sous). C’est complètement absurde !

Les deux ont leurs avantages et&nbsp;leurs&nbsp;défauts et c’est mieux comme ça !

&nbsp;





Dans une ere post-PC, c’est si absurde que ca de ne pas redevelopper inutilement les drivers Linux ? Quelle est la valeur ajoutée d’un kernel windows sur un kernel Linux concrètement ?



Il y a déjà des SoC ARM sur lesquels tourne Windows : les Lumia utilisent des Qualcomm Snapdragon. Et quand bien même Windows passait sur un noyau Linux, ça permettrait d’élargir sa base de SoC : les drivers spécifiques existent.








flagos_ a écrit :



Quelle est la valeur ajoutée d’un kernel windows sur un kernel Linux concrètement ?





Les picoprocess me semblent intéressants, même si je n’ai lu que rapidement le contenu du lien de l’article.









fred42 a écrit :



Les picoprocess me semblent intéressants, même si je n’ai lu que rapidement le contenu du lien de l’article.





Oui c’est une feature qui semble interessante et qui je crois pas n’a pas un equivalent immediat sur Linux.



Mais ma question etait plutot: quel est l’interet pour MS de developper un kernel windows plutot que de repartir d’un kernel Linux ?&nbsp;



S’ils veulent proposer des innovations au niveau kernel, ils peuvent tres bien les faire sur Linux, la communaute est tres ouverte et a deja accepte des commits de chez MS d’ailleurs.



Au final, puisqu’on s’oriente dans un monde post-PC, ou les plateformes materielles seront tres diversifiees, je trouve dommage (et je pense meme que c’est une erreur historique) que MS n’ait pas fait le choix de l’ouverture sur la question du kernel.



Au pif, peut être qu’ils considerent leur kernel comme étant meilleur








KP2 a écrit :



Sans compter btrfs et zfs qui arrivent en fanfare et qui déboitent littéralement pour ceux qui ont des besoins spécifiques à ce niveau.





Il y a le pendant Microsoft avec ReFS (uniquement Windows Server).









flagos_ a écrit :



Au final, puisqu’on s’oriente dans un monde post-PC





Et tu tiens cela d’où ?









Gilbert_Gosseyn a écrit :



Oula … Un peu d’historique :




  • NT 3.1 (le tout premier) noyau ? 1.0 je suppose

  • NT 3.5 noyau ? 2.0 je suppose

  • NT 3.51 noyau 3.0 je crois

  • NT 4.0 noyau 4.0

  • Windows 2000 noyau 5.0

  • Windows XP noyau 5.1

  • Windows 2003 et 2003 R2 noyau 5.2

  • Windows Vista noyau 6.0

  • Windows 7, 2008 et 2008 R2 noyau 6.2

  • Windows 88.110 noyau 6.3 ?





    Oui, mais grand public, le premier contact dans un Windows vendu dans le super marcher du coin, c’est Windows 2000 (sinon effectivement, NT 5.0 pour Windows 2000)







    OlivierJ a écrit :



    Tu arrives à planter ton bureau Linux ? (ou alors j’ai mal compris ta remarque)



    Je suis curieux de savoir en quoi ils ont été supérieurs (alors que c’est évidemment l’inverse) <img data-src=" />





    Très régulièrement, j’ai des problème. Il n’y a pas 1 mois, mise à jour ou que sais-je (Ubuntu Gnome edition): écran noir au démarrage, rien, nada… Je démarre sur un noyau précédent, ça marche … <img data-src=" />

    Régulièrement, je fais un “alt+f2, r” pour relancer gnome car j’ai des problèmes d’affichage…

    Et ça c’est que pour la partie graphique. Je ne parle pas des programmes qui plantent régulièrement (programme lié à l’OS/bureau comme Kate ou Nautilus).









    Uther a écrit :



    Sauf que le projet Midori a été abandonné.



    Personnellement, ça m’arrive très régulièrement en essayant de faire tourner des jeux pour Windows via wine. Sinon, c’est vrai que c’est généralement plutôt stable.





    Pour Midori, tu ne confonds avec avec Singularity ? Moi, de ce que je comprend de ce billet (qui a moins de 6 mois), c’est surtout que le projet de recherche à enfin abouti, ils ont quelque chose qui fonctionne, qui prouve la valdité du concept. Cependant, Midori est avant tout un projet de recherche et n’a pas pour but d’être exploitable en tant que produit concret. Ils ont prouvé que c’est possible de faire un OS en code managé qui soit performant et sécurisé. Ils ont aujourd’hui les connaissances et les compétences pour le faire. Après, c’est un projet de recherche, l’exploitation commercial de celui ci n’est pas prévu. Aujourd’hui, son statut est plutôt en Stand-by, il peut être repris à tout moment, ou tout simplement intégré par divers moyen dans Windows ( à coté comme ici, en cohabitation avec NT voir supplanté NT à terme ou en réécriture de NT).



    Midori n’est donc pas “mort”, les idées, les compétences et le code sont exploitables par MS, c’est un truc qu’ils peuvent sortir au besoin.









lossendae a écrit :



Au pif, peut être qu’ils considerent leur kernel comme étant meilleur





Et, en PC, ils ont pour eux le nombre de matériels et logiciels compatibles. Passer à un noyau Linux leur ferait perdre à la fois l’étendue et l’exclusivité de cette compatibilité.









carbier a écrit :



Et tu tiens cela d’où ?





De la:&nbsp;http://www.nextinpact.com/news/99429-le-marche-pc-signe-son-pire-trimestre-depui…



&nbsp;



lossendae a écrit :



Au pif, peut être qu’ils considerent leur kernel comme étant meilleur





Je pense meme pas. Je pense plutot qu’ils réfléchissent en terme de solution corporate et que distribuer du Linux semble pas concevable en terme de culture d’entreprise.&nbsp;



Au dela de ca, je pense qu’il est assez difficile de révolutionner le secteur avec un kernel. C’est devenu un gros bout de code, forcement complexe, et pas tres palpitant en terme d’innovation.









tazvld a écrit :



Très régulièrement, j’ai des problème. Il n’y a pas 1 mois, mise à jour ou que sais-je (Ubuntu Gnome edition): écran noir au démarrage, rien, nada… Je démarre sur un noyau précédent, ça marche … <img data-src=" />

Régulièrement, je fais un “alt+f2, r” pour relancer gnome car j’ai des problèmes d’affichage…

Et ça c’est que pour la partie graphique. Je ne parle pas des programmes qui plantent régulièrement (programme lié à l’OS/bureau comme Kate ou Nautilus).



Ubuntu 14.04 ou 15.10 ?

Tu as quoi comme carte graphique sur ton pc ?









tazvld a écrit :



Oui, mais grand public, le premier contact dans un Windows vendu dans le super marcher du coin, c’est Windows 2000 (sinon effectivement, NT 5.0 pour Windows 2000)





Win 2000 en grand public ? Que nenni. En supermarché, c’était la série Win9x. C’est WinXP qui a fait la convergence entre les lignées Home et Pro, sur base du noyau NT.



Je sais mais pour un particulier cela sert à rien .



Dans dire que ZFS c’est le meilleur c’est pas toujours vrai. Il répond d’autres besoins.


Avec l’échec de Windows ME on trouvait de PC Windows 2000 destiné au grand public dans les modèles haute gamme.








flagos_ a écrit :



De la: http://www.nextinpact.com/news/99429-le-marche-pc-signe-son-pire-trimestre-depui…





Ah ouais quand même…

On est donc aussi dans un marché post-tablette

Et dans quelques temps on sera aussi dans un marché post-smartphone… <img data-src=" />



Dans le cadre grosse entreprise, quel est l’intereet pour MS de reprendre le kernel Linux et du coup ouvrir à la concurrence un marché qui lui est encore grandmentr réservé.



J’entendais pas meilleur techniquement. Meilleur pour leur buisiness.








Obidoub a écrit :



Mais franchement le meilleur système de fichiers du moment c’est ZFS et de loin, il relègue les autres FS aux années 90.





Oui, ZFS qui d’ailleurs a plus de 5 ans est assez extraordinaire, et btrfs qui essaie d’en reprendre les fonctionnalités n’y est pas encore alors qu’il a commencé il y a quelques années.

&nbsp;



millman42 a écrit :



ZFS c’est particulier et en perf je ne sais pas sûr qu’ils soient meilleurs que ext4 ou ntfs et ils consomment énormément.





ZFS est tout à fait incomparable, utilisé en production depuis des années par un hébergeur que je connais.









tazvld a écrit :



Oui, mais grand public, le premier contact dans un Windows vendu dans le super marcher du coin, c’est Windows 2000 (sinon effectivement, NT 5.0 pour Windows 2000)





Pour moi ça date de Windows95 le contact avec le grand public (et la campagne mondiale de 500 M$ avec la chanson des Rolling Stones).







tazvld a écrit :



Très régulièrement, j’ai des problème. Il n’y a pas 1 mois, mise à jour ou que sais-je (Ubuntu Gnome edition): écran noir au démarrage, rien, nada… Je démarre sur un noyau précédent, ça marche …&nbsp;<img data-src=" />&nbsp;

Régulièrement, je fais un “alt+f2, r” pour relancer gnome car j’ai des problèmes d’affichage…&nbsp;

Et ça c’est que pour la partie graphique. Je ne parle pas des programmes qui plantent régulièrement (programme lié à l’OS/bureau comme Kate ou Nautilus).&nbsp;





T’as pas de bol parce que je suis sur Ubuntu 14.04 LTS (portable) et Xubuntu (mini-PC de salon) et rien de tel.









robin4002 a écrit :



Ubuntu 14.04 ou 15.10 ?

Tu as quoi comme carte graphique sur ton pc ?





15.04, Carte Nvidia Quadro FX 580 (une carte de bureautique grosso modo). Pour les drivers, je ne sais plus, j’ai essayé les 2 du coup, je ne sais plus lesquels j’utilise, nouveau ou ceux de NVidia.



Mais des petits bug “OS” (je ne tiens pas compte des programmes non “OS” qui plantent) j’en ai régulièrement sur n’importe quelle des mes machines. Parfois c’est mineur, une barre qui disparaît ou qui ne s’affiche pas bien, petit “Alt+F2, r” résout ça mais parfois c’est plus lourd. Par exemple sur mon PC portable : je ferme l’écran, il se met en veille, je rouvre, il reste “noir”. Le double écran arrive avec son lot de bug en tout genre, certain un peu génant comme des miniature qui apparaisse sur le mauvais écran, mais parfois c’est plus chiant, un vidéo youtube/flash (par exemple les lecteurs embeded comme sur LIDD) qui apparaît en petit (prend a priori en compte la dimension des 2 écrans mais réduit à l’échelle d’un seul qui est en plus obligatoirement l’écran principal et non l’écran où se trouve la fenêtre)







DHMO a écrit :



Win 2000 en grand public ? Que nenni. En supermarché, c’était la série Win9x. C’est WinXP qui a fait la convergence entre les lignées Home et Pro, sur base du noyau NT.





Des PC sous Windows 2000, je me rappelle en avoir vu aux supermarchés quand j’étais plus jeune et sinon j’en avais au lycée.









OlivierJ a écrit :



En fait c’est plutôt l’émulation de jeux via WINE qui plante



Normal que ca plante si tu cherches à émuler, vu que ce n’est pas de l’émulation : WINE Is Not an Emulator <img data-src=" />



Je trouve qu’il&nbsp; n’est pas juste de parler de NTFS sans indice quand à côté on dit ext2, ext3, ext4.

Parce qu’entre celui d’il y a 20 ans et celui d’aujourd’hui, il y a eu évolution aussi.



(je ne cherche pas du tout à savoir lequel est le meilleur, je me content de pinailler sur un point de nommage sans importance)


Windows 95, 98 et Me grand public n’étaient pas un noyau NT, il formaient une famille à part “windows 9x” qui découle plus du développement des précédent Windows (3.1) en shuntant une grande partie de DOS (Windows à l’époque se lançait encore par dessus DOS).


Je suis au courant et ça ne change pas ce que j’ai dit en réponse à ton commentaire initial&nbsp;<img data-src=" />&nbsp;.








OlivierJ a écrit :



Je suis au courant et ça ne change pas ce que j’ai dit en réponse à ton commentaire initial <img data-src=" /> .





Ha oui, non, d’accord, tu viens comme un cheveu sur la soupe en plein milieu d’une discutions. Je parlais de premier contact avec un noyau NT.









lossendae a écrit :



Dans le cadre grosse entreprise, quel est l’intereet pour MS de reprendre le kernel Linux et du coup ouvrir à la concurrence un marché qui lui est encore grandmentr réservé.



J’entendais pas meilleur techniquement. Meilleur pour leur buisiness.





La pour le coup je vois pas le rapport. En entreprise, les besoins kernel sont super simple et peuvent tres bien etre gere par Linux.



Ce qui fait choisir windows en entreprise, c’est Outlook, Office et compagnie et les outils d’administration du parc de machines.&nbsp;









Ravaged a écrit :



les 5 disques durs de mon NAS sont en ext4 et j’apprécie de ne pas avoir à les défragmenter…





J’apprécie de ne pas avoir à défragmenter depuis février 2007 (Vista, NTFS toussa….)

Faut p’tet arrêter les idées reçues à 2 balles, surtout quand quelques commentaires plus tôt on explique bien que la fragmentation qui défonce les perfs c’est has been depuis la migration FAT =&gt; NTFS….



Euh… excusez mon ignorance, je ne suis pas du métier mais concrètement ça apporte quoi à l’utilisateur cette intégration?&nbsp;<img data-src=" />


Le fait qu’ils aient dissout l’équipe qui travaillait dessus me semble quand même un indice du fait que même si il ont prouvé que ça reste une possibilité, ce n’est pas la piste privilégiée pour l’avenir de Windows.








OlivierJ a écrit :



ZFS est tout à fait incomparable, utilisé en production depuis des années par un hébergeur que je connais.





Encore une fois oui ZFS est bien en production mais pour un particulier les fonctionnalités qu’ils offrent ne servent pas à grand chose et ne justifie pas mon sens la surconsommation et la baisse de performancequ’il engendre.



Ça dépend de l’utilisateur.





(…) l’éditeur répond à une demande, Bash étant très utilisé dans les environnements serveurs. Cette intégration permet à un administrateur sous Windows 10 de piloter des machines sur un réseau par exemple en utilisant un outil très souvent utilisé sous Linux.





Un administrateur pourra utiliser à la fois des outils Windows et des outils Gnunux sur une même machine Windows. Mais il y a peut-être d’autres choses qui pourront en sortir, comme une adaptation plus aisée d’outils Gnunux sous Windows.


Merci pour la vulgarisation <img data-src=" />








millman42 a écrit :



Encore une fois oui ZFS est bien en production mais pour un particulier les fonctionnalités qu’ils offrent ne servent pas à grand chose et ne justifie pas mon sens la surconsommation et la baisse de performancequ’il engendre.





J’ai lu ton lien et il date de 2010, sur PC-BSD. Si ses performances étaient si inférieures à ext4 en production sur des usages classiques, ça se verrait, or ce n’est pas le cas d’après ce que j’ai vu chez un hébergeur, qui utilise un noyau dérivé d’OpenSolaris intégrant nativement ZFS, pour faire tourner des VM et pour piloter des gros volumes de disques.









DotNerk a écrit :



Euh… excusez mon ignorance, je ne suis pas du métier mais concrètement ça apporte quoi à l’utilisateur cette intégration?&nbsp;<img data-src=" />





A l’utilisateur lambda ?

Rien !









Gilbert_Gosseyn a écrit :



Oula … Un peu d’historique :




  • NT 3.1 (le tout premier) noyau ? 1.0 je suppose

  • NT 3.5 noyau ? 2.0 je suppose

  • NT 3.51 noyau 3.0 je crois

  • NT 4.0 noyau 4.0

  • Windows 2000 noyau 5.0

  • Windows XP noyau 5.1

  • Windows 2003 et 2003 R2 noyau 5.2

  • Windows Vista noyau 6.0

  • Windows 7, 2008 et 2008 R2 noyau 6.2

  • Windows 88.110 noyau 6.3 ?



    &nbsp;

    Pas tout à fait&nbsp;ça :

    &nbsp;

    NT 3.1 -&nbsp;Kernel 3.1

    NT 3.5 - Kernel 3.5

    NT 3.51 - Kernel 3.51

    NT 4 - Kernel&nbsp;4.0

    Windows 2000 - Kernel 5.0

    Windows XP - Kernel 5.1 et 5.2 pour x64

    Windows 2003 srv - Kernel 5.2

    Windows Vista - Kernel 6.0

    Windows Server 2008 -&nbsp;Kernel 6.0

    Windows 7 - Kernel 6.1

    Windows Server 2008 R2 - Kernel 6.1

    Windows 8 -&nbsp;Kernel 6.2

    Windows Server 2012 -&nbsp;Kernel 6.2

    Windows 8.1 - Kernel 6.3

    Windows Server 2012&nbsp;R2 - Kernel 6.3

    Windows 10 - Kernel 10.0

    Windows Server 2016 - Kernel 10.0



    source : https://en.wikipedia.org/wiki/Comparison_of_Microsoft_Windows_versions

    &nbsp;









Uther a écrit :



Le fait qu’ils aient dissout l’équipe qui travaillait dessus me semble quand même un indice du fait que même si il ont prouvé que ça reste une possibilité, ce n’est pas la piste privilégiée pour l’avenir de Windows.





Oui, je suis d’accord, pour l’instant, Midori, c’est cool, la théorie ça fonctionne. Après, Midori ne semble n’avoir jamais été destiné à être utilisé en tant que tel. Et effectivement, MS ne semble plus s’y intéresser pour l’instant. Je pense qu’à l’heure actuel, c’est surtout parce que industriellement parlant, ce n’est pas à l’ordre du jour, là, ils ont un peu raté le virage de l’embarqué et ce genre de truc n’est peut être pas fait pour de l’embarqué (la perte de performance peut être acceptable sur un ordi de bureau, mais sur de l’embarqué, c’est tout au minimum) et ils sont même à l’unification de leurs OS.

Mais voila, MS n’a pas dit que le projet est mort et enterré, il n’y a plus rien à en tirer, alors qu’ils ont de bon résultats. Tout ce qui a été développé peut voir le jour justement sous une forme comme une autre.



Ainsi, je répondais à la question : et si MS devait remplacer un jour leur noyau NT par autre chose ? Pour moi, ça serait plus probable que ce soit un dérivé du projet Midori qu’un noyau Linux/Unix (comme le proposait je ne sais plus qui), ce dernier n’apporte rien par rapport à NT, ça ne permet pas de se distinguer du reste des OS, contrairement à Midori.









Doume59249 a écrit :



Je suis depuis longtemps un adepte de Linux, y compris à la maison, comme PC de bureau.

Mais Windows a aussi de nombreuses qualités techniques, il faut le reconnaître !

Par exemple, les systèmes de fichiers Windows ont, pour moi, toujours été supérieurs aux filesystems variés de Linux….

Ce qui a nui à Windows, c’est son marketing (système fermé, diffusion de versions non matures, … )

Car depuis Windows NT, le noyau est robuste et bien conçu.



Si, maintenant, Microsoft est capable d’offrir le meilleur des deux mondes sans sectarisme, je considère que c’est un grand pas en avant.



Je ne cherche à convaincre personne, seulement à donner mon opinion.







Adepte de linux ? c’est la secte des manchots barbus ça <img data-src=" /> <img data-src=" />



Quel pied ! On va pouvoir avoir les bugs Windows ET les bugs Linux, en même temps et sur la même machine !


J’emets une hypothese. Le logiciel étant fermé, il n’est pas impossible qu’il y ai des ramifications insoupçonné dans leur kernel.



C’est probablement plus compliqué et réfléchi que “on veut pas baisser notre froc”. MS ne doute pas de ses solutions techniques, leur kernel n’est pas mauvais, pourquoi s’en séparer ?


Ce que tu ne comprends pas c’est que Linux ou Windows c’est globalement du noyau monolithique basé sur des concepts des années 6070. Concepts qui ont été développé pour s’adapter au limitation du matériel de l’époque : peu de mémoire, plus performant de faire une isolation des processus matériellement entre le ring 0 et le ring 3 que de le faire logiciellement… Aujourd’hui c’est juste l’inverse la mémoire est abondante et rapide, il bien plus performant de faire une isolation des processus logiciellement (principe des SIP chez Singularity/Midori) que de le faire matériellement comme actuellement (ce qui entraine des perfs désastreuse lors des context switch).



Fin bref les noyaux d’aujourd’hui ne sont pas adapté au matériel d’aujourd’hui et encore moins pour l’informatique de demain (many-core, architecture hétérogène mélangeant CPU X86, ARM et GPU dans une même machine).



L’intérêt pour Microsoft de continuer le noyau NT ?? C’est que justement le noyau Linux n’apporte aucune avancé majeur en terme de perf/sécurité/futur-proof par rapport à l’actuel noyau NT.



Par contre tenter une migration de noyau comme tu le proposes c’est juste impensable …. Tu te souviens de la cassure de compatibilité lors du passage WinXP -&gt; Vista qui a paralysé l’écosystème Windows pendant 3 ans ? C’était peanuts par rapport à ce que tu proposes …

Dans ton idée :




  • soit Microsoft assure tant bien que mal une compatibilité de son écosystème sur Linux qui ne pourras clairement pas être parfaite pour tiré aucun bénéfice à court et moyen terme

  • soit Microsoft ne conserve pas son écosystème Win32 sur Linux et de par ce fait devient une distribution Linux comme une autre (donc avec une concurrence exacerbé) pour aucun bénéfice même à long terme …



    Sinon je te propose une troisième solution qui sera, j’en suis quasi certain, appliquée dans les 1015 ans qui viennent :

    Microsoft rends ses SKU Mobile et Nano Server open source, pas forcement libre mais open-source avec acceptation possible de commits etc …

  • Inconvénient : Cette solution impliquera le travail acharné de 3 stagiaires pendant 2 semaines pour changer les licences dans la CLUF et dans les différents fichiers sources. Au vu du salaire chez Microsoft je table sur un cout exorbitant de 30 000€

  • Avantage : on garde la compatibilité Win32 qui reste un avantage exclusif à Microsoft car cette partie reste closed-source, la communauté Windows devient la plus grosse communauté de développeur open-source au monde, Microsoft reste maitre de son produit et des lignes directrices, Windows Modern (noyau NT + UWP) devient un système open-source audité et développé par une véritable armée de développeurs professionnel et/ou bénévole (ca entraine forcement une période de transition un peu complexe a géré mais rien d’insurmontable … Ils commencent à géré entre .Net et Chakra).



    Ah et pour info la team Windows utilise Git… Ils auraient pu rester sur leur ancien système … Ce gros travail a dû seulement être fait pour les habituer a faire des commits sur Linux … A moins que … Oh Wait 0.o







    > tazvld a écrit :

    >

    > Oui, je suis d’accord, pour l’instant, Midori, c’est cool, la théorie ça fonctionne. Après, Midori ne semble n’avoir jamais été destiné à être utilisé en tant que tel. Et effectivement, MS ne semble plus s’y intéresser pour l’instant. Je pense qu’à l’heure actuel, c’est surtout parce que industriellement parlant, ce n’est pas à l’ordre du jour, là, ils ont un peu raté le virage de l’embarqué et ce genre de truc n’est peut être pas fait pour de l’embarqué (la perte de performance peut être acceptable sur un ordi de bureau, mais sur de l’embarqué, c’est tout au minimum) et ils sont même à l’unification de leurs OS.

    > Mais voila, MS n’a pas dit que le projet est mort et enterré, il n’y a plus rien à en tirer, alors qu’ils ont de bon résultats. Tout ce qui a été développé peut voir le jour justement sous une forme comme une autre.

    >

    > Ainsi, je répondais à la question : et si MS devait remplacer un jour leur noyau NT par autre chose ? Pour moi, ça serait plus probable que ce soit un dérivé du projet Midori qu’un noyau Linux/Unix (comme le proposait je ne sais plus qui), ce dernier n’apporte rien par rapport à NT, ça ne permet pas de se distinguer du reste des OS, contrairement à Midori.





    En parlant de Midori, Charon de DriversCloud.com m’a parlé de cette video Channel9 - Project Rome: Driving User Engagement with Connected Apps and Devices. Selon lui ca reprend certain concept de Midori : la notion de DLL n’existe plus, les apps UWP communiquent entre elles via des contrats etc… Il en parlera surement mieux si il passe par ici.



    D’ailleurs il a plusieurs fois été dit que les apps WinRT était en partie pensé pour pouvoir fonctionner sur Midori (vu qu’elles sont memory safe etc…), et il est clair qu’à court terme c’est bien l’UWP qui profite le plus des concepts de Singularity/Midori


C’est clair, que Microsoft passe toute la suite bureautique FULL en Web ou en client lourd et on switch 95% des postes et pour les 5% restant, juste le temps de trouver des applications SAS équivalentes pour quelques applications.


Tu ne crois pas si bien dire … L’implémentation de ce sous système pour Linux engendre une surface d’attaque bien plus grande qu’avant.








tazvld a écrit :



Ainsi, je répondais à la question : et si MS devait remplacer un jour leur noyau NT par autre chose ? Pour moi, ça serait plus probable que ce soit un dérivé du projet Midori qu’un noyau Linux/Unix (comme le proposait je ne sais plus qui), ce dernier n’apporte rien par rapport à NT, ça ne permet pas de se distinguer du reste des OS, contrairement à Midori.







C’est dur d’imaginer Midori (ou un dérivé) comme le noyau d’un modèle en couche Kernel/System/User. Midori/Singularity c’est même la négation du modèle de séparation/isolation à l’exécution (remplacé par une garantie d’isolation avant l’exécution).



Ca signifierai renoncer à des sous-systèmes win32, linux, … et donc perdre toute la compatibilité avec la tonne de logiciels existants pour ces deux plateformes.



Et maintenant l grande question : Qui a tué Charon ?<img data-src=" />


NextINpact et ce que sont devenu les commentaires … Quand les débats idéologiques et politiques prennent le pas sur les débats techniques …


Quand on est le passeur des Enfers, n’est-on pas mort (ou dans un état de non-vie) ?



Il s’est peut-être paumé dans un embranchement de l’Achéron <img data-src=" />


Ce genre de système permet également de tester de nouvelle approche … A une époque on parlait de Helios et de Drawbridge (sur lequel ce sous-système Linux s’appuie) pour supporter Windows sur Midori …



Ahhhh Merci pour ce lien ! Je sens qu’on va encore avoir de grands moments d’hilarité.








Séphi a écrit :



[…] on explique bien que la fragmentation qui défonce les perfs c’est has been depuis la migration FAT =&gt; NTFS […]





Tellement has-been que depuis Windows XP, tous ont une tâche programmée en arrière plan pour défragmenter ! Sûrement parce que ça ne sert à rien ?



Bon après le sous-systèmes Linux n’est pas installé de base sur Windows… Il faut aller dans ajout de fonctionnalités Windows et l’installer (comme on installe Hyper-V ou d’autres fonctionnalités orienté pro).. Du coup le parc cible sera plus que limitée donc je ne pense pas qu’on aura beaucoup d’exploit visant Bash for Windows…


j’ai enfin pu regarder le PC ce soir.

La mise à niveau vers Windows 10 s’est faite comme n’importe quelle mise à jour. On arrive sur un écran de fin d’installation qui nous demande d’accepter le contrat (j’aime accepter un contrat après coup…) et si on refuse, on nous propose de revenir à notre ancienne version en nous précisant que ça risque de prendre du temps….

Je comptais passer la machine avant juillet après avoir passé mon PC principal sous Windows 10. Je voulais aussi faire une installation propre, je suis foutu…


J’ai bu de l’eau du fleuve léthé j’ai oublié mon chemin <img data-src=" />



Plus sérieusement je suis sur un gros projet j’ai moins le temps et comme dit arno53 il y a de plus en plus de trolls j”interviens ponctuellement….


Il y a plusieurs années la question a été posée à bill gates directement pourquoi il ne passait pas Windows sur un noyau Linux. En gros il a répondu exactement çà qu’il pensait pouvoir faire mieux.


Arno53 a très bien résumé la situation. En effet si Microsoft décidait de passer sur un noyau Linux les problèmes lors du passage de XP à Vista , ce ne serait rien à côté. Tout ça pour un intérêt quasi nul.








arno53 a écrit :



En parlant de Midori, Charon de DriversCloud.com m’a parlé de cette video Channel9 - Project Rome: Driving User Engagement with Connected Apps and Devices. Selon lui ca reprend certain concept de Midori : la notion de DLL n’existe plus, les apps UWP communiquent entre elles via des contrats etc… Il en parlera surement mieux si il passe par ici.



D’ailleurs il a plusieurs fois été dit que les apps WinRT était en partie pensé pour pouvoir fonctionner sur Midori (vu qu’elles sont memory safe etc…), et il est clair qu’à court terme c’est bien l’UWP qui profite le plus des concepts de Singularity/Midori





Si Le projet Midori a été annulé dans sa forme initiale, c’est surtout parce que c’était un os de rupture en soit incompatible avec Windows. Techniquement ils pouvaient en effet faire tourner win32 dans des conteneurs. C’est ce qui arrivera de toute façon mais gérer deux os totalement différents n’était pas une solution.

Windows 8 en soit était un os de rupture avec ses deux interfaces et plateformes logicielles incompatibles. Si Microsoft avait persévéré vers cette voie avec Midori l’échec était assuré.

La stratégie de nadella est d’incorporer les nouveautés dans Windows 10 progressivement pour éviter une rupture. Ils ont commencé par les composants haut niveau. La base changera surement en tout dernier.



Si on regarde bien la plateforme UWP intègre plusieurs choses qui viennent ou sont inspirés de Midori.



Déjà ils ont isolé la plateforme UWP de la platforme win32 surement dans l’espoir de la rendre native sur un autre base à terme.

Toutes les api UWP sont memory et type safe même pour les applications UWP en C++. Surement dans l’idée de marcher nativement sur un os managé.

Le système d’installation AppX est une grosse inspiration du système d’installation de Singularity. Toutes les dépendances ,les capacités sont définies dans un manifeste XML. Les applications sont toutes sandboxées.



Sur Singularity la notion de dll n’existe pas . Tout le code est scellé avant l’exécution. Les extensions tournent dans des process séparées. C’est un des piliers de Singularity pour la fiabilité.

Au niveau d’uwp les dll existent toujours car c’est Windows mais les dlls sont internes à un AppX et tous les dll internes utilisées sont définies dans le manifeste. Celà permettrait donc un préchargement sur un système comme Singularity.

Au niveau des échanges IPC(InterProcess) Deux SIP(process Singularity isolé) utilisent un système de contrat qui spécifient toutes les données échangées par des données typées. C’est aussi le même système pour appeler des api du systèmes ou d’autres extensions(les extensions sont des process). L’implémentation des api est aussi complètement décorréllé de l’interface qui définit ces API. Sur windows et Linux les api sont juste des routines exportées dans des dll ou .so en tant que symbole dans la table d’exportation du binaire. Potentiellement une application peut utiliser n’importe quel dll et api du système, même si les api exportées sont à usage interne. Singularity définit complètement les api qui peuvent être utilisées par les applications. le but est aussi de faciliter l’évolution de la plateforme pour la compatibilité.



Sur UWP ils ont repris la notion de contrats. Je crois que d’ailleurs joe duffy avait admis que le travail sur le sujet venait de Midori. Toutes les api UWP sont exposées dans du métadata(C:\Windows\System32\WinMetadata) qui va relier les api avec son implémentation. Ils existent des outils(h0x0d en a crée un) qui vont lire ce métadata et renvoient toutes les classes UWP avec toutes les méthodes exposées par le système aux applications. Les api sont regroupées par contrat.



Redstone intègre un nouveau système d’extensions qui fonctionne de la même façon que Singu/Midori décrite au dessus. Toutes les extensions tournent dans un processus séparé. Les échanges IPC se font aussi avec des contrats qui sont spécifiés dans le manifeste APPX.



Microsoft a travaillé sur un autre projet qui s’appelle Helios. C’est un dérivé de Singularity. C’est un système multikernel et distribué. Imaginer un noyau par coeur de processeur. Les SIP(process) sont balancés par un ordonnanceur à l’un des noyaux. Les différents noyaux communiquent par les SIP. La différence par rapport à singularity est qu’on peut faire des échanges entre SIP au niveau local mais aussi connecté. techniquement le SIP peut être exécuté sur une autre machine ou une instance azure de façon transparente.

Il se trouve que le projet Rome destiné à la synchronisation des appareils utilisent un système de contrat pour échanger les données entre les applications sur différents appareils. Bien sur ça n’agira pas à un niveau si bas qu’helios mais certaines idées ont été reprises.



La grosse différence actuelle entre Singu/Midori et UWP reste que UWP agit à un niveau plus élevé. Par exemple avec Singu/Midori le fonctionnement des SIP s’étend aussi aux drivers, ce qui n’est pas encore le cas sur Windows. Mais on ne peut pas nier que UWP a surement été conçue dans l’idée de tourner un jour sur une base similaire.



It’s alive <img data-src=" />











arno53 a écrit :



NextINpact

et ce que sont devenu les commentaires … Quand les débats

idéologiques et politiques prennent le pas sur les débats techniques …





Tu disais ?&nbsp;<img data-src=" />









tazvld a écrit :



Pour moi, ça serait plus probable que ce soit un dérivé du projet Midori qu’un noyau Linux/Unix, ce dernier n’apporte rien par rapport à NT, ça ne permet pas de se distinguer du reste des OS







Je vois au moins une chose que ça peut apporter, et pas des moindres : le développement Open Source du socle de l’OS.



Microsoft assure quasiment seule le développement du noyau NT, du shell… Ça coûte cher, et ces coûts ne sont pas distribués, Microsoft doit les assurer seule. Par ailleurs on a bien vu que ce modèle de développement rend le noyau peu flexible : la preuve, Microsoft a beaucoup peiné à offrir un OS supportant les plates-formes ARM, ce qui a amplifié son retard sur les marchés des smartphones et tablettes.



Si Microsoft utilisait une base GNU/Linux (c’est-à-dire noyau + shell + outils GNU par-dessus), je pense au contraire qu’ils auraient tout à y gagner. Linux supporte déjà tout le matériel ARM, Microsoft se rendrait compatible avec l’immense majorité des serveurs, des smartphones, tablettes… et cerise sur le gâteau, le développement en serait distribué, ça diminuerait leurs coûts de développement, et ils rejoindraient le développement de Linux aux côtés des plus grandes entreprises du secteur : Intel, nVidia, AMD, Oracle, IBM…



Quant au côté « ça ne permet pas de se distinguer » : aujourd’hui un OS ne se distingue pas avec son noyau, les utilisateurs n’en ont rien à faire. Un OS se distingue dans son utilisation, dans ses interfaces graphiques, dans sa logithèque… Regarde Apple : ils ont basé OS X sur UNIX (FreeBSD), ça leur permet de bénéficier d’un socle Open Source, et ils se focalisent sur l’interface graphique et les applis haut-niveau. Il se distingue bien des autres OS sur le marché. Idem avec les différentes distributions GNU/Linux : certaines savent se distinguer et sortir du lot, alors qu’elles utilisent toutes la même base GNU/Linux. Bref, c’est faux de dire qu’utiliser le même noyau ne permet pas de se distinguer.



Je pense qu’à une époque Microsoft gagnait effectivement à avoir un OS complètement différent des autres, et un OS fermé, c’est ça qui a permis leur domination sur le marché PC desktop. Mais aujourd’hui ils ont de plus en plus de mal à suivre le rythme, à l’époque des smartphones, des tablettes, des objets connectés… Le développement d’un OS se fait de plus en plus complexe, pour tous les acteurs du marché, et ça ne fera que devenir de plus en plus complexe. Certains acteurs, comme Apple, ont eu le nez creux d’abandonner leur vieux noyau et d’adopter une base UNIX : ça leur a permis de se focaliser sur l’interface utilisateur et de revenir sur le marché. Pour Microsoft, je pense que Windows coûte de plus en plus cher à développer et à maintenir. Pour l’instant ils espèrent mutualiser les coûts en développant à la fois pour desktop et pour smartphones. Ça leur apportera peut-être un sursis, mais je pense qu’à très long terme (5 ans ? 10 ans ?), Windows représentera un tel gouffre financier qu’ils ne pourront plus en assurer le développement, ça coûtera trop cher. Passeront-ils alors à Midori ou à GNU/Linux ? L’avenir nous le dira…



En tout cas pour l’instant je suis d’accord qu’il y a peu de chances pour que Microsoft passe à GNU/Linux. Ils ont trop investi dans Windows, ils ont leur fierté, et ils ne peuvent pas casser la compatibilité win32 du jour au lendemain. Et pourtant à mon avis, sur le long terme, ils auraient plus à y gagner qu’à y perdre.









Konrad a écrit :



En tout cas pour l’instant je suis d’accord qu’il y a peu de chances pour que Microsoft passe à GNU/Linux. Ils ont trop investi dans Windows, ils ont leur fierté, et ils ne peuvent pas casser la compatibilité win32 du jour au lendemain. Et pourtant à mon avis, sur le long terme, ils auraient plus à y gagner qu’à y perdre.





J’aimerais bien voir en quoi, à terme. Car pour l’instant, les seuls à y gagner sont ceux qui se plaignent de l’absence de dx sous gnu/linux.

Je trouve étonnant qu’on parle de fierté… Je pense qu’il y a bien d’autres arguments, bien plus terre à terre, qui justifient un “non passage de ms vers gnu/linux”.

&nbsp;

Le multiplateforme a du bon, ne serait-ce que pour l’aspect du cloisonnement en sécu. Personnellement je vois d’un mauvais oeil une unification à grande échelle.



J’ai déjà dit ce que je pensais sur le sujet. J’ai toujours pensé que Windows finira par devenir open-source. Un changement de cet ampleur ne peut pas se faire en une fois. Mais ils ont déjà commencé avec plusieurs technos.

Microsoft a surement la plus grosse communauté de développeurs. Ce n’est pas windows qui va passer à linux c’est windows qui deviendra open-source et a des chances de devenir le plus gros projet open source.

Au final oui l’open source gagnera mais pas avec Linux…








charon.G a écrit :



J’ai déjà dit ce que je pensais sur le sujet. J’ai toujours pensé que Windows finira par devenir open-source. Un changement de cet ampleur ne peut pas se faire en une fois. Mais ils ont déjà commencé avec plusieurs technos.

Microsoft a surement la plus grosse communauté de développeurs. Ce n’est pas windows qui va passer à linux c’est windows qui deviendra open-source et a des chances de devenir le plus gros projet open source.

Au final oui l’open source gagnera mais pas avec Linux…







Oui, c’est aussi une possibilité, que Windows devienne Open Source. Sans doute en commençant par sa base, puis en ouvrant de plus en plus. Après, Windows a certes une des plus grosses communautés de développeurs, mais surtout sur sa logithèque. On ne peut pas dire qu’il y a une « grosse communauté » sur le code source de Windows, puisqu’il est fermé… Il faudra donc voir s’il y aura un réel engouement des développeurs pour contribuer au code source de Windows lui-même, et ça c’est une autre paire de manches.



Mais dans tous les cas, je pense que continuer à développer Windows en Closed Source en interne ne sera pas viable sur le très long terme pour Microsoft, c’est trop gros, trop compliqué, trop cher (comme tous les OS d’ailleurs).



L’avenir nous dira quelle solution sera retenue, et surtout sera viable sur le long terme. <img data-src=" />









charon.G a écrit :



Au final oui l’open source gagnera mais pas avec Linux…







Au passage, c’est un sacré revirement pour une boîte qui considérait il y a 10 ans que l’Open Source était un cancer à éradiquer…



eh oui mais je pense qu’à l’époque c’était plus rentable le propriétaire pour Microsoft. La situation n’était pas la même non plus. Je trouve que nadella fait preuve d’ouverture , d’intelligence et de clairvoyance.








charon.G a écrit :



eh oui mais je pense qu’à l’époque c’était plus rentable le propriétaire pour Microsoft. La situation n’était pas la même non plus. Je trouve que nadella fait preuve d’ouverture , d’intelligence et de clairvoyance.







Oui je trouve aussi. J’espère qu’ils vont continuer à ouvrir leurs applis et leurs services aux autres plates-formes.



De l’interopérabilité, et la liberté pour l’utilisateur de choisir son appareil, son OS, son navigateur, ses applis, indépendamment les uns des autres… Oui je sais je rêve éveillé <img data-src=" />





tazvld a écrit :



Très régulièrement, j’ai des problème. Il n’y a pas 1 mois, mise à jour ou que sais-je (Ubuntu Gnome edition): écran noir au démarrage, rien, nada… Je démarre sur un noyau précédent, ça marche … <img data-src=" />

Régulièrement, je fais un “alt+f2, r” pour relancer gnome car j’ai des problèmes d’affichage…

Et ça c’est que pour la partie graphique. Je ne parle pas des programmes qui plantent régulièrement (programme lié à l’OS/bureau comme Kate ou Nautilus).

&nbsp;

Change de distro. Ubuntu est la distro avec laquelle j’ai eu le plus de problèmes de stabilité (même avec une utilisation classique). Linux Mint est largement meilleure, et je suis sous Manjaro depuis 2 ans et demie sans avoir de quoi me plaindre !








Salamandar a écrit :



Change de distro. Ubuntu est la distro avec laquelle j’ai eu le plus de problèmes de stabilité (même avec une utilisation classique). Linux Mint est largement meilleure, et je suis sous Manjaro depuis 2 ans et demie sans avoir de quoi me plaindre !





Exactement pareil, avec le même parcours pour ma part, et je ne me souviens même plus de quand date mon installation de Manjaro tellement elle tourne bien.



Ah moi je sais de quand elle date, j’ai réussi (enfin ! j’ai eu du mal vu la stabilité et la solidité face aux tortures qu’on peut lui infliger) à cramer mon ancienne installation en supprimant malencontreusement les bases de données de paquets.

Le meilleur exemple de la stabilité de cette distro est que ma nouvelle installation est chiffrée + utilise LVM, avec les paramètres de base, et que c’est incroyablement fonctionnel.








charon.G a écrit :



Au niveau d’uwp les dll existent toujours car c’est Windows mais les dlls sont internes à un AppX et tous les dll internes utilisées sont définies dans le manifeste. Celà permettrait donc un préchargement sur un système comme Singularity.







A moins que je n’ m’abuse, c’est possible, le D de DLL signifie exactement le fonctionnement contraire de ce que tu décris non ? On peut donc dire qu’il n’y a plus de DLL du coup ?



question que va-t-advenir de PowerShell du coup ? ceux qui connaisssent les 2 shell peuvent-ils nous dirent si les languages sontrès différents ?








BrainBSOD a écrit :



question que va-t-advenir de PowerShell du coup ? ceux qui connaisssent les 2 shell peuvent-ils nous dirent si les languages sontrès différents ?





Oui.



Les deux langages n’ont clairement pas la même cible d’utilisation ni la même base. Il est impensable de traduire en Powershell un script Bash et je mets au défi quiconque de faire de la maintenance de produit ayant un API powershell développé (Codeplex ou natif) avec du Bash.



Sur singularity/Midori la notion de dll n’existe pas. En fait si tu veux faire un dll c’est un SIP(Process isolé). Mais bon c’est un tout autre fonctionnement.



Sur UWP en effet l’api LoadLibrary ne marche pas. Cependant tu peux utiliser cette api:

https://msdn.microsoft.com/fr-fr/library/windows/desktop/hh447159(v=vs.85).aspx

LoadPackagedLibrary permet de charger un dll à la condition qu’il soit défini dans le manifeste et dans le package. La notion de dll partagée n’existe plus sur UWP.

Cette règle à mon avis ne casserait pas la compatibilité sur un portage vers une base midori like. Comme les dlls sont tous connus par l’installeur. Le système pourrait les précharger et respecter la condition de processus isolé après la compilation.



Pour le JIT, Windows 10 a intégré une nouvelle permission et ajouter ces api:

VirtualProtectFromApp

CreateFileMappingFromApp

OpenFileMappingFromApp

MapViewOfFileFromApp

Ce sont des wrapper d’api win32 existantes qui faisaient déjà le boulot.



Pour le portage du JIT sur un système comme Singu/ Midori normalement ce n’est pas possible à ma connaissance. Ils ont peut être trouvé une solution depuis.



Sur Redstone Microsoft a intégré un nouveau système d’extensions plus fiable. Car pour le moment ce n’était pas possible sur UWP.








wpayen a écrit :



Oui.



Les deux langages n’ont clairement pas la même cible d’utilisation ni la même base. Il est impensable de traduire en Powershell un script Bash et je mets au défi quiconque de faire de la maintenance de produit ayant un API powershell développé (Codeplex ou natif) avec du Bash.





D’autant que si on s’est un micro-poil renseigné, on sait que Microsoft “veut du ps partout” (je vulgarise un tantinet)



Ca ressemble vaguement a un concept que j’avais vu passé il y a quelques temps :

Un kernel QNX qui lançait des busybox a la volée avec un système de distribution applicatifs basé sur portage-git (provenant de funtoo/Daniel Robins) et de la compilation temps réelle sous LLVM (incluant une possibilité de lancer d’autres instances pour accélérer les compilations via bus/management).

C’tait un proof of concept sur un gros clust chez des gens qui ont les yeux bridés pour essayer de faire tourner des cartes x86_64 en “standalone” directement en s’appuyant sur le firmware sans avoir besoin d’utiliser le processeur central des noeuds (et donc réduire l’empreinte générale de la synchro internodes).

Assez chiadé.



D’ailleurs si on va dans cette voie, LLVM + klee + vmkit + safecode serait au poil comme compilo pour ce genre d’environnements.


C’était quoi déjà le bug N°1 vu de Canonical ?

&nbsp;