Sous-système Linux (WSL 2) de Windows 10 : comment l'installer et l'utiliser

Sous-système Linux (WSL 2) de Windows 10 : comment l’installer et l’utiliser

Bientôt avec GPU et interfaces graphiques

Avatar de l'auteur
David Legrand

Publié dans

Logiciel

02/06/2020 9 minutes
110

Sous-système Linux (WSL 2) de Windows 10 : comment l'installer et l'utiliser

Avec Windows 10 Mai 2020, la seconde version du sous-système Linux est désormais disponible. Se basant sur la virtualisation et l'intégration d'un noyau Linux complet au sein de l'OS de Microsoft, elle implique quelques modifications dans son installation et son fonctionnement. Voici ce qu'il faut retenir.

En 2016, Microsoft ouvrait la possibilité d'exploiter des distributions Linux sous Windows, Ubuntu en tête. C'était alors sous forme d'un accès limité à Bash via un terminal spécifique, reposant sur une brique nommée sous-système Linux (WSL). Une fonctionnalité présente dans toutes les éditions de l'OS : Famille comme Professionnel.

Ces instances étaient exécutées dans des processus « pico », les appels au noyau Linux étant convertis à la volée. L'objectif était à l'époque de faire fonctionner des binaires Linux ELF64, et obtenir un environnement Linux en lignes de commandes le plus complet possible. Avec l'accès à un système de fichiers bénéficiant lui aussi d'une adaptation entre les univers Linux et Windows. Une solution à mi-chemin entre émulation et machine virtuelle, se lançant instantanément.

windows wsl linux ubuntu bash
Le sous-système Linux tel qu'implémenté à ses débuts

Le sous-système Linux passe la seconde

Très limité au départ, WSL s'est progressivement renforcé. L'année dernière, son système de fichiers a été revu en profondeur, afin d'améliorer ses performances. Microsoft avait alors dévoilé une partie de ses plans pour la suite, avec l'arrivée d'une seconde version du sous-système apportant une évolution majeure : l'intégration d'un noyau Linux.

Ainsi, il n'était plus question d'assurer une conversion et une gestion partielle, mais bien d'embarquer tout le nécessaire pour retrouver ce qui fait un système Linux complet, virtualisé sous Windows.

De quoi fondamentalement changer l'expérience WSL, tout en gardant ce qui fait sa force : un lancement très rapide, sans outil spécifique ou configuration d'une machine virtuelle n'ayant accès qu'à une portion de la puissance de la machine hôte. Mais WSL 2 apporte surtout de nouvelles possibilités, documentées au fil des mois (comme la gestion mémoire).

Là encore le rapprochement avec Canonical a été essentiel, les deux entreprises communiquant main dans la main sur ce que permet WSL 2, à longueur de billets de blogs et autres vidéos :


Une liste de lecture complète de Canonical et Microsoft évoquant WSL 2

Il en est de même pour Docker qui propose ainsi un accès de choix à ses outils aux développeurs sous Windows, qui peuvent désormais très facilement les exploiter, les interfacer avec Visual Studio Code, etc.  

WSL 1 et 2 ont pour le moment vocation à coexister, l'utilisation du premier étant parfois plus pertinente. Pour Microsoft, c'est notamment le cas « si vous souhaitez utiliser votre distribution WSL Linux pour accéder aux fichiers de projet dans le système de fichiers Windows et que ces fichiers ne peuvent pas être stockés dans le système de fichiers Linux ». De manière générale, le système de fichiers de WSL 1 est ainsi jugé plus performant pour le moment « si vous utilisez des applications Windows pour accéder à des fichiers Linux ».

Mais le système de fichiers de WSL 2 offre de meilleures performances lorsque vous utilisez des fichiers Linux depuis des applications Linux. La conversion des permissions de l'un à l'autre et ses paramètres sont détaillés ici.

Microsoft WSL 2
Contrairement à ce qui est indiqué par Microsoft, les versions récentes de VMWare et VirtualBox peuvent cohabiter avec Hyper-V/WSL

Faire de Windows 10 LA distribution Linux de bureau pour les développeurs

Microsoft a profité de cette période pour travailler en parallèle sur son nouveau Terminal, lui aussi entièrement repensé et profitant de ce qui fait le succès de nombreuses applications du genre : gestion plus étendue des caractères, accélération graphique, possibilité d'ouvrir plusieurs onglets et panneaux, de personnaliser l'interface, etc.

Prochaine étape : le gestionnaire de paquets, avec WinGet (qui demande encore du travail). L'éditeur voudrait-il ainsi faire de Windows 10 la première distribution Linux de bureau ? D'une certaine manière. Mais il veut surtout que les développeurs trouvent dans son OS le meilleur des deux mondes, pour les inciter à y rester. 

Un travail de longue haleine, trouvant sa première implémentation publique avec Windows 10 Mai 2020, qui perdurera avec le support des GPU pour le calcul, des interfaces graphiques, etc. Notez que Visual Studio Code a spécialement été adapté pour profiter du sous-système Linux. Une extension spécifique est ainsi proposée aux utilisateurs (en préversion) : Remote - WSL. Sa documentation détaillée est disponible par ici.

Installer et configurer WSL 2

L'activation du sous-système Linux n'a jamais été un processus parfaitement simple et fluide. Ce n'est pas tellement un problème pour un outil s'adressant principalement aux développeurs, mais Microsoft a déjà promis que cela changerait dans une prochaine version de Windows 10, une unique commande devant suffire. Tant mieux.

D'ici là, il faut encore un peu de travail manuel. La v2 n'a d'ailleurs rien arrangé puisqu'elle nécessite que la virtualisation soit activée sur le système. Cela peut d'ailleurs poser quelques problèmes, notamment aux utilisateurs déjà dans un environnement virtualisé (comme un PC Shadow par exemple). Mais aussi ceux qui utilisent l'outil de gestion Ryzen Master d'AMD qui refuse d'être lancé sur une machine où la virtualisation est active, allez savoir pourquoi.

Il faut tout d'abord activer le sous-système Linux et la plateforme de machine virtuelle dans la liste des fonctionnalités Windows (OptionalFeatures.exe). Vous pouvez également passer par ces commandes PowerShell (Administrateur) :

dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart
dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart

Redémarrez ensuite votre machine. Puisque WSL v1 et v2 coexistent, une distribution peut être installée dans une version ou l'autre, être convertie de l'une à l'autre, etc. Par défaut, v1 est utilisée. Pour que ce soit la v2, il faut que le noyau Linux soit installé. Ce n'est pas encore automatique, il faut donc le télécharger :

Une fois que ce sera fait, validez cette commande :

wsl --set-default-version 2

Vous pouvez ensuite vous rendre sur le Microsoft Store ou en suivant la procédure manuelle pour télécharger et installer la distribution de votre choix comme Alpine, Debian, Kali Linux, OpenSUSE, Ubuntu, etc.

Voici une liste de quelques commandes utiles :

wsl // lance la distribution par défaut dans WSL
wsl -l // affiche la liste des distributions installées
--all // même celles en cours de (dé)installation
--running // seulement celles en cours
-- quiet // seulement les noms
-- verbose // tous les détails

wsl -s distribution // définit la distribution à utiliser/lancer par défaut
wsl --set-version distribution version // convertit une distribution à WSL (1) ou WSL 2 (2)

wsl --shutdown // arrête toutes les distributions et la VM WSL 2
wsl -t distribution // arrête une distribution en particulier

Vous pouvez également demander à une distribution d'exécuter une commande précise : 

wsl -e commande
-d distribution // vise une distribution en particulier
-u utilisateur // vise un utilisateur en particulier

Les distributions peuvent être exportées et importées via une archive au format TAR, pour WSL v1 ou v2 :

wsl --export distribution fichier
wsl --import nom_de_distribution dossier_de_destination fichier --version 1/2

Par défaut, l'espace de stockage passe par un disque dur virtuel (VHD), alloué jusqu'à un maximum de 256 Go. Si vous deviez avoir besoin d'un quota plus élevé, il faudra en passer par une procédure spécifique, détaillée ici. Vous pouvez également limiter l'accès aux ressources : mémoire (80 % par défaut), cœurs CPU, etc. La procédure est détaillée par là.

Accéder aux fichiers et au réseau d'une distribution WSL 2

Les fichiers des distributions Linux sont accessibles depuis votre disque système dans l'explorateur, mais pour éviter tout conflit, le plus efficace est d'utiliser l'interface mise en place par Microsoft. Pour cela, deux solutions s'offrent à vous. La première permet d'ouvrir l'explorateur de fichiers dans le répertoire courant depuis le bash WSL :

explorer.exe .

Dans ce dernier, vous pouvez également vous rendre à l'emplacement réseau \\wsl$\ qui affichera l'ensemble des distributions Linux du système accessibles via WSL et actuellement actives. Pendant la bêta de Windows 10 Mai 2020, l'ajout d'une section Linux à l'Explorateur de fichiers avait été évoqué, mais elle n'est pas encore présente.

Microsoft WSL 2 Visual Studio Code

Si Visual Studio Code est installé sur la machine, vous pouvez le lancer en ouvrant le dossier courant d'une simple commande (voir ci-dessus). Pensez également à installer l'extension Remote - WSL.

code .

Du point de vue du réseau, les différentes distributions Linux ne vont pas chercher leurs paramètres (IP, DNS, etc.) au niveau de votre routeur et du serveur DHCP. Elles sont vues comme faisant partie de la machine, avec un périphérique réseau virtuel Hyper-V gérant leur adresse IP (172.x.x.x dans notre cas), l'accès internet, etc. 

Ainsi, si vous exposez des services via des conteneurs Docker, un serveur HTTP ou autre, ils seront accessibles depuis l'hôte via l'IP 127.0.0.1 (ou localhost). Mais il est pour le moment impossible d'y accéder simplement depuis une autre machine de votre réseau local, et donc d'exposer ces services à l'extérieur. Plusieurs méthodes (notamment via des redirections) sont néanmoins exploitables en attendant que Microsoft améliore la situation, dans de prochaines versions.

110

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Le sous-système Linux passe la seconde

Faire de Windows 10 LA distribution Linux de bureau pour les développeurs

Installer et configurer WSL 2

Accéder aux fichiers et au réseau d'une distribution WSL 2

Commentaires (110)


Je l’ai installé, et ça marche vraiment super bien, vraiment de bonnes améliorations. Très pratique d’ouvrir un fichier avec vscode comme on l’ouvre avec nano ou vim :)

 

Avec Terminal qui passe en v1, que du bon :)



 


Pour l’avoir testé, c’est vraiment BEAUCOUP plus rapide que WSL 1, notamment sur les fichiers internes à la distribution (apt install, etc.). En terme de compatibilité c’est au poil aussi vu qu’on peut enfin exécuter Docker nativement :)


juste une question, on peut le télécharger ou exactement le nouveau terminal ? :)


“Faire de Windows 10 LA distribution Linux de bureau pour les développeurs”. Bah c’est dommage, mais vu qu’avec WSL2 il faut choisir entre WSL et Virtualbox/VmWare… c’est un peu loupé pour le moment.



Je peux pas choisir l’un sans l’autre en fait. Du coup, ça ne va pas me permettre d’éviter d’avoir 2 machines… ou juste VirtualBox.



S’ils règlent ce dernier détail, ça va envoyer du poney.


Qu’est ce que tu fais tourner sur une VM qui ne peut pas tourner sur WSL ?


Je sais qu’avec WSL1 on peut télécharger directement les distributions sans passé par le store (voir doc), est que c’est possible avec WSL2 ?


Ben WSL c’est pour une distri unix. Je ne peux pas faire tourner un autre OS Windows en dehors d’une VM. Je me trompe ?


Perso je préfère garder ma Debian comme distro Linux de bureau. Aucune envie d’avoir des mouchards Microsoft qui tournent en permanence.


ah oui <img data-src=" /> il y a d’autres OS que Linux&nbsp;<img data-src=" />








tiret a écrit :



Perso je préfère garder ma Debian comme distro Linux de bureau. Aucune envie d’avoir des mouchards Microsoft qui tournent en permanence.





Ca s’adresse aux personnes qui dev à la fois sur Windows et Linux surtout :)

C’est en cela que c’est très pratique.



Ou alors tu joue sur Windows, mais tu dev sur Linux, ça marche aussi :)



Justement avec Steam le jeu marche très bien sur Linux pour beaucoup de jeux récents.


Depuis la version 15.5.5 de VMWare Player et Workstation Pro, il est possible d’utiliser WSL2 / Docker / VMWare en même temps car VMWare peut utiliser Hyper-V (“Windows 10 host VBS support”):

https://docs.vmware.com/en/VMware-Workstation-Pro/15.5/rn/VMware-Workstation-155…



J’ai testé et ça fonctionne plutôt bien. Difficile de dire si les performances sont moins bonnes. Je n’ai pas constaté de différence flagrante pour mon utilisation.








tiret a écrit :



Justement avec Steam le jeu marche très bien sur Linux pour beaucoup de jeux récents.





c’est un autre débat, mais oui, il y en a de plus en plus, mais pas tous malheureusement.



Ça c’est une bonne nouvelle. C’était embêtant que l’activation d’Hyper-V bloquait les autres solutions.&nbsp;

Est-ce que quelqu’un sait si VirtualBox est possible aussi maintenant ?


Oui :&nbsp;https://docs.microsoft.com/fr-fr/windows/wsl/install-manual



Merci de m’y faire penser d’ailleurs, j’avais zappé d’ajouter le lien dans l’article&nbsp;<img data-src=" />


c’est cool ça!







la news a écrit :



Dans ce dernier, vous pouvez également vous rendre à l’emplacement réseau \wsl$\ qui affichera l’ensemble des distributions Linux du système accessibles via WSL et actuellement actives.





et ça, c’est franchement super pratique!



Pas de VMWare, donc tout marche sur Hyper-V j’imagine.

Dommage, on aurait pu ajouter des conteneur linux (fournis par les presta) sous nos serveurs Windows (préconisés par les infras)


Je me réponds à moi-même pour VirtualBox. Ça semble être possible de faire cohabiter avec Hyper-V en 6.1.4, le changelog mentionnant le retour de cette fonctionnalité au prix de performance réduite

&nbsp;









Nozalys a écrit :



“Faire de Windows 10 LA distribution Linux de bureau pour les développeurs”. Bah c’est dommage, mais vu qu’avec WSL2 il faut choisir entre WSL et Virtualbox/VmWare… c’est un peu loupé pour le moment.



Je peux pas choisir l’un sans l’autre en fait. Du coup, ça ne va pas me permettre d’éviter d’avoir 2 machines… ou juste VirtualBox.



S’ils règlent ce dernier détail, ça va envoyer du poney.





Si t’as pas de contrainte particulière, essaie de remplacer VirtualBox par Hyper-V, ça marche étonnamment bien. Par contre à vérifier mais je crois qu’il faut un Win10 Pro pour installer Hyper-V.



Sinon tu l’installes depuis les « fonctionnalités additionnelles de windows » ensuite l’interface ressemble pas mal à celle de VirtualBox. Petit plus: les VM Hyper-V tournent en mode service sous Windows, ça peut être pratique si tu as besoin qu’elles soient lancées tout le temps, même quand tu n’es pas connecté à l’affichage.



Il est intéressant de noter que même si WSL2 est basé sur de la virtualisation et que Windows Home ne permet pas de lancer des VMs Hyper-V, on pourra quand même utiliser WSL2 sur Windows Home.


Bah non en fait ça marche pas. Dans l’idée c’est séduisant mais dans les faits…

&nbsp;

1/ Tes données restent exploitées sur un système de fichiers Windows, avec un noyau Windows.

Outre les problèmes de sécurité et confidentialité “as a feature” (configuration moisie pour les utilisateurs multiples, mouchards intégrés), tu ne peux pas profiter de tout ce que te proposes Linux sur la base d’un savoir-faire extensible et portable (ACL, LVM, chiffrement, choix d’un filesystem parmi une dizaine pour avoir qqchose collant au plus à ton cas d’usage, outils gratuits et performants dans les rares cas où il t’arrive qqchose au niveau hardware / partition).

Parce que si vraiment toutes tes données “utiles” tu les manipules par Linux, dans ce cas il est bien mieux de l’avoir en natif.



2/ Tu bénéficies toujours d’un environnement extrêmement limité en personnalisation et contrôle.



&nbsp;- 0 configuration de la manière dont ton environnement de bureau fonctionne,



&nbsp;- impossibilité de réellement “parquer” toutes tes données d’utilisateur Windows sur une partition séparée (il y en a qui ont essayé, ils ont eu des problèmes dès lors que tu touches au LocalData et associés)



&nbsp;- aucun contrôle sur la mise à jour de ton système (tu peux juste “délayer” le moment de la maj, mais au final t’y coupes pas et t’acceptes tout en bloc).





  • grande difficulté à maîtriser ce qui est réellement installé et exécuté (confer par exemple la galère pour se débarrasser de Cortana).



    &nbsp;- utilitaires de base (type explorateur, capture d’écran) extrêmement limités par rapport à ce que fournissent certains environnements de bureau Linux (et bien que KDE est techniquement installable sous Windows, perso j’ai pas encore confiance dans la stabilité du truc ni sa capacité à cohabiter paisiblement, mais faudrait que j’essaye dans une VM à l’occasion tiens ^^).



    3/ Tu bosses toujours sous un système qui en 2020 n’est pas foutu de gérer correctement des trucs de base style…



    &nbsp;- Gestion de la mémoire à l’uptime (particulièrement après plusieurs mises en veilles, en 3 jours le système devient complètement poussif. Sous Linux mon ‘uptime’ moyen est d’un mois, en gros je l’éteins pour les congés et pour les week-ends où je n’ai rien qui tourne en fond).



    &nbsp;- Gestion de charge en général: il m’arrive encore trop souvent à mon goût sous Windows de me retrouver avec une appli qui bloque tant et si bien le système que tu n’as plus qu’à violenter ton système. Et encore il y a eu de gros progrès avec Windows 10 comparé aux précédents, certains problèmes qui avant bloquaient irrémédiablement le système peuvent maintenant être réglés en forçant la déconnexion.

    Sous Linux, cela a toujours été rarissime mais tristement je dois dire qu’on a eu droit à une régression (en tout cas sous Ubuntu et consorts) : avant quoiqu’il arrive dans le pire du pire des cas tu pouvais encore ouvrir un terminal “indépendant” avec haute priorité pour récupérer la main, maintenant ça ne semble plus exister.

    &nbsp;Cela dit, en 20 ans de pratique, la seule appli que j’ai pu utiliser qui trouvait moyen de complètement bloquer le système de manière systématique et irrémédiable était… Mousepad (scoop: c’est un problème qui existe actuellement et qui est gravissime : n’utilisez pas cet éditeur de texte -de toute façon il y tellement de meilleures options- qui a le grand inconvénient d’être celui par défaut de Xfce).



  • Gestion des périphériques externes : lorsqu’un disque externe ou clé externe est connecté, si t’as pas de bol un processus Windows prend la main dessus (analyse antivirale, indexation, ou juste une appli pas bien conçue que t’as lancé puis quitté qui n’a pas proprement rendu la main) : impossible de savoir quel processus garde un handle, impossible de forcer le système à “faire rendre la main” pour démonter. Juste un petit message à la con “système occupé veuillez réessayer ultérieurement”. Sous Linux tu as au moins lsof et d’autres commandes existent (il fût un temps où sous KDE la popup t’indiquait quelle appli bloquait, mais ça a disparu depuis belle lurette tristement, bien dommage car bien pratique).

    Encore plus drôle, lorsque tu as un disque externe qui supporte la mise en veille (donc l’arrêt complet du disque) pour inactivité, lorsque tu cliques tu “démonter”, il réactive le disque… Et donc bloque le démontage pendant plusieurs (dizaines de) secondes. Au lieu de simplement acter le fait que le disque était déjà dans un état permettant le démontage et afficher la confirmation.



  • Obfuscation de l’information système : sous Windows, quand tu observes le moniteur de ressources, tu n’as jamais accès à toute l’information. Typiquement, j’ai 8 Go de RAM, je lance le moniteur avec les privilèges système histoire de, je vois ~“50%” affichés (mettons qu’il indique “3800 Go utilisés”), j’additionne à la main tous les montants des processus indiqués, j’arrive péniblement à ~2000. Où est passée la RAM restante ?



  • Gestion des mises à jour : en 2020, Windows n’est toujours pas foutu de gérer les mises à jour de manière professionnelle et transparente : ça se fait “à l’extinction” du PC (et sans demander confirmation, donc si t’as loupé la popup informative ou que t’as oublié t’es baisé), sans vérifier au préalable qu’il reste assez de batterie pour tenir y compris pour la phase de redémarrage, et t’as 0 information sur ce qu’il fait.



    &nbsp;Confer Linux : dans peut-être 0.5% des cas tu devras redémarrer le système immédiatement (ex maj noyau Linux grave -perso ça m’est jamais arrivé, mais apparemment ça peut il me semble avoir lu un témoignage dans ce sens). Dans tous les autres cas ? Les majs se font…

    * Quand TU le décides,

    * de manière transparente ET sans redémarrage système (ex j’utilise LibreOffice 6.1, je fais la maj vers 6.2 tout en utilisant LibreOffice, une fois fini, QUAND je le désire, je ferme et rouvre LibreOffice, tadaaaa 6.2)

    * ET avec sécurité : tu veux tester la maj d’un nouveau noyau ? Pas de soucis, les anciens sont conservés dans une certaine limite, si t’as le moindre souci, fallback sur une version safe. La nouvelle version de ton appli est toute bugguée ? En une ligne tu reviens à la version antérieure (évidemment si tu as une ribambelles de librairies “bas niveau” qui doivent également être downgradées, là il faut réfléchir <img data-src=" />).



  • Gestion de l’audio : tu ne peux toujours pas, sous Windows en 2020, librement multiplexer ou transvaser des flux audio d’un périphérique à l’autre. Au mieux tu peux d’abord lancer tous les flux que tu veux sur le périphérique 1 (ex musique d’ambiance sur enceintes) puis brancher ton casque pour démarrer une audio, et avoir la musique conservée sur les enceintes tandis que tous les nouveaux flux seront basculés sur le casque. Quand tu utilises des logiciels de traitement audio, pas de soucis, tous les (bons) logiciels te permettent ça. Les applis classiques en revanche? No dice, system features only.

    Sous Linux ? Ça fait au moins 8 ans que tu peux faire ça en un clic (et grandement facilité avec Pulseaudio).



    Je vais arrêter là cet inventaire à la Prévert, à l’intérêt somme toute limité. Je pourrais te citer encore une bonne douzaines de points similaires qui sont juste des trucs “de base” qui rendent l’expérience utilisateur exécrable sous Windows quand tu veux un système fiable et optimisable.



    Je préfère mille fois conserver mon dual-boot et attendre le jour où je pourrai rapatrier mon usage Gaming sous Linux, que de me soumettre aujourd’hui à un système qui, en résumé, m’impose sa vision au lieu de me laisser maîtriser mon système, en plus d’être mal branlé par défaut.


NOTE (Nxi, quand passerez-vous le temps d’édition à 10mn? Sérieux 5mn c’est beaucoup trop court) :

je réagissais juste à l’aspect “développer + jouer”.



Évidemment si tu dois développer des applications multi-OS et que les noyaux linux et windows doivent être supportés ET que Windows reste la plate-forme prioritaire, ça peut être intéressant. :)








jpaul a écrit :



Par contre à vérifier mais je crois qu’il faut un Win10 Pro pour installer Hyper-V.





Je confirme.



Est-ce que c’est corrigé finalement avec WSL 2 ?

Car la mention “Contrairement à ce qui est indiqué par Microsoft, les versions récentes de VMWare et VirtualBox peuvent cohabiter avec Hyper-V/WSL” laisse penser que oui.


Ce que je n’arrive pas à savoir, c’est est-ce que la “hyper-v fallback method” est utilisée tout le temps quand hyper-v est activé ou juste quand il y a une VM (tel WSL) sur Hype-V ?

Autrement dit : Est-ce qu’activer Hyper-V réduit systématiquement les performances des VMs VirtualBox ou uniquement lorsque l’on démarrer un shell WSL ?


Merci David pour la réponse. J’ai vu que VirtualBox avait un fallback sur Hyper-V mais au prix de performances réduites (source 1, source 2).

&nbsp;

La question (du moins ce que je ne comprends pas) c’est si VirtualBox doit utiliser ce fallback dès qu’Hyper-V est activé sur l’hôte ou uniquement quand WSL est actuellement utilisé ? Traduction : est-ce que VirtualBox aura toujours de moins bonnes performances si je m’essaie à WSL ou est-ce qu’il faut juste éviter d’utiliser les deux mêmes temps…



Si quelqu’un a l’information, je suis preneur ! Merci =)


<img data-src=" /> Moi qui viens de racheter une license Pro justement pour ce point. (Via un revendeur de la Fnac, ça va, cela ne coûte pas un bras.)


Voit le bon côté, WSL2 pourrait pousser vers Linux des dev qui n’y auraient jamais pensé.&nbsp;


Un gros +1 concernant les mises à jours sous Windows. Je n’ai jamais compris comment une boite qui brasse autant d’argent peut avoir un système de mise à jour aussi mal branlé d’un point de vue utilisateur (je ne m’avancerai pas concernant le côté technique, c’est pas mon domaine). Quand je demande à un OS d’éteindre un PC je veux qu’il m’éteigne le PC, pas qu’il passe 10 minutes à installer et configurer des mises jours de manière totalement obscure. Idem quand je l’allume.

Idem concernant la mise à jour des logiciels. J’ai mis à jour libre Office sur un PC du taff ce matin, j’avais le choix entre mettre à jour et redémarrer Windows ou fermer Explorer et mettre à jour (et rendre donc Windows inutilisable pendant la durée de l’installation) pour pouvoir utiliser Libre Office après la mise à jour…








Nozalys a écrit :



“Faire de Windows 10 LA distribution Linux de bureau pour les développeurs”. Bah c’est dommage, mais vu qu’avec WSL2 il faut choisir entre WSL et Virtualbox/VmWare… c’est un peu loupé pour le moment.



Je peux pas choisir l’un sans l’autre en fait. Du coup, ça ne va pas me permettre d’éviter d’avoir 2 machines… ou juste VirtualBox.



S’ils règlent ce dernier détail, ça va envoyer du poney.





c’est effectivement reloud de devoir jouer avec les moteurs de VM.



Hello,

Impossible de copier vos lignes de commandes :(








Citan666 a écrit :



blablabla&nbsp;



&nbsp;

Uptime, planifier les MAJ, etc… plus de 20 ans de remarques non MAJ.





Biensur, comme toute liste, des trucs sont exact, et ce style de liste est faisable aussi pour Linux (et même Macos) avec un intérêt tout aussi restreins.



Après, le plus simple, c’est de dire que tu te sens mieux sous Linux, qu’en tant qu’interface chaise clavier, t’arrive à mieux l’exploiter à ton bon vouloir.



Parce que le discourt de X est génial, Y est pourri, qu’il fasse 2 lignes ou 100 lignes, c’est dépassé depuis longtemps.









skyman673 a écrit :



Hello,

Impossible de copier vos lignes de commandes :(





Pas de souci ici, à voir si ça ne vient pas de ton navigateur

&nbsp;



traknar a écrit :



Pas pour WSL2:https://docs.microsoft.com/en-us/windows/wsl/wsl2-faq





C’est même précisé dans l’article ;)









fate1 a écrit :



Un gros +1 concernant les mises à jours sous Windows. Je n’ai jamais compris comment une boite qui brasse autant d’argent peut avoir un système de mise à jour aussi mal branlé d’un point de vue utilisateur (je ne m’avancerai pas concernant le côté technique, c’est pas mon domaine). Quand je demande à un OS d’éteindre un PC je veux qu’il m’éteigne le PC, pas qu’il passe 10 minutes à installer et configurer des mises jours de manière totalement obscure. Idem quand je l’allume.





Autant je comprend que ne pas pouvoir redémarrer instantanément sa machine c’est vraiment lourd surtout si elle est lente mais il est toujours possible de choisir quand installer les mise à jours pour éviter ce phénomène.



Par contre je ne comprend pas ceux qui pestent contre le principe des mise à jours… Windows est en monopole chez les particulier / entreprises et si il est pas mis à jours alors c’est open bar pour les attaque informatique. A l’époque de sasser / blaster un windows fraichement installé ne tenais pas plus de 5 minutes avant infection et reboot en boucle. La seule solution était l’installation d’un os avec les mise à jours ou alors installation hors ligne puis firewall pour bloquer le vers et ensuite mise à jours.



Si demain linux était à la place de windows alors lui aussi “forcerait” l’utilisateur à faire des mises à jours car c’est juste une question de sécurité.









eglyn a écrit :



Qu’est ce que tu fais tourner sur une VM qui ne peut pas tourner sur WSL ?






Un cluster avec minimum 3 noeuds pour tester et valider les fail over automatique ? Comme ça au hasard hein ... <img data-src=">  





WSL c’est bien tant que tu bosses pas sur la partie infra, après il te faut de la bonne vieille VM. Cela dit WSL c’est cool (et Terminal aussi).







skankhunt42 a écrit :



Windows est en monopole chez les particulier / entreprises





C’est faux, notamment pour les serveurs. Et même pour les laptops/desktops tu as de plus en plus de boîtes qui ont autre chose (notamment du Mac pour les graphistes et les devs).



Ouais mais on est en 2020, les vers se font discrets maintenant, plus de risque de bootloop.



Sinon je suis d’accord avec toi, faut que ça se mette à jour seul par défaut, mais le coup des maj sauvage ya 2 ou 3 ans pendant que tu vas pisser (ça m’est arrivé, véridique) a refroidi pas mal de monde. Le système actuel (OSX a le même) de mise à jour auto avec report possible facilement est le meilleur.


On peut maintenant éteindre/redémarrer sans appliquer les mises à jour en attente, tu as le choix au moment ou tu éteints. C’est très récent car je ne l’ai vu qu’il y a peu.








trexmaster a écrit :



Un cluster avec minimum 3 noeuds pour tester et valider les fail over automatique ? Comme ça au hasard hein … <img data-src=" />




WSL c'est bien tant que tu bosses pas sur la partie infra, après il te faut de la bonne vieille VM. Cela dit WSL c'est cool (et Terminal aussi).







Ahah oui évidemment j’étais plus sur la partie “en mode dev sur ton espace de travail” <img data-src=" />









trexmaster a écrit :



WSL c’est bien tant que tu bosses pas sur la partie infra, après il te faut de la bonne vieille VM. Cela dit WSL c’est cool (et Terminal aussi).&nbsp;



Oui, WSL c’est plus pour le dev pour moi. Dès qu’on touche à des choses trop bas niveau, tu dois paramétrer la VM est c’est fichu pour WSL.



Citan666 a écrit :



&nbsp;&nbsp;

1/ Tes données restent exploitées sur un système de fichiers Windows, avec un noyau Windows.

Outre les problèmes de sécurité et confidentialité “as a feature” (configuration moisie pour les utilisateurs multiples, mouchards intégrés), tu ne peux pas profiter de tout ce que te proposes Linux sur la base d’un savoir-faire extensible et portable (ACL, LVM, chiffrement, choix d’un filesystem parmi une dizaine pour avoir qqchose collant au plus à ton cas d’usage, outils gratuits et performants dans les rares cas où il t’arrive qqchose au niveau hardware / partition).&nbsp;



&nbsp;Mais ça contribue à bien séparer le dev de la partie infra. Car ces fonctionnalités, Windows les a.



&nbsp;



Citan666 a écrit :





  • Obfuscation de l’information système : sous Windows, quand tu observes le moniteur de ressources, tu n’as jamais accès à toute l’information. Typiquement, j’ai 8 Go de RAM, je lance le moniteur avec les privilèges système histoire de, je vois ~“50%” affichés (mettons qu’il indique “3800 Go utilisés”),&nbsp;&nbsp;



    &nbsp;Tu dois regarder la plage de travail privée j’imagine, mais du coup tu ne vois pas l’espace mémoire partagé. Et l’espace mémoire partagé ne se somme pas forcément (puisqu’il est partagé avec d’autres…)



J’ai pas vraiment la réponse mais je pense que toutes les VMs VirtualBox passent pas la couche Hyper-V une fois que celui là est installé. Après est-ce que c’est vraiment visible comme impact ?



Pour la question d’utiliser Hyper-V, 2 raisons:




  • portabilité des VMs. Pour avoir tenté plusieurs fois de passer d’Hyper-V sur autre chose avec des collègues je laisse tomber.&nbsp;

  • fonctionne pas sur l’édition famille à la maison








jpaul a écrit :



Sinon je suis d’accord avec toi, faut que ça se mette à jour seul par défaut, mais le coup des maj sauvage ya 2 ou 3 ans pendant que tu vas pisser (ça m’est arrivé, véridique) a refroidi pas mal de monde. Le système actuel (OSX a le même) de mise à jour auto avec report possible facilement est le meilleur.





J’ai deux anecdotes à ce sujet :



. J’ai failli loupé deux fois un train à cause de cette merde car au moment d’éteindre mise à jours.

. J’étais en plein jeu et d’un coup retour windows pour choix de mise à jours je valide et le pc reboot.

&nbsp;





trexmaster a écrit :



C’est faux, notamment pour les serveurs.&nbsp;





Un serveur c’est pas vraiment un pc, hein !





trexmaster a écrit :



Et même pour les laptops/desktops tu as de plus en plus de boîtes qui ont autre chose (notamment du Mac pour les graphistes et les devs).





Les macs sont juste éclatés au sols pour le graphisme… D’après “internet” sur la suite adobe avec un mac à 6000\( t'aura un score de 780 alors qu'avec un pc à 5400\) t’aura un score de 1.016. Quand au mac à 16.000$ t’aura un score de 999.



Si les gens “choisissent” d’utiliser mac c’est parce que&nbsp; certains soft ne sont pas disponible sur windows. Je pense que pour le dev c’est pareil vu que pour dev sur ios il faut forcément utiliser un mac.



J’aimerais bien savoir le pourcentage de hackingtosh la dedans et aussi de ceux qui utilisent bootcamp.



De toute façon le nerf de la guerre dans le choix d’un os reste les programmes tiers que ça soit au niveau de la disponibilité et de la performance. Si demain linux avait un véritable accord avec les fabricants de hardware et que tu gagne 30 fps dans les jeux je peut t’assurer que pas mal de joueurs passerais sur linux au moins pour jouer. Et si la machine le permet ainsi que l’os comme pour mac alors les gens resteraient sur linux et utiliserais un émulateur windows.



Tout comme certains passent à linux car leur machine est trop vielle et que tout ce qu’ils font sur windows est possible sur linux.









skankhunt42 a écrit :



De toute façon le nerf de la guerre dans le choix d’un os reste les programmes tiers que ça soit au niveau de la disponibilité et de la performance.







Tout est dit, surtout en pro.

En perso tu peux parfois trouver de l’alternative, mais en pro ça devient plus compliqué…









Citan666 a écrit :





  • Gestion des mises à jour : en 2020, Windows n’est toujours pas foutu de gérer les mises à jour de manière professionnelle et transparente : ça se fait “à l’extinction” du PC (et sans demander confirmation, donc si t’as loupé la popup informative ou que t’as oublié t’es baisé), sans vérifier au préalable qu’il reste assez de batterie pour tenir y compris pour la phase de redémarrage, et t’as 0 information sur ce qu’il fait.





    gpedit.msc si tu as une version pro et ou entreprise et tu peux faire pas mal de config les updates.



    &nbsphttps://imgur.com/a/TOukyLw

    &nbsp;

    il y a tellement de stratégie local…

    &nbsp;









skankhunt42 a écrit :



. J’étais en plein jeu et d’un coup retour windows pour choix de mise à jours je valide et le pc reboot.

&nbsp;



Ca, c’est un paramètre qui se règle. Le réglage a changé au fil des version mais, ça fait longtemps que c’est réglable, et sans bidouiller.



Et pour le train, une astuce, tu fais comme moi, tu le mets en veille ou veille profonde.









CryoGen a écrit :



&nbsp; l’alternatif





Cela fait plus de 20 ans que j’utilise la suite adobe et je peut t’assurer que l’alternatif ça vaut pas un clou. En fait il faut partir du principe que dans l’absolu la suite adobe ne veut déja pas un clou et que l’alternatif sera toujours pire.



Au mieux avec l’alternatif tu aura une fonction particulière qui fera bien mieux que la suite adobe et généralement ça sera sous forme de plugin ou alors d’intégration allez / retour poussé avec format de fichier compatible à la clef.



C’est par exemple ce qui ce passe actuellement avec la 3D et des logiciels comme substance painter qui sont la parce que la 3D sur photoshop ça pue franchement la merde. Sauf que substance painter c’est de la merde x10 en ce qui concerne l’interface et le côté user friendly.



Du coup tu te retrouve à utiliser les deux softs en même temps et à y faire constamment des allez retour… Tout ça parce que painter permet de localiser un UV mais que photoshop permet d’importer, de positionner des images en un clics et surtout de pouvoir les re-positionner sans avoir à tout recommencer.



&nbsp;









NiKKrO_70 a écrit :



J’ai pas vraiment la réponse mais je pense que toutes les VMs VirtualBox passent pas la couche Hyper-V une fois que celui là est installé. Après est-ce que c’est vraiment visible comme impact ?



Pour la question d’utiliser Hyper-V, 2 raisons:




  • portabilité des VMs. Pour avoir tenté plusieurs fois de passer d’Hyper-V sur autre chose avec des collègues je laisse tomber.&nbsp;

  • fonctionne pas sur l’édition famille à la maison



  • VirtualBox: les VM passent par Hyper-V, la première conséquence c’est que certains plugins ne fonctionnent plus.

  • Portabilité des VM: il y a des outils de conversion, je n’ai jamais eu de problème particulier de Hyper-V -&gt; VMWare

  • Edition Famille: Il faut absolument maintenant activer VT-x/VT-d dans le BIOS et avoir une CPU compatible SLAT (c’est pour cela que j’ai remplacé ma tablette i5-2467m).

    Je confirme que Hyper-V fonctionne sur un PC en i3 4010U/Windows Home (pour faire tourner Android)&nbsp;









ndjpoye a écrit :



Ça, c’est un paramètre qui se règle.





C’est pas normal de découvrir une chose en faisant une mauvaise manip alors qu’il est très facile d’y trouver une parade… Normalement ce genre de délire ne devrait pas prendre le pas sur un jeu en plein écran sachant que si c’est instantané et que t’a un bind sur la touche entrée le processus peut ce lancer. Processus qui t’oblige à ne plus pouvoir rien faire ta machine sur une période de temps qui peut être longue.



Encore pire si le mec est sur windows et est en train d’utiliser le clavier.









Dyfchris a écrit :



gpedit.msc si tu as une version pro et ou entreprise et tu peux faire pas mal de config les updates.



&nbsp;https://imgur.com/a/TOukyLw

&nbsp;

il y a tellement de stratégie local…

&nbsp;





T’as raison. Mais l’utilisateur qui rencontre réellement la situation décrite pas Citan, n’a pas besoin de faire ça.“en 2020” comme il dit. Tu peux le régler la situation entre les paramètres (même en version home :) ) et en lisant le texte avant de cliquer sur Arrêter.









skankhunt42 a écrit :



C’est pas normal de découvrir une chose en faisant une mauvaise manip alors qu’il est très facile d’y trouver une parade… Normalement ce genre de délire ne devrait pas prendre le pas sur un jeu en plein écran sachant que si c’est instantané et que t’a un bind sur la touche entrée le processus peut ce lancer. Processus qui t’oblige à ne plus pouvoir rien faire ta machine sur une période de temps qui peut être longue.



Encore pire si le mec est sur windows et est en train d’utiliser le clavier.





Je n’ai jamais eu ce problème là en plusieurs année (oui, a une époque, j’avais laissé les réglages pour avoir la popup). Pour être exact 1 fois mais en un grand nombre d’année.



C’est pas pour remettre en cause ton propos, c’est pour comprendre. Ca t’est arrivé sur plusieurs jeux ou le même ?

Tu jouais en plein écran ou fenêtre sans bordure ?









skankhunt42 a écrit :



Si demain linux était à la place de windows alors lui aussi “forcerait” l’utilisateur à faire des mises à jours car c’est juste une question de sécurité.







Les principales distributions Desktop installent les mises à jour des paquets en arrière plan par défaut depuis quelques temps déjà.

La différence c’est que c’est généralement transparent (à part une conso de CPU/IO/Bande passante évidemment lors de l’installation..), les paquets mis à jour sont disponibles immédiatement (au pire relancer l’appli, Firefox le détecte par exemple), et le reste sera appliqué au prochain reboot.



Côté serveur, une politique de patch management mensuelle, voire hebdomadaire, se gère sans aucun problème.









ndjpoye a écrit :



C’est pas pour remettre en cause ton propos, c’est pour comprendre. Ca t’est arrivé sur plusieurs jeux ou le même ? Tu jouais en plein écran ou fenêtre sans bordure ?





Je crois que c’était à l’époque fin windows 7 / début windows 10. J’ai du avoir le premier pop vers les coup 18h et j’ai reporté de 4h car j’était en train de bosser. Ensuite sur les coup de 22h en plein partie de counter strike compétitif j’ai le pop up alors que je récupérerait un objet avec la touche entrée.



Au même moment le pop up s’affiche et j’ai perdu le focus ( mais je me souviens pas si y’a eu un vrai retour bureau ) et mise à jours confirmée. Pas osé touché au pc, quand je suis revenu je pouvais plus jouer car bannis 20 minutes.



Et si ça avait été pendant le travail j’aurais vraiment pas kiffé, en plein code hop bam toi attendre 10 minutes… Alors que t’a genre 10 fichier d’ouvert et que t’est à fond depuis très tôt.



T’imagine le mec qui fait Droite puis Entrée ? Le document en cours n’est pas sauvegardé, hop dans cul !









SebGF a écrit :



Les principales distributions Desktop installent les mises à jour des paquets en arrière plan





Et il ce passe quoi si machine plante ou alors coupure de courant ?

&nbsp;





SebGF a écrit :



par défaut depuis quelques temps déjà.





Le choix est fait lors de l’installation de l’os ?



Je ne critiquerais pas Windows, ma dernière expérience datant de W95 … quand on a voulu remplacer mon terminal X par un PC.



Mais je me dis que, les connaissant, s’ils font quelque chose comme ça, c’est que ça doit leur permettre de conserver (voire d’accroître) leur part d’utilisateurs.

Je suppose qu’ils ont dû constater qu’il y en a qui pourraient être tentés d’aller voir ailleurs (gamers ? devs ?) si l’herbe est plus verte, et qu’ils ne veulent pas d’un noyau de moutons noirs qui pourraient démarrer une pandémie.



Ces gens là ne font jamais rien sans raison … financière.








skankhunt42 a écrit :



Je crois que c’était à l’époque fin windows 7 / début windows 10. J’ai du avoir le premier pop vers les coup 18h et j’ai reporté de 4h car j’était en train de bosser. Ensuite sur les coup de 22h en plein partie de counter strike compétitif j’ai le pop up alors que je récupérerait un objet avec la touche entrée.



Au même moment le pop up s’affiche et j’ai perdu le focus ( mais je me souviens pas si y’a eu un vrai retour bureau ) et mise à jours confirmée. Pas osé touché au pc, quand je suis revenu je pouvais plus jouer car bannis 20 minutes.



Et si ça avait été pendant le travail j’aurais vraiment pas kiffé, en plein code hop bam toi attendre 10 minutes… Alors que t’a genre 10 fichier d’ouvert et que t’est à fond depuis très tôt.





C’est vrai que ce popup, je n’ai jamais trouvé que c’était l’idée su siècle. Je pense que c’est sous Windows 7, il ne me semble pas que windows 10 ai proposé le report de 4H, mais je peux me tromper.

&nbsp;



skankhunt42 a écrit :

T’imagine le mec qui fait Droite puis Entrée ? Le document en cours n’est pas sauvegardé, hop dans cul !

Pire, t’imagines une mère qui a ce popup alors qu’elle est sous Word et qu’elle t’appelle parce qu’elle croit avoir tout perdu ? Tu souffres <img data-src=" /> Idem quand ce sont tes collègues de taf <img data-src=" />









skankhunt42 a écrit :



J’ai deux anecdotes à ce sujet :



. J’ai failli loupé deux fois un train à cause de cette merde car au moment d’éteindre mise à jours.

. J’étais en plein jeu et d’un coup retour windows pour choix de mise à jours je valide et le pc reboot.





Ca fait un petit bout de temps que je n’ai pas vu ce popup. Et même, ça fait des années qu’il ne m’a plus forcer un redémarrage.

Sinon, maintenant Windows détecte lorsque tu es en jeu et désactive entre autre les notifications (et les affiches à la fermeture)







skankhunt42 a écrit :



Un serveur c’est pas vraiment un pc, hein !



Les macs sont juste éclatés au sols pour le graphisme… D’après “internet” sur la suite adobe avec un mac à 6000\( t'aura un score de 780 alors qu'avec un pc à 5400\) t’aura un score de 1.016. Quand au mac à 16.000$ t’aura un score de 999.



Si les gens “choisissent” d’utiliser mac c’est parce que  certains soft ne sont pas disponible sur windows. Je pense que pour le dev c’est pareil vu que pour dev sur ios il faut forcément utiliser un mac.



J’aimerais bien savoir le pourcentage de hackingtosh la dedans et aussi de ceux qui utilisent bootcamp.



De toute façon le nerf de la guerre dans le choix d’un os reste les programmes tiers que ça soit au niveau de la disponibilité et de la performance. Si demain linux avait un véritable accord avec les fabricants de hardware et que tu gagne 30 fps dans les jeux je peut t’assurer que pas mal de joueurs passerais sur linux au moins pour jouer. Et si la machine le permet ainsi que l’os comme pour mac alors les gens resteraient sur linux et utiliserais un émulateur windows.



Tout comme certains passent à linux car leur machine est trop vielle et que tout ce qu’ils font sur windows est possible sur linux.





Mac a (avait ?) 2 grand intérêt :




  • pour les étudiants (un minimum fortuné quand même) : à 1000€, le macbook était un excellent ordinateur, de bonne facture, avec une super autonomie (pas besoin de courir après les prises en en salle de cours) et avec la possibilité d’installer la suite MS Office. Je ne sais pas si aujourd’hui c’est encore vrai.

  • pour les développeurs qui ont besoin d’un PC portables : les macbook pro sont des Unix clé en main avec une bonne expérience utilisateur ainsi que l’avantage d’avoir un environnement homogène avec tous les Mac.



    Sinon, j’ai eu vent que les graphistes vont de plus en plus vers Windows car finalement Apple n’a plus grand chose de plus à offrir en terme d’environnement logiciel et matériel. Mais ça ne se fait pas du jour au lendemain.



    En effet, ce que tu oublies, c’est l’inertie générale et la concurrence. Si linux arrive a gagner 30FPS sur les jeux utilisant l’Unreal Engine, OK, mais quid des autres jeux, et tout l’environnement qui n’existe pas sous Linux, les matos non/à moitié supporté (en gros, aujourd’hui, pratiquement tous le matos gaming qui n’ont aucun utilitaires de configuration sous linux). Aller, soit, ça passe, mais avant de sauter le pas, qu’est ce qui empêche Windows de profiter de cette avancé ? Si rien ne l’empêche, on peut toujours espérer que ce gain soit à un moment aussi utilisable dans Windows, et sûrement assez rapidement. Donc est-ce que ça vaut le coup de réinstaller sa machine, oublier toutes ses habitudes accumulé depuis toutes ses années sous Windows et devoir les réapprendre sous Linux (et toutes la frustration qui va avec) ?









Nozalys a écrit :



“Faire de Windows 10 LA distribution Linux de bureau pour les développeurs”. Bah c’est dommage, mais vu qu’avec WSL2 il faut choisir entre WSL et Virtualbox/VmWare… c’est un peu loupé pour le moment.




 Je peux pas choisir l'un sans l'autre en fait. Du coup, ça ne va pas me permettre d'éviter d'avoir 2 machines... ou juste VirtualBox.       






 S'ils règlent ce dernier détail, ça va envoyer du poney.








 La toute dernière version de VMWare Workstation (15.5.5) peut enfin cohabiter avec Hyper-V ;-) https://docs.vmware.com/en/VMware-Workstation-Player/15.5/rn/VMware-Workstation-...  



“Windows 10 host VBS support:&nbsp;&nbsp;VMware&nbsp;Workstation 15.5.5 now runs on Windows hosts with Hyper-V features (For example: virtualization based security) enabled.”



Virtualbox, lui, peut utiliser Hyper-V depuis pas mal de temps.









tazvld a écrit :



qu’est ce qui empêche Windows de profiter de cette avancé ?





Microsoft lui même le jours ou ils ont décidés de sortir une division console quand sega et nintendo étaient en train de “couler”. Le problème avec les pc c’est que c’est bien trop ouvert et qu’il y à pas beaucoup d’argent à gagner, il suffit de voir le four qu’ont été les steam machines. Un pc n’est “rentable” que si monté par l’utilisateur.



Dans le meilleurs des cas microsoft gagne seulement de l’argent avec windows. Sauf qu’un windows qui coute 150€ ça rapporte pas beaucoup sur une durée de vie de 7 ans à 20$ l’année… Alors qu’avec les consoles non seulement ils gagnent de l’argent avec le hardware mais également avec le software ( pour ça que les jeux sont plus cher ) et en plus tu doit payer pour jouer en ligne.



J’ai 160 fps sur fortnite avec mon pc acheté à 800€, mon pote sur xbox lui tourne péniblement à 60 fps, console day one acheté 500€. Puis encore 350€ car il jouent en ligne. Au final il à dépensé autant que moi pour trois fois moins de performance et il ne peut que jouer avec sa machine.



Microsoft à surement pensé à sortir un os orienté gaming à l’époque avec un faible inpact sur les performances et une facilité d’emploi comme une console mais sur le long terme ce n’est pas rentable pour eux.



Et chez apple c’est plus ou moins la même chose ou la tablette est aussi puissante que le portable avec un plus un écran tactile mais l’os empêche de l’utiliser comme un portable. Cette génération c’est vraiment de l’arnaque !



Cette liste est parfaitement à jour. T’es bien mignon mais je bosse sous linux depuis avant l’an 2000. J’ai vécu tous les Windows depuis 1995.



J’ai fait un retour d’expérience comparatif daté d’aujourd’hui.



C'est bien là le problème.       

Windows reste toujours un OS moisi par défaut, qu'il faut passer des heures à configurer (si tant est que tu puisses trouver une doc fiable) pour en faire quelque chose de potable.&nbsp; Et jusqu'à windows 10, c'était sans la moindre garantie qu'ils ne changent pas tout de fond en comble.&nbsp;



En t’imposant toujours LEUR vision, LEURS contraintes.




Alors que Linux, ça fait 20 ans que c'est un système qui m'a jamais fait faux bond en termes de sécurité, qui m'a jamais fait perdre de données en utilisation normale, et qui m'a permis de traverser les évolutions d'environnement de bureau (voire de système complet) en gardant ma configuration est mes données utilisateur de manière transparente, voire l'environnement de bureau lui-même lorsque les nouvelles itérations ne me plaisaient pas (coucou Ubuntu et son environnement chelou dont je me souviens même plus le nom ! Coucou KDE 5 qui comme KDE4 a été une grosse régression en stabilité et fonctions pendant plusieurs années).      






Linux est objectivement mieux sur un nombre d'aspects indécent, notamment parce qu'il a été bien conçu dès l'origine (même si certains paradigmes peuvent soûler parfois, notamment l'approche "librairies partagées" qui est géniale 99% du temps mais peut parfois causer de sévères migraines <img data-src=">).&nbsp; &nbsp;    

Après reste toujours le problème du support matériel où on pleure toujours dès qu'on veut du matos récent ou un peu "hors grand public" (et ça, autant pour la vidéo ça change, autant pour les imprimantes, périph gamers, chipsets réseau, webcams, on est toujours la dixième roue du carrosse).&nbsp;

Dans la mesure où ça ne m’est jamais arrivé en 15 ans, je ne saurais dire ce qu’il se passe en cas de coupure lors d’une mise à jour. J’ai juste eu une interruption brutale en utilisation normale sans update en cours, je relate l’expérience plus bas.

Après, les gestionnaires de paquets ont une forte intelligence sur les dépendances et la reprise des installations, donc j’ai envie de dire que ça reprendra là où ça s’est arrêté ou alors il faut ouvrir le capot, nettoyer ce qui a foiré, et relancer la transaction.

Il ne faut pas oublier que la conception même d’une distrib Linux est une intégration de nombreux packages logiciel interagissant entre eux. Chaque package gérant lui-même son installation, sa mise à jour et à sa désinstallation. Cela laisse donc une forte autonomie pour agir sur un élément défaillant. La contrepartie étant que ça demande de mettre les mains dans le cambouis.



Concernant l’activation, l’installation de Fedora ne demande rien et l’active d’office (c’est un peu son ADN aussi), cela peut se débrayer dans la gestion logiciels du système. Ubuntu l’affiche dans son installeur il me semble (la dernière que j’ai installée c’était la 18.04), proposé par défaut.



A titre personnel le dernier gros souci que j’ai eu avec Fedora, c’était lors d’une coupure de mon portable car j’avais oublié de le rebrancher. Le système s’était mis en “emergency mode” et il m’était impossible de me connecter en root car la version 29 n’initialisait pas le mot de passe root lors de l’install… C’est très con pour le coup. (il me semble que depuis ils ont corrigé ça)

Boot d’un USB live disk en ligne de commandes, chroot pour initialiser mon mot de passe root. Ensuite j’ai pu comprendre pourquoi il refusait de reprendre, problème de filesystem qui n’a pas vraiment aimé la coupure brutale. Après un check filesystem qui a appliqué les corrections, le système a redémarré en mode nominal.

Et dans ce genre de cas qui arrive une fois tous les 36 du mois, tu notes tout ce que tu as fait et enregistre une version offline de tous les sites et threads qui t’ont aidé <img data-src=" />



Dernier élément : avant de sortir l’argument “oui mais mamie n’aurait jamais su faire ça”, je dirais qu’elle aura fait comme n’importe quelle personne non initiée pour n’importe quel OS existant : appeler à l’aide. Ressusciter un OS déglingué reste une opération complexe quand les outils de récupération automatique n’y arrivent pas.


Nope. Jamais. Une distribution Linux qui forcerait ça serait boycottée par n’importe quel utilisateur un tant soit peu connaisseur. Soit, même dans l’hypothèse d’une démocratisation massive et rapide de Linux, au minimum 60% des utilisateurs.&nbsp;



Parce qu’utiliser Linux incite naturellement, d’une manière ou d’une autre, à s’intéresser aux mécaniques de base de l’administration.



Par ailleurs, je te confirme qu’en entreprise, les administrateurs systèmes peuvent effectivement te forcer la main. Et ils te feront les gros yeux s’ils te laissent gérer ta machine et que tu&nbsp; refuses la (ce que je fais d’ailleurs&nbsp; parfois pour conserver mon débit <img data-src=" />). Et en cas de pépin de sécurité, à fortiori si en aval ça conduit à un souci sur le système informatique&nbsp;&nbsp;significatif, àma ça pourrait légitimement s’analyser comme une faute professionnelle.&nbsp;



Le truc c’est que par essence, quand tu es particulier, tu fais ce que tu veux de ton pc. C’est TON bien. Le système peut faire tout pédagogie jugée utile pour t’inciter à faire la mise à jour, te culpabiliser si tu refuses de la faire (parce qu’effectivement, dans les cas les plus graves tu “créées une faille” au niveau d’internet) mais JAMAIS il n’aura la légitimité de te forcer la main.


Je me suis peut-être mal exprimé, je parlais pas de l’utilisation de WSL (je l’installerai peut-être à l’occase par curiosité), mais juste d’un WIndows “de base”.&nbsp;



Je me fous de savoir pourquoi Windows fait ça. Si je veux connaître le détail de toute la mémoire utilisée, je dois y avoir accès. Sous Linux, aucun souci pour ça, t’as même au moins deux commandes de base selon le niveau de détail et le type d’information que tu veux, en plus d’une app graphique pour chaque environnement.


Vos pavés de commentaires sur Linusque VS Windaube, j’avoue que c’est indigeste et déjà vu ^^. Peut être pourriez-vous faire ça sur un ring, avec un peu de boue.

Amicalement.


Et je précise : SANS configurer quoique ce soit hormis le partitionnement initial la toute première fois que je monte un nouveau disque dur (parce que ça les réglages par défaut des distrib je les trouve aussi moisis que ce que propose Windows overall) et mon environnement de bureau (parce par essence l’OS ne peut pas deviner mes préférences) “une fois pour toutes”&nbsp; (tu changes de distrib ? /home sur partition séparée, dans 70% des cas ça passe crème, dans 25% des cas ça s’accompagne de changements mineurs à cause de montée de version qui font que certains fichiers ne sont plus exploités ou ont changé de syntaxe David Goodenough et la rétro-compatibilité <img data-src=" /> et les 5% c’est quand t’as tenté le saut de la foi avec une montée en version majeure de l’environnement complet (quand tu claques d’un coup 3 à 5 ans d’évolutions, forcément … <img data-src=" />).


Merci pour l’astuce. C’est juste dommage de devoir passer par un soft tiers, m’enfin…








SebGF a écrit :



A titre personnel le dernier gros souci que j’ai eu avec Fedora, c’était lors d’une coupure de mon portable car j’avais oublié de le rebrancher. Le système s’était mis en “emergency mode” et il m’était impossible de me connecter en root car la version 29 n’initialisait pas le mot de passe root lors de l’install… C’est très con pour le coup. (il me semble que depuis ils ont corrigé ça)



Ah ouais gros fail de leur part là quand même <img data-src=" />&nbsp;(bon après c’est pas comme si de base sous Linux sur un pc qui n’a pas été proprement sécurisé t’avais moyen de démarrer en ligne de commande en mode maître absolu… ahem Heureusement le côté aride de la chose limite le public potentiel)



(Ah sinon par rapport à un de mes premiers commentaires, je confirme que tristement KDE en tant qu’environnement de bureau n’est pas utilisable sous WIndows de ce que j’ai pu voir, assez logique. En revanche quelques une des bonnes applications sont portées. Pour ceux qui veulent un gestionnaire de photos - bibliothèque - puissant et qu’ils n’ont pas peur d’une interface encore trop riche pour être aisée à prendre en main, digiKam est très bon ;)).



Ce n’est pas un tiers. C’est une partie intégrante de Windows depuis 2003.

&nbsp;Les stratégies local ou de groupe&nbsp; c’est ce qui permet d’administrer un PC (perso ou entreprise hors site) ou un parc entier.








Dyfchris a écrit :



Ce n’est pas un tiers. C’est une partie intégrante de Windows depuis 2003.

&nbsp;Les stratégies local ou de groupe&nbsp; c’est ce qui permet d’administrer un PC (perso ou entreprise hors site) ou un parc entier.





Pire, Windows 95 <img data-src=" />



Donc en gros tu fait un cumul.



Sinon, si t’as tant de problème que ça, alors que tant de monde dont moi les ont pas,vient en a une évidence, le problème est l’interface chaise clavier.

Tu t’ai investi dans Linux, ça te conviens, c’est très bien. Par contre, fait pas porter sur le dos de Windows la méconnaissance que tu as de cet os. Par exemple, tu connais pas pôle dit alors qu’il est inclus dans, Windows depuis la première version que tu as découvert (95). Autre exemple, tu dit ne pas arriver à tenir Windows fonctionnel plus de 3 jours sans devoir le rebooter c’est que, désolé, t’es encore une coche sous Windows.

Je le répète, Linux te conviens, et c’est très bien. T’as des carences sur Windows, c’est pas un mal en soit mais, c’est pas la faute de cet os.








Citan666 a écrit :



Merci pour l’astuce. C’est juste dommage de devoir passer par un soft tiers, m’enfin…



Je précise aussi que les stratégie locale et de groupe Windows, c’es tle gros plus de windows par rapport à Linux: on peut y configurer Windows, les composants Ms, les composants tiers, pousser par exemple la config de Chrome pour tous les postes de l’entreprise… Tout cela à un seul endroit (enfin, j’idéalise un peu, mais ça marche). Je n’ai pas vu d’équivalent sous Linux ou ailleurs qui centralise à la fois le paramétrage du système, de l’interface et des applis et souvent avec autant de finesse.

Cela dit, c’est juste une interface pour pousser des mises à jour de la base de registre, des copies de fichier ou des scripts, selon des critères sur la machine cible.





Citan666 a écrit :



Cette liste est parfaitement à jour. T’es bien mignon mais je bosse sous linux depuis avant l’an 2000. J’ai vécu tous les Windows depuis 1995.




 Windows reste toujours un OS moisi par défaut, qu'il faut passer des heures à configurer (si tant est que tu puisses trouver une doc fiable) pour en faire quelque chose de potable.&nbsp; Et jusqu'à windows 10, c'était sans la moindre garantie qu'ils ne changent pas tout de fond en comble.&nbsp;      

En t'imposant toujours LEUR vision, LEURS contraintes.&nbsp;





&nbsp;Euh… Linux peut-être, mais les distros… Linux est certainement l’OS qui me prend le plus de temps à réinstaller car tout change tout le temps. Les scripts pour monter les interfaces réseaux, maintenant les commandes pour les ponts (brctl obsolète, merci de passer par iptables2 … qui n’a plus tout à fait les mêmes tables visiblement). Systemd qui remplace sysinit, apparmor installé par défaut… Bref, l’impression de réinventer la roue tout le temps, de patauger sur des trucs qui fonctionnaient nickel avant… Genre où je dois mettre le montage de l’interface réseau? Ben ça dépend de la distro…

&nbsp;

Sous Windows, j’ai quasiment le même script netsh depuis Windows XP, la plupart des commandes wmi fonctionnent toujours et powershell a une couverture très complète. Administrer un ou plusieurs postes est quasiment identique si on fait quelques efforts. J’ai les snapshots intégrés depuis XP, la recherche dans les fichiers depuis 2000, la commande vocale (en Anglais) depuis 1999 (un de mes premiers programmes utiles en delphi 3).

Quand à la doc, vu que j’ai grandi avec celle de Windows je m’y repère très bien. Sous Linux je vais à la pèche en permanence, j’ai l’impression de détricoter tout en permanence (du man de l’outil vers le man du fichier de conf, avec les scripts de la distro et les fichiers de conf imprimés et stabilotés à côté).

&nbsp;

Par exemple, j’ai fait de l’OpenVMS, je peux comparer… doc nickel, un outil ligne de commande ou menu terminal par fonctionnalité (réseau/audit/sécurité/disques). Ras, c’est puissant, plein de fonctionnalités, et les bonnes. C’était du vieil OpenVMS (de 1996), mais à l’époque créer un cluster était simple et ça marchait, un point c’est tout.



Chaque OS a ses avantages, mais surtout, chacun ses habitudes. Quelque soit l’OS, il faut se documenter et planifier avant de se lancer. C’est d’ailleurs mon tort dans Linux: l’utilisant surtout à la maison ou de force au travail dans des VM packagées et fournies par des prestas, ça manque cruellement d’organisation et de cohérence.









ndjpoye a écrit :



Pire, Windows 95 <img data-src=" />





awww Okay Thx pour ma culture :)









grsbdl a écrit :



Vos pavés de commentaires sur Linusque VS Windaube, j’avoue que c’est indigeste et déjà vu ^^. Peut être pourriez-vous faire ça sur un ring, avec un peu de boue. Amicalement.





Nos commentaires sont loin d’être une conversation de fanboy, c’est juste un manque de choix et facilité l’orientation d’une personne à faire le meilleur choix. D’ailleurs toute concurrence est bonne quel que sois l’os ça permet au autre de pas ce toucher la nouille et c’est pareil au niveau software.

&nbsp;





ndjpoye a écrit :



le problème est l’interface chaise clavier.





Wait…

&nbsp;





ndjpoye a écrit :



Par contre, fait pas porter sur le dos de Windows la méconnaissance que tu as de cet os.





Je pense qu’a la base si un os est pas intuitif et change constamment alors la méconnaissance augmente et windows c’est vraiment la merde sur pas mal de points notamment le panneau de config. Pour le reste la documentation c’est quasiment le néant et sur internet c’est pas forcément mieux.



Donc quelque sois l’os si la fonction n’est pas intuitive et qu’il y à une doc merdique tu m’étonne que l’utilisateur fasse plein de connerie. Personnellement quand j’ai eu mon premier pc sous windows 95 j’ai du au moins le formater 3 fois la première semaine.



Explorer.exe me prenais 100 mo sur mon disque dur de 300 mo donc hop à la poubelle ! Ha putain ! C’est encore possible actuellement sous windows ? Et sur linux ? Et sur mac ? En combien de temps tu peut péter un os moderne ?

&nbsp;





Citan666 a écrit :



parce qu’effectivement, dans les cas les plus graves tu “créées une faille” au niveau d’interne





Dans les cas les plus grave tu te retrouve avec ton tes dur cryptés et tu perd toute tes données. Heureusement que c’est plutôt rare si ont fait un minimum attention et que ces soft son con con sur les bord. Un truc moins con qui détecterait quand tu sauvegarde ferait un véritable carnage.









skankhunt42 a écrit :



Nos commentaires sont loin d’être une conversation de fanboy, c’est juste un manque de choix et facilité l’orientation d’une personne à faire le meilleur choix. D’ailleurs toute concurrence est bonne quel que sois l’os ça permet au autre de pas ce toucher la nouille et c’est pareil au niveau software.

&nbsp;&nbsp;





Je doute que des commentaires longs comme le bras qui listent les regrets de tel ou tel sur tel ou tel OS, chacun cherchant à renforcer ses propres convictions, le tout sans rapport avec le sujet de départ soient une bonne chose. Pour rappel, pour les discussions globales, déjà vues 200x, il y a le forum. Les commentaires sont là pour réagir au sujet évoqués dans&nbsp; l’article <img data-src=" />



Quand tu compiles 30Go de code source en plusieurs heures, si tu perds même 10% de performances, tu le regrettes assez vite…








brice.wernet a écrit :



Je précise aussi que les stratégie locale et de groupe Windows, c’es tle gros plus de windows par rapport à Linux: on peut y configurer Windows, les composants Ms, les composants tiers, pousser par exemple la config de Chrome pour tous les postes de l’entreprise…





Mais on ne peut toujours pas choisir les mises à jours à appliquer au cas par cas, non ?

On ne peux toujours pas virer complètement Cortana et d’autres apps ?

On ne peut toujours pas choisir non plus ce qu’on transmet à MS ? (on peux bien décocher des trucs mais pas tout enlever il me semble)



vraies questions.

Si je pouvais avoir un windows 10 avec juste le minimum pour jouer, je suis preneur.









David_L a écrit :



&nbsp; soient une bonne chose.





moi ça me sert :p

je ne vais jamais sur le forum et ne lis que les commentaires … et y en a bien quelques uns ici qui m’ont appris des trucs :p









bad10 a écrit :



Mais on ne peut toujours pas choisir les mises à jours à appliquer au cas par cas, non ?

On ne peux toujours pas virer complètement Cortana et d’autres apps ?



vraies questions.

Si je pouvais avoir un windows 10 avec juste le minimum pour jouer, je suis preneur.





Tu peux pour les appli, dont cortana, mais c’est soit une version pro de windows, soit la base de regisre.



&nbsp;Sinon, tu peux te faire une iso avec les utilitaires du genre NTLite. Tu pourras faire du ménage dans les appli, préinstaller tes drivers, et plein d’autres truc. Microsoft a aussi des outils pour faire cela mais, de mémoire, ils sont moins accessibles.



Nb for all : c’est pour répondre à la “vrai question”. Pas besoin de débattre sur la simplicité des manipulations entre faire son windows et choisir sa distrib Linux.









bad10 a écrit :



Mais on ne peut toujours pas choisir les mises à jours à appliquer au cas par cas, non ?

On ne peux toujours pas virer complètement Cortana et d’autres apps ?

On ne peut toujours pas choisir non plus ce qu’on transmet à MS ? (on peux bien décocher des trucs mais pas tout enlever il me semble)



vraies questions.

Si je pouvais avoir un windows 10 avec juste le minimum pour jouer, je suis preneur.







  • Pour les mises à jour: WSUS est ton ami (en entreprise … mais tu peux aussi mettre le rôle WSUS sur Windows hyper-v server il me semble. C’est pas légal, mais ça marche

  • Sinon: proxy filtrant à la maison

  • Pour cortana:&nbsp;https://www.thewindowsclub.com/disable-turn-off-cortana-windows-10/

  • Pour la télémétrie:&nbsp;https://docs.microsoft.com/en-us/windows/privacy/configure-windows-diagnostic-data-in-your-organization

  • Pour les apps: un script au démarrage de l’ordi:&nbsp;



    Get-AppxPackage -AllUsers | where-object {\(\_.name –notlike “*store*”} | Remove-AppxPackageGet-appxprovisionedpackage –online | where-object {\)_.packagename –notlike “store”} | Remove-AppxProvisionedPackage -online



    Windows se configure très bien en ligne de commande. Et les lignes de commandes de XP fonctionnent encore souvent (celles de Vista/7 très souvent). Et l’architecture mise en place en 2006 avec Vista prouve qu’on peut faire des images de l’OS, le démarrer sur le réseau (il y a des démos d’images Windows 10 &lt; 1Go), le faire démarrer sur un VHD pour qu’à chaque reboot il soit propre, snapshoter le FS, injecter des drivers et apps offline pour un déploiement, scripter une création de disque, gérer les espaces de stockages (équivalent à LVM de Linux, avec le RAID, le caching, le tiering)



    Exemple de tiering (je n’ai pas testé, mais je pourrais juste pour confirmer que ça marche sous Windows 10)

    &nbsp;https://nils.schimmelmann.us/post/153541254987/intel-smart-response-technology-vs-windows-10

    &nbsp;

    Bref, tout n’est pas parfait, mais on s’y retrouve bien. Par contre, certaines fonctionnalités sont liées à la licence.









Perfect Slayer a écrit :



Quand tu compiles 30Go de code source en plusieurs heures, si tu perds même 10% de performances, tu le regrettes assez vite…



Je suis partagé. Quand les jobs de compil durent plusieurs heures, on n’attend pas forcément après. Je conçois WSL comme un moyen pratique de passer d’un environnement à l’autre, de façon assez intégrée, et plus léger que la VM. Je ne le vois pas pour héberger un gitlab - là je passe au serveur.

Et j’aimerais pouvoir lancer les conteneurs linux sur serveur de cette façon.



En tout cas, pour les infra “full Ms”, c’est un pas en avant puisqu’on peut espérer utiliser/déployer des solutions en docker linux. Mine de rien, certaines infra sont bien sécurisées avec les outils Ms, et intégrer des Linux c’est à chaque fois faire une rupture - sans compter que les prestas mettent leurs distro préférées toutes différentes et ne mettent rien à jour



Par contre je suis de plus en plus perdu sur la cible à privilégier pour les dev…&nbsp;



Ben quand c’est ta machine personnelle, il y a un moment où tu as envie de pouvoir l’éteindre pour aller te coucher par exemple.



Enfin moi tout ce que je veux savoir si c’est activer Hyper-V pour tester WSL (quelque soit l’usage que j’en ai) aura des conséquences sur les performances de VirtualBox. Si quelqu’un a testé, je suis preneur ! (Plutôt que l’on me dise “est-ce que tu vas réellement voir la différence de performance” ou “ben n’attend pas après ta compil” ;))








Perfect Slayer a écrit :



Enfin moi tout ce que je veux savoir si c’est activer Hyper-V pour tester WSL (quelque soit l’usage que j’en ai) aura des conséquences sur les performances de VirtualBox.&nbsp;&nbsp;



Perso pour de la petite compil, j’ai même tendance à trouver Hyper-V plus rapide. Mais tu es plus limité dans les options de VM (plugins, matériel émulé).

&nbsp;En tout cas, une fonctionnalité que je ne vois pas dans WSL mais que tu as dans VirtualBox: mettre en pause ta VM quand tu éteins pour reprendre le lendemain!



J’ai vu pas mal de news ces dernières années qui semblent aller dans le sens opposé, Windows et XBox se rapprocherait beaucoup. Par exemple, il y a 4 ans ils annonçaient sur leur blog :







blogs.windows a écrit :



Every new title published from Microsoft Studios will support Xbox Play Anywhere and will be easily accessible in the Windows Store.







A voir ce que deviendrait XBox, mais j’ai plus l’impression que ça semble s’orienter vers une solution clé en main spécialisé pour le jeu vidéo. Aujourd’hui, une XBox One, c’est un PC avec un Windows 10 buildé spécialement pour cette utilisation sur ce matériel.





Avec Windows 10, MS CoreOS, la stratégie semble s’orienter vers l’unification de leur OS puis la spécialisation sur des supports (console, lunette AR…). Windows 10 semble être le couteau suisse, le hub centrale de cette stratégie. Plus encore, on peut voir ici dans cette news qu’il s’approche d’autres plateforme, ici Linux en l’intégrant directement, mais avec l’application “Votre Téléphone” Android est aussi pas mal dans la voie de l’intégration. Cette unification est donc a priori beaucoup plus globale.



He ben ca en fait des points. Perso Je m’y retrouve dans aucun. Windows me va tres bien au quotidien, tres rarement eu des soucis avec. Gaming, retouche et montage, rien a dire.&nbsp;



&nbsp;Si je veux bosser (ecrire du code principalement, jour avec docker etc etc), j’ai mon mac et encore dernièrement je regarde un peu WSL pour voir si je peux pas faire un peu de dev sans forcement sortir celui-ci.


Le problème, c’est que tu n’arrives pas à te rendre compte que si tu fais un sondage auprès de la population en général, l’énorme majorité des utilisateurs voudraient purement et simplement ne jamais avoir de mise à jour à faire. Parce que c’est long, chiant et ça sert à rien (du point de vue de l’utilisateur quelconque qui veut juste que quand il appuie sur le bouton ça fait ce qu’il veut et c’est tout). La sécurité, c’est pas important pour eux… tant qu’ils n’ont jamais eu de problème.



Le commentaire que tu as vis-à-vis de Linux, qui « incite naturellement […] à s’intéresser aux mécaniques de base de l’administration » est la raison pour laquelle ça ne décolle pas. C’est clair qu’on a du boulot au niveau de l’éducation des utilisateurs, parce ce sont typiquement des notions nécessaires pour utiliser un ordinateur correctement et instaurer de bonnes habitudes. Quand je vois les gouvernements successifs qui poussent à apprendre la « programmation » à l’école, ça m’énerve, et ça démontre bien qu’en fait pas grand monde comprend le besoin réel : celui que les gens devraient avant tout comprendre comment fonctionne un ordinateur et savoir l’utiliser correctement. Il n’y a pas besoin de savoir coder pour ça. Combien de fois on a entendu cette phrase : « ah, tu travailles dans l’informatique, comment je fais ça dans tel logiciel », ce à quoi j’ai tendance à répondre « parce que quand tu as mal aux pieds, tu vas voir ton dentiste ? Ben quoi d’après ton raisonnement c’est pareil, il est médecin aussi ». Perso, je vois ma famille : si les mises à jour Windows n’étaient pas automatiques, je crois bien qu’ils tourneraient encore sur la version Vanilla de Windows 10 ! Typiquement, je m’efforce de leur dire de faire les mises à jour quand elles arrivent, et des fois je me mange un « ça va, c’est bon, y’a pas besoin », mais qui on appelle quand le compte Facebook est piraté ? Ben c’est le frangin support informatique gratuit Plasti bien-sûr ! (alors qu’on est bien d’accord que le piratage du compte Facebook, j’y peux rien !).



Je suis comme toi, je fais mes réglages et installe mes mises à jour manuellement, et je peste comme c’est pas permis contre le système de mise à jour de Windows qui a tous les défauts énumérés dans de nombreux commentaires ici. Je préfère l’approche MacOS qui coupe la poire en deux : les mises à jour système peuvent être assez longues, mais l’utilisateur peut choisir de soit se faire harceler pour l’installer, soit faire en sorte qu’elle soit installée automatiquement. Ça permet d’éviter d’avoir une mise à jour vers Windows 8.1 de 1h30 qui se lance automatiquement en plein boulot (vécu !).



Bref, tout ça pour dire que c’est clair que le système de mise à jour de Windows est perfectible, mais que tu te trompes lourdement sur les attentes d’une écrasante majorité d’utilisateurs qui n’en ont mais alors franchement rien à foutre des mises à jour, et qui préféreraient que rien ne change jamais. Et qu’il faut que ça change.


Pave cesar ! +1



Meme pour le mac de mon amie, c’est moi qui m’y colle. Pareil pour son iphone, ou meme les apps sont rarement a jour parce que faut pas que ca change.

Chaque mois je passe pour les lancer a sa place vu qu’elle enleve les mises a jour auto a coup de mon appareil est plus lent, il faisait pas ci ou ca avant, il a la peste… c’est ta faute avec tes mises a jour ca marchait bien avant <img data-src=" />

&nbsp;

Tous les Pcs aux alentours avec des gens lambdas qui ne s’interessent pas a l’informatique, ne seraient pas a jour si c’etait pas automatique. Deja, je dis merci aux adblock et compagnie qui font qu’on m’emmerde plus tant que ca.


+1 :)



Si les maj n’étaient pas automatiques ou spammées sur Windows, j’imagine pas la tronche du parc informatique du “particulier” <img data-src=" />








tazvld a écrit :



Aujourd’hui, une XBox One, c’est un PC avec un Windows 10 buildé spécialement pour cette utilisation sur ce matériel. Avec Windows 10, MS CoreOS, la stratégie semble s’orienter vers l’unification de leur OS puis la spécialisation sur des supports (console, lunette AR…). Windows 10 semble être le couteau suisse, le hub centrale de cette stratégie.&nbsp;



&nbsp;

Je suis entièrement d’accord avec ça mais je pense pas qu’un jours on verra xbox OS sur pc sinon microsoft perdra un maximum d’argent. Par contre il est peut être possible qu’un jours on verra windows desktop sur console car elle deviennent de plus en plus puissante.









skankhunt42 a écrit :



&nbsp;

Je suis entièrement d’accord avec ça mais je pense pas qu’un jours on verra xbox OS sur pc sinon microsoft perdra un maximum d’argent. Par contre il est peut être possible qu’un jours on verra windows desktop sur console car elle deviennent de plus en plus puissante.





Et pourtant, techniquement, l’OS des Xbox One n’est qu’un W10 depuis quelques années maintenant :&nbsp;https://www.polygon.com/2015/8/10/9126899/phil-spencer-obliterating-distinction-between-xbox-pc-gamescom-interview-2015&nbsp;Les prochaines Xbox Series au final ne seront que des PC réellement pensés pour les gamers, mais dans un autre form-factor, et avec une UX développée pour le contrôle à la manette (et p’t’être des drivers particuliers, mais ça je&nbsp; sais pas).

Le business modèle de MS n’est plus basé sur la vente de licences perpétuelles (auxquelles on pourrait assimiler les Xbox) mais sur la consommation (Abonnements Xbox Live, Game Pass …) sur différents “Edge” (XCloud, W10, Xbox). (on peut répliquer ce schéma sur la partie Enterprise aussi).

Preuve en est s’il en faut, les exclus des Microsoft Studios (à tout hasard, Gears of War ou Halo) deviennent dispo sur le pc, sans même acheter de Xbox.&nbsp;



A la différence que si tu joue en ligne à halo sur pc c’est gratuit alors que sur console c’est payant et sur une génération c’est plus ou moins le prix d’une bonne carte graphique. Par contre il est tout à fait possible que payer ne sois plus obligatoire sur la prochaine génération et d’avoir un véritable OS sur console et un OS de console pour desktop ce qui leur permettrait d’augmenter d’un coup leur part de marché alors que sony lui est coincé.



&nbsp;








skankhunt42 a écrit :



&nbsp;

Je suis entièrement d’accord avec ça mais je pense pas qu’un jours on verra xbox OS sur pc sinon microsoft perdra un maximum d’argent. Par contre il est peut être possible qu’un jours on verra windows desktop sur console car elle deviennent de plus en plus puissante.





Microsoft ne gagne pas des masses sur les consoles en elle même, c’est plus sur les jeux et les accessoires qu’il y a de la marge, donc un Xbox OS sur PC ne leur ferait pas forcément perdre beaucoup.

De toute façon, ils poussent à ce que les jeux Xbox soient aussi dispo sous Windows, donc on n’est pas si loin d’une situation où l’OS Xbox serait sur PC… Suffirait en fait de prévoir un vrai mode jeu dans Windows, qui désactive un maximum de choses pour maximiser les performances.



Et la console gardera l’intérêt d’être une config de référence, avec un OS et des jeux optimisés pour tourner au mieux sur cette config, sans que l’utilisateur ait à se poser la question de savoir si ça va bien tourner ou non.



C’est plus compliqué que ça malheureusement… Microsoft gratte environ 50\( l'année pour le online c'est énorme comme chiffre. Au risque de me répéter c'est quand même 350\) sur une génération sois le prix d’une carte graphique pour pc ou alors le prix d’une console en milieu de génération.



Ensuite pour les autre jeux Microsoft gratte un coup à chaque vente donc si un joueur passe sur pc microsoft perdra cette gratte car elle ira ou dans la poche de l’éditeur ou alors d’un market comme steam.



Si microsoft sort ces jeux sur pc c’est pour les joueurs PC mais à aucun moment ils ne veulent que leur joueurs passent du côté obscure. Le meilleur exemple étant “l’impossibilité” de brancher un clavier + souris sur une xbox. T’a la syncro verticale activée et tu ne peut la désactiver ce qui rajoute une tonne d’input lag et l’accélération de la souris et la encore pas possible de désactiver.



Quand à la configuration de référence, il suffirait juste d’acheter le même type de processeur + carte graphique mais au lieu du bas de gamme ça sera du milieu / haut de gamme. Tu rajoute un plus gros disque dur et&nbsp; de la ram et c’est bon t’est compatible. C’est d’ailleurs comme ça que fonctionne un hacking tosh non ?


Oui, mais pas pour les même raison.

Non, je ne pense pas.



“Windows 10 on Xbox One” (surnom donné à l’actuelle version de l’OS de la XBox) est sûrement beaucoup trop spécialisé au matériel pour pouvoir un jour tourner sur un PC sans aucun soucis. Et vu que les consoles restent du matos custom (ce n’est pas une steambox : le , difficile de faire le portage sans un dégradation des performances.



Et de l’autre coté, une console n’a que faire d’un OS généraliste qui bouffe des ressources pour des truc qui ne sont pas pour le jeu. Aujourd’hui, la tendance pour XBox/PS semble encore miser sur toujours plus de puissance dédier au maximum pour le jeu (quitte à importer plus de puissance du cloud).



Mais l’avenir de XBox et de la console de salon, selon moi sera plus dans le cloud avec des service similaire à Stadia que dans du matériel toujours plus puissant chez le particulier.


Sur le store MS: https://aka.ms/terminal

Si c’est bien celui auquel je pense…


Tu oublie un truc très important : Le dual boot ! Rien n’empêche microsoft de caler un os orienté gaming qui maximise les performances et un os orienté desktop pour travailler. Avec un ssd le boot / reboot sur l’os gaming peut être quasiment instantané et je connais peut de joueurs qui font des sessions de jeux de 10 minutes. Et puis au pire et bien tu reboot pour repasser en mode desktop avec restauration automatique de tout ce qui était ouvert un peu comme un mode veille.



Quand au cloud, tomb raider en 4k sur stadia c’est une demi seconde de lag hein… Et avec la fibre ! Alors pour cette génération ça sera encore du matos dans le salon, puissant comme un pc moyen de gamme d’il y à 2 / 3 ans.



Après n’oublie pas que si microsoft n’a pas à porté ces jeux c’est de l’argent économisé, pareil dans le choix hardware d’une console. A la limite le seul truc déterminant c’est la carte mère. Le reste c’est de la ram, une carte graphique et un processeur classique sauf que tout est soudé.



Ça permet aussi au développeur tiers de moins ce prendre la tête même si la plupart utilisent unity / unreal engine qui propose nativement l’exportation sur console. Sinon impossible pour une petite équipe de sortir un jeu sur switch / xbox / sony / pc.








skankhunt42 a écrit :



Tu oublie un truc très important : Le dual boot ! Rien n’empêche microsoft de caler un os orienté gaming qui maximise les performances et un os orienté desktop pour travailler. Avec un ssd le boot / reboot sur l’os gaming peut être quasiment instantané et je connais peut de joueurs qui font des sessions de jeux de 10 minutes. Et puis au pire et bien tu reboot pour repasser en mode desktop avec restauration automatique de tout ce qui était ouvert un peu comme un mode veille.





En fait, t’es pas loin de la solution de la XBox One. Au lieu d’un dual boot, penses hyper-V En fait, sur xbox one c’est ça : deux os, un pour les appli, l’autre pour les jeux, tout ça, mixer par une dose d’hyper-v. cf ici



Pour le cloud gaming, c’est un sujet sur lequel ils se positionnent, et ils avaient fait des annoncent indiquant qu’ils étaient près dans le futur à partir vers cette voie à la place du type de console actuelle. Mais je pense que seul le marché décidera et que s’ils voient que c’est pas la bonne solution, ils garderont les consoles “classiques”. Mais ça, c’est que mon avis.



Le fait de faire payer le jeu en ligne, c’est pas lié directement au matériel. Microsoft pourrait tout a fait faire la même chose dans un Xbox OS pour PC, et même sous Windows 10.



Pour les jeux des autres éditeurs, Microsoft prend effectivement sa part sur Xbox mais pas sur PC quand ils sont vendus autrement que via le Microsoft Store. Mais là encore, avec un “Xbox OS” pour PC, ça ne serait pas un problème, puisque cet OS pourrait être restreint au Microsoft Store, comme l’est l’OS de la Xbox (pas de Steam et co sur Xbox…).



Bref, Microsoft pourrait tout a fait monter un écosystème type Xbox, avec les mêmes sources de revenu, mais avec une base matérielle plus ouverte.

&nbsp;







skankhunt42 a écrit :



A la limite le seul truc déterminant c’est la carte mère. Le reste c’est de la ram, une carte graphique et un processeur classique sauf que tout est soudé.





Non, tu ne peux pas reproduire l’architecture d’une Xbox One avec des composants du commerce. L’architecture mémoire est spécifique, avec un espace mémoire unique en GDDR utilisé à la fois par le CPU et le GPU









SartMatt a écrit :



Le fait de faire payer le jeu en ligne, c’est pas lié directement au matériel.



&nbsp;

Bien sur que si vu que le hardware est quasiment vendu à prix coutant il faut bien récupérer de l’argent “ailleurs”. Tout comme chez sony ou chez un assembleur pc ou parfois le “montage” est facturé 150€.



Même si une xbox ressemble techniquement à un PC, c’est oublier que ça reste un matos custom et va avoir des modifications matériels car spécialisé pour le jeu vidéo. Par exemple, on sait que la PS5 aura un SSD au débit de dingue, mais en réponse MS a expliqué qu’au lieu de faire dans la puissance brut et no-brain, ils ont intégré un système qui permet un chargement en mémoire uniquement les parties utilisées des textures et ceux grâce entre autre à des spécificité matériel de la XBox Série. Ca dans un PC, tu ne l’as pas, et pour compenser, ça risque d’être difficile.



Même si avec AMD, MS et Sony partent sur une base de puces du catalogue, il y a une partie de personnalisation, et le fait d’avoir la main de bout en bout dans l’assemblage et l’OS leur permet de ne pas se contraindre à des normes et tirer le maximum du matériel. Et toutes ce petites personnalisation se retrouve dans l’OS et dans son optimisation. Or, un PC n’ayant pas ces particularités matériel, il ne pourra pas profiter de ces optimisations, ça sera au mieux un canard boiteux (tu ne peux pas tirer profit de quelque chose qui n’existe pas). Un “OS Windows 10 on XBox” devra forcément passer par de l’émulation logiciel avec la perte de performance qui va avec.



Sinon, tu peux toujours regarder du coté du game mode de Windows 10, qui est un début dans ce que tu recherche (a priori, pour l’instant ça aurait plus tendance à contenir les chutes de framerate qu’à l’augmenter)





Pour le cloud : aujourd’hui la technologie est encore dans ses balbutiement et pour l’instant, la latence est très dépendante de la qualité de la connexion et du service. C’est aussi quelque chose qui fera sûrement partie des optimisation par les dev du jeu (tout comme aujourd’hui ils optimisent leurs jeux pour chaque console). Tu n’es pas le seul à avoir eu une mauvaise expérience, mais de l’autre coté, il y a aussi pas mal de personnes qui ont eu une expérience très corrects. J’ai regardé en effet différents tests, est en gros pour Stadia, il faut vraiment une connexion solide, mais en tout cas, les tests récents disent que ça n’est pas si mal que ça (Stadia a eu un lancement calamiteux). Et les retour sur les autres plateforme semble aussi aller dans ce sens.



Mais de l’autre coté, le cloud a beaucoup de point commun avec le monde console (aspect “plateforme”, le coté clé en main…) et apporte de nombreux avantage (disparition des “générations” avec upgrade continue du matériel et portabilité). L’adoption ne se fera sûrement pas d’un seul coup, il y a encore pas mal de problème à régler, il faut aussi habituer les joueurs à ce genre de service et ce que fait Sony avec son PS Now, c’est exactement ça et il le fait très bien.



Donc selon moi (ma boule de cristal) on a encore 1 ou 2 générations de console classique, mais le cloud va pas mal pointer son nez sur la prochaine génération et je pense que les service comme PS Now vont pas mal se développer et je ne serais pas étonné de version “cloud” des consoles (façon Stadia).


Sisi.




Je suis désolé, quand en tant qu'utilisateur j'installe un OS PAYANT, qui se présente comme SIMPLE, j'attends qu'il soit irréprochable.       






Pas qu'il soit assez stupide pour, par exemple, télécharger silencieusement ses mises à jour jusqu'à blinder ma partition principale jusqu'à avoir 0 octet disponible. Ce qui est d'un amateurisme sans non.  La base de la base c'est vérifier AU PRÉALABLE que t'as l'espace nécessaire pour télécharger et décompresser.      



Je peux te sortir une bonne dizaine d’exemples comme ça.






Et tous les problèmes que je signale, TOUT LE MONDE les a.       

C'est juste que tout le monde n'utilise pas aussi intensivement que moi ou de la même manière.





Et pour s’informer et apprendre, bah t’es baisé tout pareil. T’as déjà

vu un message d’erreur qui soit réellement informatif ? Moi jamais. Sous

linux, au moins tu peux copier coller pour fouiller le web.

et je te

parle pas de “l’assistant de résolution des problèmes” qui ne t’informe

en rien de ce qu’il fait (s’il fait quelque chose) pour aboutir dans

99.99% des cas à “j’ai pas réussi à résoudre le problème”. Même sur les

trucs purement système type réseau / audio / matériel.




Libre à toi de conserver tes oeillères, je te remercierai d'éviter de m'insulter cela dit. :)      

Windows 95 c'était du paléolithique, windows 10 c'est le moyen-age.

&nbsp;

Sisi je m’en rends parfaitement compte. :)




Mais là on est entre utilisateurs avertis (enfin, je crois), je parlais pas du public général. <img data-src=">  



Sauf que soit dit en passant, quand tu fais le support informatique pour des gens qui veulent vraiment pas apprendre à gérer, tu peux toujours facilement ajuster la manière dont les MAJs se feront au cas par cas, en tout cas sous Linux (crons + configs du gstionnaire de paquets), pour que justement les majs soient faites sans interaction de l’utilisateur mais en le laissant tranquille en termes de “charge”. :)


Je n’en doute pas. Je suis sûr que plein d’autres gens ont des soucis que je n’ai jamais rencontré également, sous Windows comme sous Linux. ^^



C’est juste que oser dire que “si t’as le souci c’est juste que tu sais pas t’en servir” c’est du fanboyisme total.

Perso je n’ai aucun souci à reconnaître qu’il y a des cas où Linux est compliqué (manque de features ou de doc), ou des domaines dans lesquels c’est pas satisfaisant. sauf que je sais aussi que dans la majorité des cas le problème vient des constructeurs (pilotes graphiques / puces réseau Killer) ou éditeurs (protocoles Samba ou ActiveDirectory, formats proprios de données), et qu’on parle d’une communauté de devs qui n’a pas forcément les sources pour bosser (typiquement rétro-ingénieurie à l’aveugle), et dont au moins une bonne moitié sont des bénévoles (je dis pas plus parce que les devs rémunérés sont quand même de plus en plus nombreux).



Alors que Microsoft a 1000 fois les moyens d’embaucher la crème de la crème des devs pour 30 ans, fait payer (cher) pour ses produits, et prétend en plus être efficace.

Ça me paraît donc assez normal d’avoir des attentes sur le niveau minimal de qualité d’expérience au moins égal à ce que que j’ai sous Linux. :)








tazvld a écrit :



Même si une xbox ressemble techniquement à un PC, c’est oublier que ça reste un matos custom et va avoir des modifications matériels car spécialisé pour le jeu vidéo. Par exemple, on sait que la PS5 aura un SSD au débit de dingue, mais en réponse MS a expliqué qu’au lieu de faire dans la puissance brut et no-brain, ils ont intégré un système qui permet un chargement en mémoire uniquement les parties utilisées des textures et ceux grâce entre autre à des spécificité matériel de la XBox Série. Ca dans un PC, tu ne l’as pas, et pour compenser, ça risque d’être difficile.



&nbsp;

Enfin tu sais entre “le bullshit” marqueting et la réalité il y à surement un gouffre… Dans les faits une console doit pouvoir tenir au moins 7 années donc forcément qu’il y aura du matériel d’avant garde via un rabais de la vente par lot.



Je suis sur que si tu sort le discours pour la ps4 c’était du même acabit genre disque dur 7200 tour minutes. Non seulement c’était aussi disponible sur pc mais en cassant le porte monnaie tu pouvais avoir un ssd. Et trois ans plus tard les ssd sont devenu vraiment abordable.



Après concernant la mémoire la ram augmente de plus en plus sur les carte graphique et la ram classique baisse de plus en plus. Avoir 16 go est juste devenu un standard aujourd’hui et dans 3 ans ça sera surement 32 go.



Bon on s’écarte un peu du sujet je pense !



ps : N’oublie pas qu’il y à une part de marché énorme au niveau de la rétrocompatibilité car les jeux ps4 seront toujours jouable, le standard de qualité graphique est enfin la et avec les nouvelle génération le framerate pourra suivre. Parce que mine de rien les mecs ils ce tapent quand même 30 fps sur gta !



Déjà la notion de simplicité n’étant pas universelle, est vue le panel très large d’utilisateur qu’un os doit satisfaire, gratuit ou payant, c’est inatteignable. Vue que tu dev, c’est un problème que t’as déjà du rencontré dans tes prod.

Mais si je réponds, c’est parce que tu parles d’insulte.

Ne te m’éprend pas, ce n’est pas le but, loin de là.

Quand je dis “quiche” sous Windows ( le clavier du portable a changé ça en coche, et laisse donc libre court a de nombreuses interprétation :s), c’est pas une insulte.

Je pourrais tenir exactement le même discourt que toi sous Linux. Penser qu’en prenant le message d’erreur sous linux, on peut trouver une solution ? He ben, j’ai vraimant pas eu de chance y a deux ans quand j’ai due essayer de monter mon serveur samba en raidlogiciel au boulot. Que ce soit les message sous OpenSuse, sous Debian, etc…. ben vraimant, j’ai pas dû avoir de chance car, j’ai pas trouvé tant d’aide que ça. C’est vrai aussi qu’il y a beaucoup de tuto. Sauf que, les distrib Linux évoluent tellement, et certains outils changent tellement d’interface entre deux version que, ça correspond plu. Et je peut continuer, continuer, continuer…

Mais ça sert à rien. Oui, j’étais une quiche dans ces domaines là (maintenant, je suis juste un peut au dessus de ce stade) donc oui, j’ai eu plein de problème avec Linux ce coup là (c’était loint d’être la première foi d’ailleur). Est ce que je pense tout au temps que Linux est pourri ? Biensur que non. Les raisons sont diverses et certaines sont dû à l’interface chaise clavier (les autres c’étaient des pb de drivers provenant de chez HP).

Et non, tout le monde ne les a pas la liste des problèmes que tu dit. La preuve, actuellement c’est mon OS exclusif, et je les ai pas depuis longtemps. Après, je peux aussi te parler de machine windows 7 pro, en mode install par défaut, qui réalisait ses tâches en continue (surveillance continue de matériel électronique), avec IIS, SQl Serveur Express et des services codés comme un mache par mon prédécesseur, qui avaient un uptime de plus d’un an (des machines démo qui avaient été …. oubliées :s). Et je peux te faire aussi une liste. Mais dans quel but, ça change rien.

Donc sur ce point, on n’est pas d’accord, et on ne le sera probablement pas demain non plus sur ce sujet. Mais, que ce soit bien clair le but, ce n’était pas d’insulté.


Peut être que l’écrasante majorité des utilisateurs dont tu parles sont saoulés justement par le fait que les mises à jour sous Windows sont une plaie avec une vingtaine d’années de retard ? Pour quelques mises à jour standard (c’est à dire pas une mise à jour du système), il faut parfois autant de temps à windows que j’en mets sous linux (Fedora) pour une mise à jour de version, tout simplement parce que tout est structuré dans linux pour que la mise à jour soit simple.

Pour une mise à jour standard : je (ou plutôt dnf) cherche mes packages à mettre à jour, les télécharge, les installe et la transition se fait même (comme le dit Citan) sans redémarrage avec certaines des applis mises à jour qui tournent pendant le processus de màj. Quasi même topo pour un changement de version, sauf que là, tous les paquets sont concernés et qu’il faut redémarrer et choisir d’appliquer la màj au redémarrage.



Quelqu’un faisait remarquer qu’il n’existe pas d’outil sous linux pour gérer les màj, installations et politiques sur un parc, et Puppet ou Salt, c’est quoi alors ?


Si tu compares vraimant à l’équivalance fonctionnelle, ce serait plus proche de comparer les MAJ windows + du windows store. Et déja, il n’y a plu beaucoup de MAJ windows qui réclame le reboot. Et si en plus tu ajoute la MAJ des appli par le windows strore, c’est encore moins.



Et, sauf s’il y a eu de gros bouleversement en deux ans, mon serveur de fichier sous debian, valait mieux que je lance les MAJ quand personne n’était là (ce qui est d’ailleurs plus sur). Parce que, pour certain paquet, point de transparence. Rien qui me semble anormal d’ailleurs mais, loin du monde idyllique vanté. Mais oui, les distrib Linux n’éttant pas par nature une appli monobloc comme l’était Windows, la situation de Linux sur ce point est plus souple que windows, microsoft n’ayant pas encore fini le découplage.

Ayant pratique les 3, dans le cadre perso et travail, aucun n’a attend l’idéal vanté dans certains commentaires du net. Et c’est loin d’être anormal.


Comme déjà dit, si vous voulez discuter HS par pavés interposés, faites le dans le forum, ça devient imbitable vos échanges là. Merci <img data-src=" />








tazvld a écrit :



et je ne serais pas étonné de version “cloud” des consoles (façon Stadia).



Comme la Xbox One S All Digital? <img data-src=" />



Non, ça c’était le proto de la XBox One qu’ils ont finalement sortie en l’amputant quand même du Kinnect.


Rien linux, gère correctement les mises à jour, les màj se font en sandbox, donc si tu coupes le courant avant le commit t’as pas la màj, après t’as la màj, il n’est pas possible de planteer pendant une mise à jour comme sosu windows.