Linux 4.0 inaugure une fonctionnalité de « live patching »

Linux 4.0 inaugure une fonctionnalité de « live patching »

Un bon serveur est un serveur qui ne redémarre pas

Avatar de l'auteur
Vincent Hermann

Publié dans

Logiciel

16/04/2015 2 minutes
156

Linux 4.0 inaugure une fonctionnalité de « live patching »

La version 4.0 finale du noyau Linux est disponible depuis peu et contient un certain nombre d’apports majeurs pour les systèmes qui l’exploiteront. L’une des plus grosses nouveautés est la capacité du kernel à pouvoir se mettre à jour sans redémarrer la machine.

Cette fonctionnalité est particulièrement importante dans le cadre des environnements serveur. Moins une machine redémarre, plus ses services et ressources restent accessibles au reste du réseau. Ce mécanisme est basé sur les travaux réalisés initialement avec Kpatch par Red Hat et kGraft de SUSE. La version 4.0 du kernel ne fait cependant que mettre en place une première infrastructure, qui sera étoffée petit à petit dans les moutures suivantes.

On trouve également des améliorations notables du côté des pilotes graphiques et la gestion des DRM. Pour les Radeon par exemple, l’audio est maintenant supporté sur la connexion DisplayPort et la prise en charge du contrôle du ventilateur est maintenant plus fine. Le travail sur la plateforme Carrizo a en outre commencé. Du côté des GPU Intel et NVIDIA, des améliorations plus générales sont présentes, ainsi que, pour le premier, une ébauche de support de Skylake.

Pour le reste, on notera en particulier :

  • Un meilleur support des RAID 5/6 avec Btrfs
  • Le support de nouvelles architectures matérielles, notamment les SoC Quark d’Intel, l’Exynos 7 de Samsung et le MT8173 de Mediatek
  • Une prise en charge améliorée des ordinateurs portables de Toshiba
  • Un meilleur support des périphériques HID de Logitech

Si les changements apportés par Linux 4.0 semblent familiers, c’est parce que cette version est en fait l’ex-mouture 3.20, simplement renommée par Linus Torvalds. Le prochain kernel, estampillé 4.1, amènera un très grand nombre de modifications, notamment un bien meilleur support des GeForce GTX 750/750 Ti, la prise en charge de NCQ Autosense ou encore des corrections liées à la génération des nombres aléatoires sur les processeurs Bulldozer d’AMD (ASLR Entropy).

156

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Commentaires (156)


Humm, j’ai suivi en parallèle mais … j’ai comme un doute même en relisant la tech …



M’enfin, nous verrons bien de la stabilité de l’ensemble.


Cool !!!!!

Update kernel sans reboot, support HID Logitech amélioré.. Que du bon !


Le serveur du forum est redémarré environ deux fois par semaine et personne ne s’en rend compte. C’est vraiment utile comme techno avec tous les systèmes de cache tiers (foursquare par exemple) et cloud actuels ?


Un serveur ça ne fait pas que du web :)


Oui pour les systèmes critiques qui ont une obligation réglementaire de mise à jour par exemple.








Drepanocytose a écrit :



Cool !!!!!

Update kernel sans reboot, support HID Logitech amélioré.. Que du bon !





attendez.. connaissez pas kexec boys ???!









Une prise en charge améliorée des ordinateurs portables de Toshiba

f*ck yeah =D









trekker92 a écrit :



attendez.. connaissez pas kexec boys ???!





Intégré au kernel, c’est mieux.









math67 a écrit :



Un serveur ça ne fait pas que du web :)





+1, j’ai des services où on a une connexion permanente (et non stateless) avec des centaines de clients même aux heures les plus reculées de la nuit.

Rebooter un serveur est visible et désagréable dans ce genre de cas de figure.




Miam bonnes nouvelles ! Hâte de tester cette version sur mon serveur@home.









Edtech a écrit :



Le serveur du forum est redémarré environ deux fois par semaine et personne ne s’en rend compte. C’est vraiment utile comme techno avec tous les systèmes de cache tiers (foursquare par exemple) et cloud actuels ?







Hum, tu présentes un cas particulier où ce genre de fonctionnalité n’est pas forcément utile (le forum NXI qui a une redondance), et ensuite tu demandes si ce genre de technologie est vraiment utile d’une manière générale.



Personne n’a prétendu que ce genre de techno était toujours utile à tout le monde. Mais elle est utile pour certains usages. Red Hat et Suse ne l’ont pas développée pour la beauté du geste…



Dans beaucoup de cas, il y a une mise en place de solutions de load balancing qui permettent de redémarrer petit à petit, sans coupure de service. Il n’empêche que si la procédure existe et est fiable, autant l’utiliser.


Peut être, mais t’auras toujours des cas où c’est pas possible, et dans ce cas là, cette “nouvelle” fonctionnalité est vraiment géniale.



Par contre, pour passer en 4.0 au niveau kernel, est-ce qu’on devra redémarrer <img data-src=" />



Ceci dit, quand j’y repense, au moment de la 2.0, personne n’y croyait plus, à tel point qu’on voyait fleurir partout des Yes! It’s happened!


si cela pouvais donner des idées a microsoft et ses mooouuuuulte redémarrage pour un petite mise a jour de rien du tout


C’est juste des patches particuliers qui pourront être inclus sans redémarer le kernel, ou la mise à jour du kernele complet pourra se faire sans reboot de la machine?








kras a écrit :



Linux linux… ah oui je me souviens…







Cherche pas ça ne s’installera pas sur ton Amstrad CPC <img data-src=" />









sscrit a écrit :



&nbsp;microsoft et ses mooouuuuulte redémarrage pour un petite mise a jour de rien du tout









&nbsp;

&nbsp; le probleme n’est pas le redémarrage

le probleme estque t’en as pour dix plombes (soit 40mn) pour retrouver un systeme operationnel. Ce n’est pas immediat&nbsp;<img data-src=" />





http://www.lequipe.fr/Basket/Actualites/Un-club-allemand-relegue-a-cause-d-une-m…



ZeHiro a écrit :



C’est juste des patches particuliers qui pourront être inclus sans redémarer le kernel, ou la mise à jour du kernele complet pourra se faire sans reboot de la machine?&nbsp;&nbsp;




C’est au fil des années et des versions qui passent, que je constate que le noyau Linux n’a aucun objectif “multimedia”. Et ce n’est certainement pas les quelques mises a jour mineurs du point de vue graphique qui vont changer la donne.

Je peux prendre l’exemple de la MAO, pilote alsa lamentable, obligation de patcher le noyau d’une maniere dégueulasse et non supporté officiellement&nbsp; pour le mode full-prempt afin d’obtenir de la faible latence, entre autre.



Vivement que les projets, et je pense en particulier a Haiku sorte de la version alpha pour enfin travailler convenablement dans le domaine du “multimédia”.


Et tu fais comment pour redémarrer la machine qui fait le load balancing ? ;)








pentest a écrit :



C’est au fil des années et des versions qui passent, que je constate que le noyau Linux n’a aucun objectif “multimedia”. Et ce n’est certainement pas les quelques mises a jour mineurs du point de vue graphique qui vont changer la donne.

Je peux prendre l’exemple de la MAO, pilote alsa lamentable, obligation de patcher le noyau d’une maniere dégueulasse et non supporté officiellement&nbsp; pour le mode full-prempt afin d’obtenir de la faible latence, entre autre.



Vivement que les projets, et je pense en particulier a Haiku sorte de la version alpha pour enfin travailler convenablement dans le domaine du “multimédia”.





t’as une distrib orientée multimedia, avec partch rt intégré au kernel, temps reel toussa









sscrit a écrit :



si cela pouvais donner des idées a microsoft et ses mooouuuuulte redémarrage pour un petite mise a jour de rien du tout





Peut-être que tout simplement MS prends le problème dans l’autre sens :&nbsp; permettre la relance des serveurs sans faire tomber le service.

Mais pour ça il faut que le client soit adapté à cette manière de voir les choses et c’est là que le bat blesse…



Vu que sur une prod normale, t’es supposé tout redonder, non ça sert pas à grand chose. Par contre, moi je vois une utilité : quand tu rootes un serveur, tu pourras live patcher le kernel histoire de poser tes bagages tranquillou et de bien être niché au cœur du système <img data-src=" />








trekker92 a écrit :



t’as une distrib orientée multimedia, avec partch rt intégré au kernel, temps reel toussa





J’suis en train de t’expliquer que le patch rt c’est de la daube, ainsi que alsa tellement le kernel est moisie de base pour le multimedia.



essaye une distrib multimedia comme&nbsp;ubuntu studio avec le kernel RT.



Quant au pilote ALSA lamentable, quelle est ta carte audio ?&nbsp;








v1nce a écrit :



essaye une distrib multimedia comme&nbsp;ubuntu studio avec le kernel RT.



Quant au pilote ALSA lamentable, quelle est ta carte audio ?&nbsp;





Ca n’a rien a voir avec ma carte, RME Hammerfall DSP Multiface II, mais avec le code du bousin et son fonctionnement en general.









ZeHiro a écrit :



C’est juste des patches particuliers qui pourront être inclus sans redémarer le kernel, ou la mise à jour du kernele complet pourra se faire sans reboot de la machine?





Il faudra avoir un patch spécifique. Celui-ci modifie le code, mais pas les données en mémoire, c’est la limite. Cela concerne quasiment tous les derniers patchs de sécurité par exemple.



+1&nbsp;

<img data-src=" />


Tu rediriges temporairement le trafic qui arrive normalement vers cette machine vers l’une des x machines qui sont normalement derrière. Tu redémarres, puis tu fais revenir le trafic vers le “load balancer”.

Cela nécessite bien entendu une machine encore devant (un routeur? ton hébergeur), mais je pense que c’est techniquement faisable.


J’allais poser la même question. Même avec du LB il restera toujours un point critique, même si normalement il est beaucoup plus fiable que le reste.


Oui ce que je voulais dire avec ma dernière phrase, c’est que le patch en live est nécessaire dans certains cas, mais que même dans les autres cas il est tout à fait appréciable.


Il y a aussi des applications qui sont impossibles à passer derrière un load balancer ;) dans mon job, on va adorer que ce soit enfin intégré au kernel :)


Pour mettre à jour ton LB tu peux utiliser du VRRP avec du HAPROXY par exemple. Il faudra bien sûr deux serveurs de load balancing au minimum.


Je pense que tu ne fais que repousser le problème un cran plus loin !

Autant le routage d’un paquet peut être dynamique et changer à la volée (je ne sais pas si cela arrive si souvent que ça dans la pratique, n’étant pas expert dans le domaine) autant à un moment il faut bien un point fixe d’arrivée, que ce soit chez toi ou ton hébergeur, et celui là, il doit pouvoir être redémarré !



Il y a aussi le problème des connections qui doivent être conservées. Il me semble avoir lu il y a quelques temps que des systèmes savaient transférer des connections tcp d’une machine à une autre ! mais encore faut il que le service en question le gère.

&nbsp;








Edtech a écrit :



Le serveur du forum est redémarré environ deux fois par semaine et personne ne s’en rend compte. C’est vraiment utile comme techno avec tous les systèmes de cache tiers (foursquare par exemple) et cloud actuels ?





Pourquoi redémarrer un serveur 2 fois par semaine #ugly#?&nbsp;



“Un bon serveur est un serveur qui ne redémarre pas”

hum, faut le changer alors… &nbsp;<img data-src=" /><img data-src=" />


Il existe des boitiers multi-wan en load balancing qui transfèrent les sessions entre boitiers.

Il ne devrait plus exister de point de rupture dans une architecture.


Parce qu’il y a beaucoup de mises à jour qui demandent de redémarrer moult services qui n’ont pas forcément un script disponible pour ça. Installe le paquet debian-tools et tape checkrestart après chaque mise à jour, tu vas voir le nombre de processus en mémoire qui n’ont pas été redémarrés… Ca et les mises à jour qui demandent forcément un reboot, comme le noyau justement.



Donc, pof, reboot, ça prend 20s et au moins, tout a forcément été redémarré.


Je vais faire pêter mon uptime.<img data-src=" />








ElJulio a écrit :



Pourquoi redémarrer un serveur 2 fois par semaine #ugly#?&nbsp;





Si t’es sur un serveur Windows ou Ubuntu Server. <img data-src=" />





(passera, passera pas ?)



Quelle idée de ne pas mettre ses serveurs en cluster de basculement&nbsp;haute dispo&nbsp;&nbsp;&nbsp;<img data-src=" />


Passera pas <img data-src=" />



Windows c’est une fois par mois <img data-src=" />








Ricard a écrit :



Si t’es sur un serveur Windows ou Ubuntu Server. <img data-src=" />





(passera, passera pas ?)







[Mode feu CrowTown]



Linux, c’est de la merde, Windows, c’est génial et vous êtes tous des <img data-src=" />



[/Mode feu CrowTown, le ban en moins]



Après, c’est vrai que pour moi, particulier, le patch du kernel sans redémarrage, c’est pas une feature critique de la mort qui tue. Pour les pros, c’est autre chose…



Je note le support prévu de Skylake avant la sortie du bouzin. Ceux qui ont eu de mauvaises surprises avec Haswell seront ravis.









Jaskier a écrit :



Par contre, pour passer en 4.0 au niveau kernel, est-ce qu’on devra redémarrer <img data-src=" />





Il faudra redémarrer pour changer changement de version dans tout les cas. C’est uniquement pour les mises à jour qui ne change pas de version du noyau qu’on peut pacher le noyau en live.



Tu n’as donc pas connu l’époque héroïque Demudi/Agnula :-)

&nbsp;

Parce que de nos jours, plus besoin de patch RT (l’essentiel est intégré upstream, le reste est anecdotique), drivers ALSA et FFADO stables pour le matériel courant, distributions intégrant à peu près tout ce qu’il faut (Debian + dépôts kxstudio en ce qui me concerne). Fonctionnement stable pendant des heures en 2x128, suffisant pour du softsynth.

&nbsp;

Ton interface audio est probablement un peu trop rare chez les linuxiens pour que le support soit parfait. Avec du Focusrite ou Presonus, ce serait sans doute plus stable.

&nbsp;


Si c’est du Ubuntu Server… c’est pas possible. Je le redémarre même pas une fois par an et il est à jour.








Commentaire_supprime a écrit :



Après, c’est vrai que pour moi, particulier, le patch du kernel sans redémarrage, c’est pas une feature critique de la mort qui tue. Pour les pros, c’est autre chose…





Si tu as un drône qui fonctionne avec un noyau Linux, tu pourras faire une mise à jour du kernel en vol sans qu’il s’écrase ! C’est quand même la classe !



Pour une utilisation pro dans lequel on veut vraiment une latence réduite au maximum&nbsp; le patch rt apporte un plus quand même.








zefling a écrit :



Si c’est du Ubuntu Server… c’est pas possible. Je le redémarre même pas une fois par an et il est à jour.









Ricard a écrit :



(passera, passera pas ?)





a passé. <img data-src=" />









Commentaire_supprime a écrit :



Après, c’est vrai que pour moi, particulier, le patch du kernel sans redémarrage, c’est pas une feature critique de la mort qui tue. Pour les pros, c’est autre chose…



Je note le support prévu de Skylake avant la sortie du bouzin. Ceux qui ont eu de mauvaises surprises avec Haswell seront ravis.



J’ai un seveur de fichiers & sauvegardes à installer chez un pro, je serais pas obligé de faire les màj le samedi quand personne ne bosse dessus. Merci Linus.



Version 4.0 déjà en utilisation ici. Ça tourne sans aucuns soucis.

J’essayerais le «live patching» à l’occasion sur le serveur quand je l’aurais aussi fait passé à cette version du kernel.








46 75 63 6b 20 6f 66 66 a écrit :



Version 4.0 déjà en utilisation ici. Ça tourne sans aucuns soucis.

J’essayerais le «live patching» à l’occasion sur le serveur quand je l’aurais aussi fait passé à cette version du kernel.







Euh, peut-être tester sur une machine moins critique avant de tester sur le serveur ?

Je dis ça je dis rien <img data-src=" />



À condition d’être mieux sécurisé que les Parrot. <img data-src=" />


Non, tout à forcement été arrêté…pour le redémarrage c’est une autre histoire…


Ca depend du point de vu. Une maintenance à faire le week-end tu pouvais la chiffrer bien plus cher si tu te débrouillais bien.


Serveur perso @home. Actuellement, il ne fait pas tourner grand chose. Me faut d’abord trouver en vendeur de ndd qui balance pas mes données privées dans le whois.


… si t’as un serveur web. D’autres applis ne supporteront jamais ce mode de fonctionnement :)


On trouve également des améliorations notables du côté des pilotes graphiques et la gestion des DRM. Pour les Radeon par exemple, l’audio est maintenant supporté sur la connexion DisplayPort et la prise en charge du contrôle du ventilateur est maintenant plus fine.



C’est fou quand même, ça fait des plombes que ces choses sont dispo chez les OS de M$ comment ça se fait ? (ma question ne porte pas sur les DRM bien sur <img data-src=" /> )


c’est une bonne nouvelle, mais pour les grosses infras ou les infras moins amateur le reboot ne se voit pas… le load balancer fait son travail…

ok ya un “mini” risque si a ce moment la ya un pic d’influance …&nbsp;

mais la faudrait vraiment pas avoir de chance








Rozgann a écrit :



Si tu as un drône qui fonctionne avec un noyau Linux, tu pourras faire une mise à jour du kernel en vol sans qu’il s’écrase ! C’est quand même la classe !





ya pas un pilote auto?&nbsp;<img data-src=" />









Krogoth a écrit :



Ca depend du point de vu. Une maintenance à faire le week-end tu pouvais la chiffrer bien plus cher si tu te débrouillais bien.






       Si le client est assez con pour se faire surfacturer une MàJ de 5 minutes un samedi, c'est pas un article dans NXI qui parle de livePatching qui va tout à coup lui faire se rendre compte du décalage entre la facture qu'il paie comparé au coût réel de l'intervention.          





Même point de vue de l’autre côté: si le presta était déjà capable d’utiliser le prétexte du samedi pour surfacturer un truc de 5 minutes, il sera tout autant capable de trouver un autre argument bidon pour continuer de surfacturer son intervention.



Bref, c’est une possibilité en plus qui arrange certains, et ça n’enlève rien à personne: au pire pour ceux qui n’en ont pas l’utilité c’est transparent.









Dr.Wily a écrit :



On trouve également des améliorations notables du côté des pilotes graphiques et la gestion des DRM. Pour les Radeon par exemple, l’audio est maintenant supporté sur la connexion DisplayPort et la prise en charge du contrôle du ventilateur est maintenant plus fine.



C’est fou quand même, ça fait des plombes que ces choses sont dispo chez les OS de M$ comment ça se fait ? (ma question ne porte pas sur les DRM bien sur <img data-src=" /> )







Les utilisateurs de Radeon ont le choix entre le pilote propriétaire d’AMD/ATi (Catalyst) et le pilote Open Source.



Exemple sur Ubuntu : pilote propriétaire / pilote Open Source.



Dans le noyau Linux c’est bien sûr le pilote Open Source qui est intégré, et il n’a pas les mêmes fonctionnalités que le pilote propriétaire. Les « améliorations » évoquées ici concernent bien sûr ce pilote Open Source (par rapport à ses versions antérieures), et non la version propriétaire.



Pour nVidia c’est similaire, il existe le pilote propriétaire de nVidia, et un pilote Open Source (nouveau).



Sous Windows la question ne se pose pas puisqu’en général seul le pilote propriétaire est proposé.



C’est un peu naïf de croire qu’un système ne reboot jamais, et n’en a pas besoin.



Ces systèmes (Windows, mac OS inclus) ne sont pas conçu dans ces optiques.



&nbsp;Et il y a les impondérables:

1 dégat matériel. Un serveur pizza box c’est en gros 2 ans max. C’est plus a cause des controlleur SCSI (wide) qui crament que le reste. Les solution a base de SSD étant plus cher et accessoirement avec une certaine fragilité (le SSD) bin ca se démocratise pas tant que cela.



2 C’est pas parce que le Kernel peut être remplacé a la volé, que par miracle&nbsp; :

-Les services ne doivent plus être redémaré (imposant un downtime quand meme).

-les programmes n’auront pas de bug ou de faille de sécurité.



Je ne suis pas l’expert mais en rendant le controle a un autre processus (l’autre kernel updaté au minimum) il se peut qu’il y ait des failles de sécurité qui voient le jour. Comment ca se contrôle ? Ca va donner du fil a retordre.



Finalement est-ce bien nécessaire quand le reste du système (Linux, Win. mac) n’est pas vraiment taillé sur le même modèle (flexibilité du reload).


Si le point d’entrée ne fait que la fonction de routage, et qu’il fait ça de manière matérielle, tu n’as pas nécessairement besoin de le redémarrer.





EDIT: ce que je dis est purement théorique, je n’ai jamais eu à le faire en pratique donc je ne sais ni comment ça se fait, ni même si c’est possible en réalité.








TexMex a écrit :



1 dégat matériel. Un serveur pizza box c’est en gros 2 ans max. C’est plus a cause des controlleur SCSI (wide) qui crament que le reste. Les solution a base de SSD étant plus cher et accessoirement avec une certaine fragilité (le SSD) bin ca se démocratise pas tant que cela.







Ce genre de fonctionnalité n’a pas la prétention d’éviter les dégâts matériels, d’ailleurs aucune solution software ne peut se prémunir d’une défaillance hardware. C’est donc complètement hors de propos.









TexMex a écrit :



2 C’est pas parce que le Kernel peut être remplacé a la volé, que par miracle  :

-Les services ne doivent plus être redémaré (imposant un downtime quand meme).









  1. Rebooter entièrement la machine prend plus de temps que de redémarrer juste le service qui en a besoin. Le but n’est pas d’atteindre un downtime de zéro, mais de le réduire.



  2. Quand on redémarre un service on n’interrompt que lui. Ne pas redémarrer la machine, ça évite d’avoir un downtime sur les autres services. Un serveur, ça ne sert pas qu’un seul service en général, mais plusieurs.









    TexMex a écrit :



    -les programmes n’auront pas de bug ou de faille de sécurité.







    Là encore cette fonctionnalité n’a rien à voir avec la prévention de bugs ou de failles, donc c’est hors-sujet.



OK, je pensais que l’article abordait ce point “en général” et non pas rapport a la source du pilote. Merci a toi.


Oui enfin dans le cas d’un serveur web si le service mysql/postgre…,apache/nginx… est arreté tu vas pas aller bien loin.


il existe toute sorte de solution ( varnish par exemple avec un config “grace” ) pour ne citer que celui la,

en clé en main tu as cloudflare je pense ( mais plus chers ! )


J’ai cru que c’était la 1.0 qui était sortie. Ça a failli me faire un coup au cœur.



Tu aurais dû préciser que c’est la 0.6, bref, encore une pré-version.








Krogoth a écrit :



Ca depend du point de vu. Une maintenance à faire le week-end tu pouvais la chiffrer bien plus cher si tu te débrouillais bien.





Ouais mais c’est la boite d’un pote là….. Je travaille déjà à prix coutant… En contrepartie, il me prête des outils ou une camionnette quand j’ai besoin. <img data-src=" />



Et on veut nous faire croire que linux s’installe partout. Tssssk…


Ça s’installe bien sur une patate.

Après ça, toute autre installation c’est du gateau.


Depuis combien de temps ? <img data-src=" />


Les boites noires du gvt pourront mettre à jour leur noyaux sans laisser passer un seul paquet IP terroriste à cause d’un reboot <img data-src=" />








Ricard a écrit :



Si t’es sur un serveur Windows ou Ubuntu Server. <img data-src=" />





(passera, passera pas ?)







NXI est sur du IIS et le forum est sur du Ubuntu Serveur <img data-src=" />



Pour mise a jour du load balancing ou autre composant frontal :

tu met en place un autre composant frontal identique au 1er (LB, routeur….) ( mis a jour ) tu lui met une nouvelle ip publique dessus, tu demande le changement DNS pendant quelques heure, tes users seront reparti sur tes machines, mais au final tu finiras par avoir tout le monde sur ton nouveau systéme et tu peux upgrader l’ancien (et le mettre comme spare ou le remettre comme master …)&nbsp;&nbsp;&nbsp;

resultat&nbsp; : downtime = 0








John Shaft a écrit :



NXI est sur du IIS et le forum est sur du Ubuntu Serveur <img data-src=" />





[mode faux cul]



Ha oui ? Tiens donc… <img data-src=" />

[/mode faux cul]









Hexawolf a écrit :



Et on veut nous faire croire que linux s’installe partout. Tssssk…







Partout non, mais Linux est de loin le noyau qui supporte le plus d’architectures différentes : exemple de liste. La petite blague consiste donc à dire que ça s’installe “partout” même sur un grille-pain (ou une patate), mais bien sûr ce n’est pas à prendre au pied de la lettre.









46 75 63 6b 20 6f 66 66 a écrit :



Ça s’installe bien sur une patate.

Après ça, toute autre installation c’est du gateau.







“Number of Linux Distributions Surpasses Number of Users”



<img data-src=" />



A vrai dire, j’ai pas de drone, mais j’avais regarder comment en faire un avec un Raspberry Pi. L’alimentation des moteurs était directement branchée sur les sorties analogiques du RPi, donc si tu redémarres l’OS en vol, les hélices s’arrêtent. Ca doit être possible de faire un circuit électronique qui maintient une vitesse de rotation constante si on perd les instructions de la carte, mais je pense pas que ce soit comme ça sur la plupart des drones commerciaux.


Pour le forum, on a hésité entre ça et Biebian <img data-src=" />


Hmmm concrètement comment tu patch un soft/noyau sans redémarrer ? Parce que Windows le fait de patcher sans redemarrer ! Tu patch et tu refuse les mises à jours.



Par contre comment appliquer les mise à jour des services sans les redémarrer ? vrai question hein … A part de la haute dispo je vois pas trop.








John Shaft a écrit :



Pour le forum, on a hésité entre ça et Biebian <img data-src=" />





<img data-src=" /><img data-src=" /><img data-src=" />









Kiroha a écrit :



Hmmm concrètement comment tu patch un soft/noyau sans redémarrer ? Parce que Windows le fait de patcher sans redemarrer ! Tu patch et tu refuse les mises à jours.



Par contre comment appliquer les mise à jour des services sans les redémarrer ? vrai question hein … A part de la haute dispo je vois pas trop.





Tout est écrit noir sur blanc dans le code. Suffit de savoir lire.<img data-src=" />







































<img data-src=" />









Ricard a écrit :



Je vais faire pêter mon uptime.<img data-src=" />







Plus de 400 jours pour mon PC perso, le reboot avait eu lieu pour passer de Ubuntu 12.04 à la 14.04. <img data-src=" />

Et 71 jours actuellement. Comme ça me fait chier de rebooter, j’ai du avoir trouze mille mise à jour du kernel depuis… Comme quoi ce patch à chaud je serai plus que client <img data-src=" />



Niveau taff, j’ai eu une Red Hat qui avait environ 1500 jours (en gros pas de reboot depuis le démarrage du serveur, juste les applications relancées régulièrement) et on avait également une plateforme B2B avec 3000 jours d’uptime.

Bon, c’était de l’AIX par contre.



un peu plus compliqué dans la vrai vie, tu demande l’achat du meme serveur a 5k€ a ton comptable pour je cite : éviter 3h d’arret de mise a jour par an.



comme tu ne l’utilise que très peu, l’humidité a fragilisé les composant interne -&gt; claquage au bout de 3h de fonctionnement la deuxième fois. Les utilisateurs sont furieux, le comptable se demande si tu ne la pas pris pour un abruti. le directeur aussi -&gt; pole emploi



perso je préfère le patch a chaud :) pour éviter les truc qui n’arrive qu’au autre, et je ne ferais jamais confiance a un truc qui sert 1 fois par an mini, je ne te parle pas des erreurs de routage car le gars a mal compris la demande etc …


Ça c’est un peu stupide vu toutes les failles connues.



D’ailleurs il faut que je redémarre, le noyau a été mise à jour… <img data-src=" />


Ah, les records d’uptime … Ça commence à compter que lorsque l’on arrive à deux chiffre dans les années ;-) Et les sol 8, ça compte pas, bon nombre de machines affichent &gt; 8000 jours mais juste à cause du bug utc / battery.



Par contre cela ne changera pas vraiment le problème du risque de modifier les un kernel, même en live.

Mais belle prouesse quand même ;+)








TexMex a écrit :



2 C’est pas parce que le Kernel peut être remplacé a la volé, que par miracle&nbsp; :

-Les services ne doivent plus être redémaré (imposant un downtime quand meme).

-les programmes n’auront pas de bug ou de faille de sécurité.





Tu peux parfaitement faire une update pour corriger une faille dans ton démon SSH depuis une connexion SSH gérée par ledit démon, sans qu’elle ne soit coupée.









sscrit a écrit :



un peu plus compliqué dans la vrai vie, tu demande l’achat du meme serveur a 5k€ a ton comptable pour je cite : éviter 3h d’arret de mise a jour par an.



comme tu ne l’utilise que très peu, l’humidité a fragilisé les composant interne -&gt; claquage au bout de 3h de fonctionnement la deuxième fois. Les utilisateurs sont furieux, le comptable se demande si tu ne la pas pris pour un abruti. le directeur aussi -&gt; pole emploi



perso je préfère le patch a chaud :) pour éviter les truc qui n’arrive qu’au autre, et je ne ferais jamais confiance a un truc qui sert 1 fois par an mini, je ne te parle pas des erreurs de routage car le gars a mal compris la demande etc …





Dans la vrai vie tu n’as pas a racheter de machine pour avoir un autre loadbalancer tu peux faire tourner plusieurs machines virtuelles sur la même machine physique. Après je suis pas contre ce genre de fonctionnalités. C’est toujours une bonne chose.&nbsp;









Ricard a écrit :



Si t’es sur un serveur Windows ou Ubuntu Server. <img data-src=" />





(passera, passera pas ?)



une fois par mois pour WinServeur <img data-src=" />

(avec une énorme particularité pour un serveur qu’on a à mon taf : il se bloque durant l’arrêt… et faut bouger la souris pour qu’il aille jusqu’au bout de l’arrêt et redémarre, personne n’a jamais réussi à trouver l’origine du bug <img data-src=" />)



Je rêve ou je viens de lire le mot “souris” dans une phrase qui parle de serveur?








46 75 63 6b 20 6f 66 66 a écrit :



Je rêve ou je viens de lire le mot “souris” dans une phrase qui parle de serveur?



nos serveurs sont accessibles à distance, mais quand ca merde l’accès en direct avec clavier/souris est d’une aide précieuse…



Ça y est, t’as recommencé.


Ce mot n’est pas compatible avec serveur ? En même temps, au taf il n’y a que de serveur Windows, et franchement, j’ai encore vu personne les attaquer en ligne de commandes (pour ceux qui gèrent ça, moi je touche pas à ça et j’en suis bien content <img data-src=" />).








46 75 63 6b 20 6f 66 66 a écrit :



Ça y est, t’as recommencé.



quand tu n’arrives plus à les attaquer à distance, tu fais quoi? tu pries Dieu en espérant que ca revienne tout seul? <img data-src=" />









Patch a écrit :



tu pries Dieu et ça reviendra tout seul





<img data-src=" />

&nbsp;









zefling a écrit :



Ce mot n’est pas compatible avec serveur ? En même temps, au taf il n’y a que de serveur Windows, et franchement, j’ai encore vu personne les attaquer en ligne de commandes (pour ceux qui gèrent ça, moi je touche pas à ça et j’en suis bien content <img data-src=" />).







Ah les serveurs backend sont aussi des frontend ? Intéressant comme concept <img data-src=" />



T’as pas compris ce que je voulais dire.

Mais c’est pas grave.



























&nbsp;





Attends, en fait si:&nbsp;&nbsp;&nbsp; UNE SOURIS SUR UN SERVEUR? :eek:



&nbsp;








Patch a écrit :



quand tu n’arrives plus à les attaquer à distance, tu fais quoi? tu pries Dieu en espérant que ca revienne tout seul?







À titre perso depuis que j’ai mon serveur @home (en 2007) il n’a ni écran, ni clavier ni souris. Les 2 ou 3 rares fois où il merdait grave (pannes matérielles) je lui ai mis un écran et un clavier pour dépanner / ré-installer.



Mais jamais de souris <img data-src=" />



Mais bon je ne suis pas admin système, il y a donc peut-être des techniques que je ne connais pas !









Konrad a écrit :



Partout non, mais Linux est de loin le noyau qui supporte le plus d’architectures différentes : exemple de liste







J’avais lu que NetBSD supportait un poil plus d’architectures, mais j’ai la flemme de vérifier XD



Sinon, rien à voir, mais on parle de drivers libres et non Open Source (ce qui est encore autre chose, d’autant plus que certains programmes Open Source peuvent être non libres).









Konrad a écrit :



Ce genre de fonctionnalité n’a pas la prétention d’éviter les dégâts matériels, d’ailleurs aucune solution software ne peut se prémunir d’une défaillance hardware. C’est donc complètement hors de propos.











  1. Rebooter entièrement la machine prend plus de temps que de redémarrer juste le service qui en a besoin. Le but n’est pas d’atteindre un downtime de zéro, mais de le réduire.



  2. Quand on redémarre un service on n’interrompt que lui. Ne pas redémarrer la machine, ça évite d’avoir un downtime sur les autres services. Un serveur, ça ne sert pas qu’un seul service en général, mais plusieurs.









    Là encore cette fonctionnalité n’a rien à voir avec la prévention de bugs ou de failles, donc c’est hors-sujet.





    Évidement avec un serveur qui se bat en duel avec un service sur une 2eme IP… sur la même machine… heu… tout de suite…&nbsp; ca iNpacte un peu plus.

    &nbsp;

    &nbsp;Dans un vrai DataCenter d’homme quand t’as 100 serveurs (un petit exemple hein) ou plus, en load balancing et schéduling sur un site (le web de jour; les piles de mail foireux, la nuit), tu t’en fous un peu.&nbsp; On automatise même la chose et cela permet de faire des maintenances de bon aloi, sans trop de planification. Bien fait; personne ne voit strictement rien.



    C’est juste pas une révolution, ce truc. Et cela ne permettra pas d’économiser sur les couts.





    brazomyna a écrit :



    Tu peux parfaitement faire une update pour corriger une faille dans ton démon SSH depuis une connexion SSH gérée par ledit démon, sans qu’elle ne soit coupée.





    Oui bien sur, m’enfin bon, quand t’as un trou de sécurité; tu fais le ménage dans les connexions. Même si la dernière c’est la tienne. Et je ne pense pas parler de zèle. Juste de bon sens.









brazomyna a écrit :



Tu peux parfaitement faire une update pour corriger une faille dans ton

démon SSH depuis une connexion SSH gérée par ledit démon, sans qu’elle

ne soit coupée.





Je serais curieux de savoir comment tu fais… Tu te connectes sur un serveur ssh troué, tu fais l’update et tu restart ssh, ben les anciennes connexions ssh doivent être relancées pour ne plus avoir l’ancien binaire troué en mémoire. Juste faire la mise à jour sert à rien :)

&nbsp;





TexMex a écrit :



Oui bien sur, m’enfin bon, quand t’as un trou de sécurité; tu fais le ménage dans les connexions. Même si la dernière c’est la tienne. Et je ne pense pas parler de zèle. Juste de bon sens.





D’autant plus qu’avec un screen, tu peux couper ta connexion ssh sans impact sur les process :) (et même si on a oublié de sreener, on peut déplacer le process qui nous intéresse dans le screen)









mikfr a écrit :



Je serais curieux de savoir comment tu fais… Tu te connectes sur un serveur ssh troué, tu fais l’update et tu restart ssh, ben les anciennes connexions ssh doivent être relancées pour ne plus avoir l’ancien binaire troué en mémoire. Juste faire la mise à jour sert à rien :) &nbsp;&nbsp;






   Dans le cas d'openSSH, la mise à jour permet essentiellement de protéger contre des attaques provenant de connexions à venir, et c'est justement ce qu'on attend essentiellement d'une mise à jour pour ce genre de paquet.       






   Les connexions existantes, soit elles sont légitimes et elles peuvent rester en place tant qu'on n'a pas besoin de les couper. Quant aux autres, illégitimes, il est évidemment urgent de les dropper violemment, mise à jour ou pas.         





Juste du “bon sens” comme dirait TexMex, qui - lui - connaît les vrais datacenter “d’homme”. <img data-src=" />



   &nbsp;


Oui, enfin, si j’utilise du php/mysql c’est que le statique n’est pas une option…








brazomyna a écrit :



Les connexions existantes, soit elles sont légitimes et elles peuvent rester en place tant qu’on n’a pas besoin de les couper. Quant aux autres, illégitimes, il est évidemment urgent de les dropper violemment, mise à jour ou pas.




Juste du "bon sens" comme dirait TexMex, qui - lui - connaît les vrais datacenter "d'homme". <img data-src=">  

&nbsp;





&nbsp;Tu sais qu’il y a des failles ssh concernent les connexions existantes ? Pour les dc d’homme, on va pas jouer à la plus grosse mais 100 serveurs c’est pas grand chose et c’est trop facile avec des serveurs web/db <img data-src=" /> (il n’y a pas que ça dans les serveurs)









TexMex a écrit :



&nbsp;Dans un vrai DataCenter d’homme quand t’as 100 serveurs (un petit exemple hein)





A bah oui tout le monde a des clusters des 100 serveurs avec les même services dessus c’est bien connu. <img data-src=" />



Le fait que les constructeurs ne livrent pas les données techniques de leurs produits et que les développeurs doivent faire pas mal de chose par retro ingénieurie ?








46 75 63 6b 20 6f 66 66 a écrit :



Je rêve ou je viens de lire le mot “souris” dans une phrase qui parle de serveur?





<img data-src=" />









durthu a écrit :



Le fait que les constructeurs ne livrent pas les données techniques de leurs produits et que les développeurs doivent faire pas mal de chose par retro ingénieurie ?







Je sais bien tout ça, en plus d’être bien placé pour savoir comment ça fonctionne. Mais généralement les articles traitants de new Linux, notamment sur le hard, donnent souvent l’impression que l’OS est en retard alors que ce n’est pas le cas. Moi Linux ça me sert essentiellement pour les infra serveurs. Je ne m’en sert jamais pour en tant qu’OS desktop.



Mais c’est vrai qu’en terme de prise en charge hardware ça a bien bien progressé depuis quelque années, et pas mal de cartes contrôleur sont supportées. Mais ça a mis le temps quand même.









Rozgann a écrit :



A vrai dire, j’ai pas de drone, mais j’avais regarder comment en faire un avec un Raspberry Pi. L’alimentation des moteurs était directement branchée sur les sorties analogiques du RPi, donc si tu redémarres l’OS en vol, les hélices s’arrêtent. Ca doit être possible de faire un circuit électronique qui maintient une vitesse de rotation constante si on perd les instructions de la carte, mais je pense pas que ce soit comme ça sur la plupart des drones commerciaux.



quand t’es en plein vol t’es considéeé comme en prod non?

jvois mal un tech tester la pressurisation de l’appareil sur un a320 en vol, ou la procédure d’atterrissage d’un meme modele en plein long courrier…





SebGF a écrit :



Plus de 400 jours pour mon PC perso, le reboot avait eu lieu pour passer de Ubuntu 12.04 à la 14.04. <img data-src=" />

Et 71 jours actuellement. Comme ça me fait chier de rebooter, j’ai du avoir trouze mille mise à jour du kernel depuis… Comme quoi ce patch à chaud je serai plus que client <img data-src=" />



Niveau taff, j’ai eu une Red Hat qui avait environ 1500 jours (en gros pas de reboot depuis le démarrage du serveur, juste les applications relancées régulièrement) et on avait également une plateforme B2B avec 3000 jours d’uptime.

Bon, c’était de l’AIX par contre.





30 a 60j en moyenne sur des pc portables perso. Slitaz ftw. avec pm-suspend =D









Konrad a écrit :



À titre perso depuis que j’ai mon serveur @home (en 2007) il n’a ni écran, ni clavier ni souris. Les 2 ou 3 rares fois où il merdait grave (pannes matérielles) je lui ai mis un écran et un clavier pour dépanner / ré-installer.



Mais jamais de souris <img data-src=" />



Mais bon je ne suis pas admin système, il y a donc peut-être des techniques que je ne connais pas !



chez toi, c’est une chose. mais quand au taf tu recois 10 appels en 5 min disant “je ne recois plus de mail” ou “mes données sur le réseau sont inaccessibles” et que tu arrives tout juste à pinger le serveur, tu es bien content d’avoir un accès physique avec tout ce qu’il faut en salle serveur… <img data-src=" />









TexMex a écrit :



Évidement avec un serveur qui se bat en duel avec un service sur une 2eme IP… sur la même machine… heu… tout de suite…  ca iNpacte un peu plus.

 

 Dans un vrai DataCenter d’homme quand t’as 100 serveurs (un petit exemple hein) ou plus, en load balancing et schéduling sur un site (le web de jour; les piles de mail foireux, la nuit), tu t’en fous un peu.  On automatise même la chose et cela permet de faire des maintenances de bon aloi, sans trop de planification. Bien fait; personne ne voit strictement rien.



C’est juste pas une révolution, ce truc. Et cela ne permettra pas d’économiser sur les couts.







J’ai du mal à accepter l’argumentation qui consiste à prendre UN exemple pour en faire une généralité.



« Sur le forum de NXI on a de la redondance, donc cette fonctionnalité est inutile ? »

« Dans un data center il y a du load balancing, donc ça ne révolutionne rien ce truc. »



Oui, quand on veut limiter le downtime il y a d’autres solutions.

Non, ça ne veut pas dire que le « Live Patching » ne sert à rien… Ce n’est pas parce que VOUS, vous n’arrivez pas à imaginer à quoi ça peut servir, que c’est forcément inutile… <img data-src=" />



Ce qu’ils veulent dire c’est que sur un serveur généralement tu ne met pas de serveur graphique. Tout se fait en ligne de commande même avec un accès physique.

Donc pas besoin de souris, juste d’un clavier et d’un écran.








Patch a écrit :



chez toi, c’est une chose. mais quand au taf tu recois 10 appels en 5 min disant “je ne recois plus de mail” ou “mes données sur le réseau sont inaccessibles” et que tu arrives tout juste à pinger le serveur, tu es bien content d’avoir un accès physique avec tout ce qu’il faut en salle serveur… <img data-src=" />







Certes, mais sauf ton respect tu n’as toujours pas démontré en quoi une souris était indispensable pour dépanner un serveur <img data-src=" />









Konrad a écrit :



Certes, mais sauf ton respect tu n’as toujours pas démontré en quoi une souris était indispensable pour dépanner un serveur <img data-src=" />



va dépanner correctement un WinServer 2003 sans souris (ou terminer l’arrêt de celui qui nécessite de bouger la souris pour ca). et après, on en reparlera.



si c’est du windows server pré-2013, l’interface graphique n’est pas une option! <img data-src=" />








Okki a écrit :



J’avais lu que NetBSD supportait un poil plus d’architectures, mais j’ai la flemme de vérifier XD



Sinon, rien à voir, mais on parle de drivers libres et non Open Source (ce qui est encore autre chose, d’autant plus que certains programmes Open Source peuvent être non libres).





tu sais, quand on l’installe sur un grill-pain, on est plus a un nokia pres ensuite









Dr.Wily a écrit :



. Moi Linux ça me sert essentiellement pour les infra serveurs. Je ne m’en sert jamais pour en tant qu’OS desktop.&nbsp;



tu rates quelque chose;.









Patch a écrit :



va dépanner correctement un WinServer 2003 sans souris (ou terminer l’arrêt de celui qui nécessite de bouger la souris pour ca). et après, on en reparlera.







Nécessaire de bouger la souris pour arrêter un serveur ? <img data-src=" />



Okay là j’avoue qu’on entre dans un domaine que je ne connais pas… <img data-src=" />









geekounet85 a écrit :



si c’est du windows server pré-2013, l’interface graphique n’est pas une option! <img data-src=" />







Avoir une interface graphique sur un serveur ça peut parfois être utile.

Mais interface graphique et souris obligatoires, là il y a des choix que je ne comprends pas. M’enfin je vais vous faire confiance et accepter que ça existe…



Hmm il faudrait faire comme dans les avions avec 3 kernels ?



T’en met un à jour, tu le redémarres, tu checks le machin, t’en met un 2ème à jour, tu gardes le 3ème au cas où ça merde à un moment donner, et c’est lui qui fait office de “safe-mode”



Tout ça pour un full update du kernel hein&nbsp;<img data-src=" />

Est-ce que ça en vaut la peine ? Pfff j’en sais rien moi&nbsp;<img data-src=" />








Konrad a écrit :



Nécessaire de bouger la souris pour arrêter un serveur ? <img data-src=" />



Okay là j’avoue qu’on entre dans un domaine que je ne connais pas… <img data-src=" />









Avoir une interface graphique sur un serveur ça peut parfois être utile.

Mais interface graphique et souris obligatoires, là il y a des choix que je ne comprends pas. M’enfin je vais vous faire confiance et accepter que ça existe…





De ce que je comprends les admins sur serveur windows ici se connectent a leur serveur via un bureau a distance ou en directe avec le bureau windows et en gros travaillent sur le serveur comme sur un PC de bureau. Je suis comme toi, je suis pas sur de comprendre mais bon je suppose qu’ils ont leurs raisons.









Konrad a écrit :



Nécessaire de bouger la souris pour arrêter un serveur ? <img data-src=" />



Okay là j’avoue qu’on entre dans un domaine que je ne connais pas… <img data-src=" />



j’en ai parlé plus haut : c’est un bug que personne n’a jamais réussi à comprendre sur un serveur en particulier… il bloque son arrêt en plein milieu, et faut bouger un peu la souris pour qu’il continue son arrêt (et redémarre si c’est un reboot).

en dehors de ca, il n’a aucun pb… faut juste s’en souvenir quand tombent les MAJ Windows pour le faire repartir avant que les utilisateurs nous appellent <img data-src=" />









Asgardcfr a écrit :



Hmm il faudrait faire comme dans les avions avec 3 kernels ?



T’en met un à jour, tu le redémarres, tu checks le machin, t’en met un 2ème à jour, tu gardes le 3ème au cas où ça merde à un moment donner, et c’est lui qui fait office de “safe-mode”



Tout ça pour un full update du kernel hein <img data-src=" />

Est-ce que ça en vaut la peine ? Pfff j’en sais rien moi <img data-src=" />







Tu viens de me faire découvrir un truc.



On peut mettre des gif animés comme avatars sur NXI !! <img data-src=" />









seb2411 a écrit :



A bah oui tout le monde a des clusters des 100 serveurs avec les même services dessus c’est bien connu. <img data-src=" />






Attention: Tu viens à l'instant d'avouer que tu n'es pas un vrai homme, toi.      

&nbsp;







Konrad a écrit :



J’ai du mal à accepter l’argumentation qui consiste à prendre UN exemple pour en faire une généralité.






 C'est un peu toujours pareil: tu as une nouvelle feature qui est présentée et la discussion dans les comms de cristallisera autour de deux groupes:       






&nbsp;- ceux qui vont trouver l'ajout intéressant, notamment parce qu'ils ont déjà eu ce besoin ou comprennent son intérêt (et même s'il ne s'applique que dans certains cas).      






- et puis ceux qui considèrent que puisque ça ne leur serivra pas ou qui n'ont jamais rencontré ce besoin, le besoin n'existe pas. Ils vont te la jouer blasé, en suivant le précepte de Coluche: "Si vous avez besoin de quelque chose, appelez-moi. Je vous dirai comment vous en passer."  






Le tout sera agrémenté d'une foultitude de cas particuliers (et de contre cas particuliers) de part et d'autre. Non pas pour illustrer une argumentation, mais utilisés comme seul contenu argumentatif.


Ça marchait avec les anciennes versions (à l’époque de PCI), pas sur la dernière version. Avec d’ailleurs un erreur assez incompréhensible : « impossible de charger une image inférieure à 215 pixels » (de largeur ? de hauteur ? au total ??? et c’est pas plutôt supérieure ?).

Mais bon, du coup si tu n’as pas changé d’avatar depuis, ça reste.


ssh sait transferer une connection en cas de redémarrage du service.

C’est justement pour pouvoir fixer ce genre de soucis sans perdre la connection en cours de route !



Je ne sais pas comment il fait dans la pratique, mais je suppose que le protocole à très peu besoin de conserver des états permanents et qu’il passe le descripteur de socket (et ce qu’il y a besoin d’autre) au nouveau processus par une socket.








Konrad a écrit :



J’ai du mal à accepter l’argumentation qui consiste à prendre UN exemple pour en faire une généralité.



« Sur le forum de NXI on a de la redondance, donc cette fonctionnalité est inutile ? »

« Dans un data center il y a du load balancing, donc ça ne révolutionne rien ce truc. »



Oui, quand on veut limiter le downtime il y a d’autres solutions.

Non, ça ne veut pas dire que le « Live Patching » ne sert à rien… Ce n’est pas parce que VOUS, vous n’arrivez pas à imaginer à quoi ça peut servir, que c’est forcément inutile… <img data-src=" />





La remarque est autant valable pour tous n’est ce pas. C’est pas parce t’as un serveur chez toi que tout le monde en a…



La news présente ça, et c’est la liesse dans l’assistance.

&nbsp;

Mais bon finalement :

-T’update ton kernel toutes les 5 minutes ? J’en doute.

-Est ce qu’on va changer toutes le solutions dans toutes les structures pour cette raison ? J’en doute.

&nbsp;

&nbsp;Donc voila c’est “meugnon”, mais c’est “MicroFocusser”.



Je dirai qu’il y a des problèmes nettement plus chiant qui ne sont pas vraiment adressés.



&nbsp;Le BIG picture.

Le support très tardif de la part des constructeurs (sur les 15 dernières années) notamment les cartes vidéo mais pas que cela (SMP, OpenCL etc…), l’intégration des pilotes libre pas vraiment à la portée des utilisateurs lambda (avec le fameux, il fallait savoir). On a beau dire Linux sur un PC c’est pas Android. Faut connaitre un minimum. Le problème des cartes mère estampillés ersatz de Palladium (avec un nom changeant a chaque mouture) qui n’aidera pas à la démocratisation. Et il y a bien un moment ou il faudra s’en défaire avec une solution qui ne soit pas un contournement.&nbsp; Bref… Ca; personne n’en parle vraiment et y’a pas de Roadmap bien claire à ma connaissance.



Ca continue comme avant.

&nbsp;



En même temps, quand on utilise pas de bons outils mais qu’on les garde quand même, on assume et on sort la souris.











&nbsp;Vendredi rules. <img data-src=" />








TexMex a écrit :



La remarque est autant valable pour tous n’est ce pas. C’est pas parce t’as un serveur chez toi que tout le monde en a…



La news présente ça, et c’est la liesse dans l’assistance.

&nbsp;

Mais bon finalement :

-T’update ton kernel toutes les 5 minutes ? J’en doute.

-Est ce qu’on va changer toutes le solutions dans toutes les structures pour cette raison ? J’en doute.

&nbsp;

&nbsp;Donc voila c’est “meugnon”, mais c’est “MicroFocusser”.



Je dirai qu’il y a des problèmes nettement plus chiant qui ne sont pas vraiment adressés.



&nbsp;Le BIG picture.

Le support très tardif de la part des constructeurs (sur les 15 dernières années) notamment les cartes vidéo mais pas que cela (SMP, OpenCL etc…), l’intégration des pilotes libre pas vraiment à la portée des utilisateurs lambda (avec le fameux, il fallait savoir). On a beau dire Linux sur un PC c’est pas Android. Faut connaitre un minimum. Le problème des cartes mère estampillés ersatz de Palladium (avec un nom changeant a chaque mouture) qui n’aidera pas à la démocratisation. Et il y a bien un moment ou il faudra s’en défaire avec une solution qui ne soit pas un contournement.&nbsp; Bref… Ca; personne n’en parle vraiment et y’a pas de Roadmap bien claire à ma connaissance.



Ca continue comme avant.

&nbsp;





Sur des serveurs tu peux être amener a mettre a jours le kernel régulièrement. Avoir cette fonctionnalité c’est clairement un plus qui peut être utile. Personne ne parle de révolution ni rien d’autres ici comme tu essayes le sous entendre.



Le support des cartes video se fait via les pilotes proprio AMD et NVIDIA et libre pour Intel. L’ensemble dans les temps.



L’intégration des pilotes libre est présent par defaut… L’utilisateur n’a rien a faire ici.



Pour le reste c’est incompréhensible (c’est quoi le rapport avec les cartes mères ?).









TexMex a écrit :



La remarque est autant valable pour tous n’est ce pas. C’est pas parce t’as un serveur chez toi que tout le monde en a…



La news présente ça, et c’est la liesse dans l’assistance.

 

Mais bon finalement :

-T’update ton kernel toutes les 5 minutes ? J’en doute.

-Est ce qu’on va changer toutes le solutions dans toutes les structures pour cette raison ? J’en doute.

 

 Donc voila c’est “meugnon”, mais c’est “MicroFocusser”.







Mais évidemment que c’est « Micro-focussé ». Personne n’a jamais dit le contraire.





  • Cette fonctionnalité prétend tout révolutionner et remplacer d’autres solutions existantes ? Non.

  • Cette fonctionnalité prétend être plus importante que les autres problèmes à résoudre ? Non.



    Au final c’est quoi le problème ? D’après toi il ne faut implémenter aucune fonctionnalité, sauf si c’est un truc qui révolutionne tout ? Tu ne peux pas prendre cette fonctionnalité pour ce qu’elle est : UNE PETITE FONCTIONNALITÉ, un truc que certains trouveront pratique, et sans avoir la prétention de changer la vie de tout le monde ?









    TexMex a écrit :



    Je dirai qu’il y a des problèmes nettement plus chiant qui ne sont pas vraiment adressés.



     Le BIG picture.

    Le support très tardif de la part des constructeurs (sur les 15 dernières années) notamment les cartes vidéo mais pas que cela (SMP, OpenCL etc…), l’intégration des pilotes libre pas vraiment à la portée des utilisateurs lambda (avec le fameux, il fallait savoir). On a beau dire Linux sur un PC c’est pas Android. Faut connaitre un minimum. Le problème des cartes mère estampillés ersatz de Palladium (avec un nom changeant a chaque mouture) qui n’aidera pas à la démocratisation. Et il y a bien un moment ou il faudra s’en défaire avec une solution qui ne soit pas un contournement.  Bref… Ca; personne n’en parle vraiment et y’a pas de Roadmap bien claire à ma connaissance.







    Oh y’a d’autres problèmes nettement plus chiants et plus importants. C’est vrai, qu’est-ce qu’on s’en fout de l’intégration des pilotes, alors qu’il y a le problème de la faim dans le monde hein…



    Est-ce que tout le monde ne devrait s’employer qu’à résoudre les problèmes importants ? Est-ce que ça a un putain de rapport avec la fonctionnalité évoquée ici ? Non. C’est juste une diversion parce que tu n’as pas trouvé d’arguments, alors tu pointes autre chose du doigt.



    Les mecs qui ont développé le « Live Patching » (Red Hat, Suse) l’ont fait sans doute parce qu’ils en avaient besoin, EUX. Ils n’ont jamais cherché à vendre ça comme une révolution, ni comme la solution à tous les problèmes de tout le monde. Ils n’ont pas dit non plus que c’était le problème le plus important à résoudre. Alors arrête de leur faire dire ce qu’ils n’ont pas dit. Tes messages ne contiennent aucun argument.



    Encore une fois c’est UNE fonctionnalité, UN patch, ça sera utile à certains, et pas à d’autres. Tu n’arrives pas à comprendre ça, tu veux vraiment qu’on dise tous que c’est inutile ?









TexMex a écrit :



La remarque est autant valable pour tous n’est ce pas. C’est pas parce t’as un serveur chez toi que tout le monde en a…






   Lui n'a jamais affirmé que c'était indispensable et utile pour tout le monde.         

A contrario, toi quand tu n'en as pas l'utilité, tu en déduis que c'est inutile pour tout le monde.





En bref, du pur nombrilisme.









TexMex a écrit :



Je dirai qu’il y a des problèmes nettement plus chiant qui ne sont pas vraiment adressés.



  &nbsp;  Le BIG picture.          

(blablabla sujet rien à voir)








  L'argument à peu près aussi pertinent que de dire:      





“ouais mais on s’en fout des updates de kernel parce que pendant ce temps il y a la famine dans le monde. Ca n’a rien à voir avec le schmilblick, mais quand même, la famine dans le monde c’est vachement plus prioritaire qu’une update du kernel, tu vois.”



  &nbsp;        






  &nbsp;


^^ grilled.

&nbsp;








46 75 63 6b 20 6f 66 66 a écrit :



En même temps, quand on utilise pas de bons outils mais qu’on les garde quand même, on assume et on sort la souris.











 Vendredi rules. <img data-src=" />



c’est pour ca que le seul serveur Linux qu’on avait ne nous sert plus : on ne garde que les bons outils fonctionnels <img data-src=" />









Patch a écrit :



c’est pour ca que le seul serveur Linux qu’on avait ne nous sert plus : on ne garde que les bons outils fonctionnels <img data-src=" />





Que tu dois éteindre en agitant une souris&nbsp;<img data-src=" />









seb2411 a écrit :



Que tu dois éteindre en agitant une souris <img data-src=" />



non c’est un serveur sur plusieurs dizaines qu’on gère. et qui fonctionne parfaitement en dehors de ce bug (depuis qu’il a été installé en 2005, les seules interventions qui ont été faites dessus sont les MAJ du logiciel qui tourne sir ce serveur).



Dixit celui qui garde une souris.








46 75 63 6b 20 6f 66 66 a écrit :



Dixit celui qui garde une souris.



parce qu’on sait s’en servir, nous.









pentest a écrit :



C’est au fil des années et des versions qui passent, que je constate que le noyau Linux n’a aucun objectif “multimedia”. Et ce n’est certainement pas les quelques mises a jour mineurs du point de vue graphique qui vont changer la donne.

Je peux prendre l’exemple de la MAO, pilote alsa lamentable, obligation de patcher le noyau d’une maniere dégueulasse et non supporté officiellement&nbsp; pour le mode full-prempt afin d’obtenir de la faible latence, entre autre.



Vivement que les projets, et je pense en particulier a Haiku sorte de la version alpha pour enfin travailler convenablement dans le domaine du “multimédia”.







Parce que, bien sûre, haïku sera pleinement supporté.



Si je dis pas de bêtises chez OVH tu peux le paramétrer depuis l’espace client pour masquer certaines/toutes tes coordonnées. Ça s’appelle OwO et c’est gratuit.


&nbsp;Même pas besoin de troller que tu diverges en une interprétation encore plus loufoque et à charge. La pêche est bien bonne. Merci de relire avec un vécu sinon une historisation (accessible sur le net) sur 20 ans. Une sorte de remise en perspective qui ma foi est plus qu’intéressante quand on se donne la peine de le faire a propos de Linux. Merci.



@seb2411

Pour les pilotes 3D, il y a 5~6 ans, ce n’était toujours pas la panacée sur Linux (et surtout au niveau performance). Et avant cela… bon… fallait s’armer de patience quand même. Je me suis bien pris la tête à l’époque a de multiple reprise. Nombre d’autres choses sont pour le moins problématique encore aujourd’hui.

&nbsp;

&nbsp;Dès que tu sors des sentiers battus, ça chicote un peu. Acquisition vidéo parmi les plus courant. On a des cartes vidéo surpuissante et on peut avoir du mal suivant la carte et le support qui va avec sur Linux. C’est une chose que je n’aime pas dire mais sur Linux, depuis un moment et probablement encore aujourd’hui; il faut le hardware qui va avec suivant ce qu’on veut faire. Ex : Blender qui supporte Nvidia et pas AMD pour le GPU rendering. Il y a des raisons mais bon on est toujours loin de l’universalité donc de la liberté de choix. Tu veux du BLender… bon bin en ce moment c’est NVidia et… NVidia.

&nbsp;&nbsp;“c’est quoi le rapport avec les cartes mères ?”

&nbsp;Il y a nombre de problème pour les libertés individuelle, ou la possibilité d’installer sont OS libre sur la machine que l’on veut, et librement.&nbsp; Ex: Le petit fils de Palladium nomé SecureBoot (ou une autre connerie du genre); qui même si on peut le désactiver (pour combien de temps ? grosse question) reste un des problèmes qu’il faudra bien adresser un jour concernant linux avec des vraies solutions. Notamment au niveau du livepatching. Il faut du code signé… Donc les nouvelles fonctionnalités du kernel sont un plus mais dans l’ordre hiérarchique; il faudrait s’assurer que tout ira bien. C’est ne chose qui reste sous silence pour le moment.



&nbsp;Donc faut il désactiver le vilain et hideux secureboot et accessoirement se passer de certaine fonctionnalité potentiellement intéressante ? Aujourd’hui, force est de constater que les grand cadors du libre ne roucoulent pas beaucoup sur le sujet. Pire encore quand on a une certaine diversité de dispositif (tablette, webphone, etc.) plus ou moins “bloqué” à ce niveau (Et probablement de plus en plus dans le futur). Ces fameuses choses qui avancent lentement mais surement chacun dans leur secteur respectif (ligislatif (loi sur le renseignement), logiciel, hardware, etc).

&nbsp;

&nbsp;Malheureusement le Kernel est un peu au centre de tout le système. D’autres exemples existent et l’heure tourne sans que cela avance vraiment sur ce genre de sujet crucial. Donc voila; peut être que de “macro-focusser” aussi serait bon aloi. Chose que je vois de moins en moins dans certains commentaires.








TexMex a écrit :



Même pas besoin de troller que tu diverges en une interprétation encore plus loufoque et à charge. La pêche est bien bonne. Merci de relire avec un vécu sinon une historisation (accessible sur le net) sur 20 ans. Une sorte de remise en perspective qui ma foi est plus qu’intéressante quand on se donne la peine de le faire a propos de Linux. Merci.







Ce n’est pas en parlant de la « Big Picture » que tu peux éliminer une fonctionnalité comme étant inutile. Ton propos est quand même un peu grossier : affirmer que le « Live Patching » ne sert à rien parce que le reste du système et services ne sont pas tous pensés de cette manière (par ex. message #64)… Et maintenant tu viens nous sortir le couplet « j’ai plus de recul que tout le monde, moi je vois la globalité »… <img data-src=" />



Ça ne me paraît pas ahurissant de considérer que cette fonctionnalité peut être utile, même si je n’en vois pas forcément l’utilité pour moi, et même si cette fonctionnalité n’a pas été pensée en harmonie avec tout le reste du système. Ce n’est pas une révolution mais ça peut avoir son utilité.









TexMex a écrit :



Malheureusement le Kernel est un peu au centre de tout le système. D’autres exemples existent et l’heure tourne sans que cela avance vraiment sur ce genre de sujet crucial. Donc voila; peut être que de “macro-focusser” aussi serait bon aloi. Chose que je vois de moins en moins dans certains commentaires.







C’est un fait que les différentes couches d’une distribution GNU/Linux n’ont pas les mêmes objectifs : noyau Linux, pilotes, shell, environnement de bureau, distribution… Il n’est donc pas étonnant que tout cela manque de cohérence et d’unité, de « macro focussage » comme tu dis. Au passage, c’est sans doute une des nombreuses raisons pour lesquelles Linux n’a toujours pas percé sur le desktop.



Mais même si c’est un sujet très intéressant à discuter (l’harmonie des systèmes GNU/Linux), ce n’est pas en discutant de ça que tu montreras quoi que ce soit sur la pertinence ou pas du « Live Patching ».



Tu te sers d’arguments extérieurs pour dire « le Live Patching ne change rien, ce n’est pas une révolution ». Sauf que personne n’a dit que c’en était une hein…



@Konrad, tu perds ton temps et ton énergie pour pas grand chose amha.



&nbsp;TexMex a décidé qu’il était “au dessus” de tout le monde et que ses prises de position étaient universelles et indiscutables. Autant en prendre acte et passer à autre chose.

&nbsp;

&nbsp;








merphémort a écrit :



<img data-src=" /> <img data-src=" />





Il faut bien les essayer avant de les adopter (ou les monter sur des clés sans oublier de temps en temps le mot de passe des version installées) <img data-src=" /><img data-src=" /> <img data-src=" /><img data-src=" />









TexMex a écrit :



&nbsp;Même pas besoin de troller que tu diverges en une interprétation encore plus loufoque et à charge. La pêche est bien bonne. Merci de relire avec un vécu sinon une historisation (accessible sur le net) sur 20 ans. Une sorte de remise en perspective qui ma foi est plus qu’intéressante quand on se donne la peine de le faire a propos de Linux. Merci.



@seb2411

Pour les pilotes 3D, il y a 5~6 ans, ce n’était toujours pas la panacée sur Linux (et surtout au niveau performance). Et avant cela… bon… fallait s’armer de patience quand même. Je me suis bien pris la tête à l’époque a de multiple reprise. Nombre d’autres choses sont pour le moins problématique encore aujourd’hui.

&nbsp;

&nbsp;Dès que tu sors des sentiers battus, ça chicote un peu. Acquisition vidéo parmi les plus courant. On a des cartes vidéo surpuissante et on peut avoir du mal suivant la carte et le support qui va avec sur Linux. C’est une chose que je n’aime pas dire mais sur Linux, depuis un moment et probablement encore aujourd’hui; il faut le hardware qui va avec suivant ce qu’on veut faire. Ex : Blender qui supporte Nvidia et pas AMD pour le GPU rendering. Il y a des raisons mais bon on est toujours loin de l’universalité donc de la liberté de choix. Tu veux du BLender… bon bin en ce moment c’est NVidia et… NVidia.

&nbsp;&nbsp;“c’est quoi le rapport avec les cartes mères ?”

&nbsp;Il y a nombre de problème pour les libertés individuelle, ou la possibilité d’installer sont OS libre sur la machine que l’on veut, et librement.&nbsp; Ex: Le petit fils de Palladium nomé SecureBoot (ou une autre connerie du genre); qui même si on peut le désactiver (pour combien de temps ? grosse question) reste un des problèmes qu’il faudra bien adresser un jour concernant linux avec des vraies solutions. Notamment au niveau du livepatching. Il faut du code signé… Donc les nouvelles fonctionnalités du kernel sont un plus mais dans l’ordre hiérarchique; il faudrait s’assurer que tout ira bien. C’est ne chose qui reste sous silence pour le moment.



&nbsp;Donc faut il désactiver le vilain et hideux secureboot et accessoirement se passer de certaine fonctionnalité potentiellement intéressante ? Aujourd’hui, force est de constater que les grand cadors du libre ne roucoulent pas beaucoup sur le sujet. Pire encore quand on a une certaine diversité de dispositif (tablette, webphone, etc.) plus ou moins “bloqué” à ce niveau (Et probablement de plus en plus dans le futur). Ces fameuses choses qui avancent lentement mais surement chacun dans leur secteur respectif (ligislatif (loi sur le renseignement), logiciel, hardware, etc).

&nbsp;

&nbsp;Malheureusement le Kernel est un peu au centre de tout le système. D’autres exemples existent et l’heure tourne sans que cela avance vraiment sur ce genre de sujet crucial. Donc voila; peut être que de “macro-focusser” aussi serait bon aloi. Chose que je vois de moins en moins dans certains commentaires.





A ben oui tout c’est arreter il a 56 ans.



Au passage le render Blender AMD n’as pas l’air beaucoup plus efficace sur Windows:

http://wiki.blender.org/index.php/OpenCL









seb2411 a écrit :



A ben oui tout c’est arrêté il a 56 ans.



Au passage le render Blender AMD n’as pas l’air beaucoup plus efficace sur Windows:

http://wiki.blender.org/index.php/OpenCL





Bin en bref y’a 5~6 ans c’était légèrement pourri (et pire si le matos datait). Y’a du mieux depuis lors mais quand même, on reste un peu sur sa faim. Ca donne vraiment une impression “laborieuse” tant pour les propriétaires qui sont sensés ‘supporer’ leur matos que du coté des ‘libriste’ (ou faut pas trop demander son reste). Je connais personne qui arrive finalement a bien y voir clair. On prend tous le ‘pack’ et on croise les doigts à l’installation. Y’a un tel potentiel pourtant que je trouve cela dommage. Comme le suggère Dr.willy ca a mis le temps coté serveur…

&nbsp;

Et oui… Blender, bin… pas AMD. C’est pas seulement un souci de Blender vs AMD. Pour tout pilote/support, il y a une considération kernel (Win/X) aussi. Ca se bousculle pas au portillon, on va dire.

&nbsp;



Cela m’étonne que l’on puisse considérer ce genre de fonction comme inutile, surtout de la part d’administrateurs système.



Pour ma part, avec mes serveurs LAN sous Debian (le serveur WAN est sous OpenBSD), ce sera un plus conséquent car cela me permettra de ne pas bloquer le travail de mes collègues pendant les heures d’ouverture, ou de passer le soir ou les samedi-/dimanche pour faire les mises à jour.








bons baisers de Szczebrzeszyn a écrit :



cela me permettra de ne pas bloquer le travail de mes collègues pendant les heures d’ouverture, ou de passer le soir ou les samedi-/dimanche pour faire les mises à jour.







Quel mauvais souvenir, obligé de planifier une intervention le dimanche entre 2h et 6h du mat à cause de russes qui bossent H24 et ne pouvaient tolérer un créneau d’interruption de service plus long… <img data-src=" />



Après pour ce genre de situation, la logique voudrait que les infrastructures soient prévues de manière à pouvoir échelonner les interruptions de service (c’est ce qu’on a fait sur toutes les plateformes critiques) via de la redondance. Mais parfois ce n’est pas possible pour des raisons techniques, de besoin, de “ça sert à rien*”, ou de coût, tout simplement… re- <img data-src=" />



(* mais t’as pas intérêt à avoir un service interrompu de plus de 4 nanosecondes sinon c’est la guerre !!)



Oui, sauf que ça ne cache malheureusement pas le nom/prénom contrairement à certains registrar étrangers qui servent d’intermédiaire — avec, certes, tous les risques que ça représente — ou des registres « privacy-friendly » pour les particuliers comme le .FR ou le .EU par exemple.



Désolé du HS et de la latence, mais c’est que la réponse m’intéresse aussi pour mon .NET que j’aimerais bien faire revenir en zone Euro, avec le taux USD/EUR actuel plus les perpétuelles augmentations du registre, le renouvellement va finir par me coûter plus cher que les prix pourtant déjà bien élevés de Gandi… <img data-src=" />


Chez 1&1 avec un .fr tu peux tout cacher. Avec les autres je ne sais pas.








Mihashi a écrit :



Chez 1&1 avec un .fr tu peux tout cacher. Avec les autres je ne sais pas.







Au passage, pour info, 1&1 est une boîte allemande, dans un pays où la liberté individuelle et l’intervention de la puissance publique dans la vie des individus est très strictement encadrée au niveau constitutionnel. Si vous ne voulez pas qu’un tiers indélicat vienne voir votre vie privée sur le net, c’est bon à savoir.



Bizarrement, c’est aussi le seul fournisseur de solutions mail pour pros et particuliers qui, à ma connaissance (et j’espère sincèrement me tromper en disant ça) propose une fonction whitelist avec les comptes mails que vous achetez chez eux…



Oui mais ça, comme je le disais, c’est carrément le registre qui le propose, tout comme pour le .EU, le .BE et certainement quelques autres, donc peu importe le registrar chez qui l’ont va, c’est sensé être plus ou moins automatique selon certains critères.



Après le problème, c’est qu’à l’époque où j’ai pris mon .NET, le .FR et le .EU n’étaient pas encore ouverts aux particuliers. J’ai fini par prendre quelques années plus tard un .EU, mais je peux difficilement laisser tomber l’autre maintenant, donc je suis un peu condamné à subir les délires tarifaires de VeriSign… Du coup, si je pouvais aussi m’éviter le change USD/EUR, ce serait déjà ça de moins.


15 ans que je teste linux, que je me dis que c’est un OS conçu par de brillants informaticiens un brin autistes pour leurs semblables, et pas pour un end user. Le multimédia, l’art en général, le créatif, c’est pas le fort du gourou Linux, qui ne jure que pas la Divinité Bidouille.fdfsd



Le son j’y ai jamais rien compris sous linux, un exemple parmi tant d’autres (avec X11, X.Org, wayland, unity & co). Entre Alsa, OSS, Pulseaudio…. De belles illustrations des dérives du “libre” et des limites du raisonnement “chacun pour sa gueule”. Car oui, parfois l’unité a plus de sens qu’une multiplicités de projets redondants.