On se monte un serveur 4U : 16 cœurs, 64 Go de RAM, 2 GPU, 5+5 SSD/HDD, 2 alimentations

On se monte un serveur 4U : 16 cœurs, 64 Go de RAM, 2 GPU, 5+5 SSD/HDD, 2 alimentations

Le tout dans un peu d'OSB3

Avatar de l'auteur
David Legrand

Publié dans

Hardware

07/05/2021 9 minutes
44

On se monte un serveur 4U : 16 cœurs, 64 Go de RAM, 2 GPU, 5+5 SSD/HDD, 2 alimentations

Assembler son propre serveur est une chose. Mais tant qu'à faire, autant voir les choses en grand. C'est ce que nous avons décidé de faire dans un nouveau projet au format 4U, destiné à de nombreuses expériences.

Il est désormais simple de louer de la puissance de calcul « dans le cloud », à l'heure, pour réaliser certaines tâches gourmandes en puissance. Ou d'avoir un NAS à la maison pour stocker des données. Nombreux sont les passionnés d'informatique qui cherchent cependant à se monter un serveur à la maison, dans leur « Home Lab ».

Plus ou moins performant selon les moyens et les besoins de chacun, il peut être de forme variée et couvrir différents usages. Cela peut aussi bien être une machine passive qu'un mini PC, parfois avec du 2,5 Gb/s ou rackable. Certains se contenteront d'un simple Raspberry Pi en PoE, d'autres opteront plutôt pour un serveur 1U maison.

Aujourd'hui, nous avons cherché à composer une solution performante à bien des niveaux. Notre objectif était d'intégrer de nombreux cœurs, SSD, HDD, GPU et beaucoup de mémoire. Le tout avec une alimentation redondante. Un serveur capable de tout faire au sein de notre labo, parés pour les plus gros projets.

On a même créé un meuble pour ça

Commençons par un projet dans le projet, notre volonté étant de placer ce serveur et d'autres équipements réseau à l'étage, dans une pièce pas tout à fait terminée ni isolée. On aurait pu opter pour un rack professionnel, comme le Millenium IR-2012 que nous avons déjà évoqué, ou notre LackRack 18U, mais nous avions une autre idée.

Un meuble adapté à un besoin précis, au format « xU » avec une largeur de 451 mm, mais doté de certains éléments fixes pouvant soutenir un poids parfois élevé. Nous avons donc opté pour une création maison, conçue en dalles d'OSB3 (supportant une plus grande humidité) de 16 mm. Un matériau peu coûteux : 9 euros du m².

Quelques découpes à la scie sous table, le meuble était terminé. Attention à bien dimensionner et positionner vos vis (avec pré-perçage), surtout si vous comptez imposer du poids à certains étages. Elles doivent entrer assez dans la planche pour éviter tout problème, être centrées et pas trop larges pour éviter de fendre le bois.

Vous pouvez également opter pour des cales de renfort sous la planche qui supportera tout le poids par sécurité.

Meuble RackMeuble Rack
Notre meuble ici avec un rack Silverstone RM208-Mini... pour un autre projet

Le boîtier rackable : Silverstone CS350, 4U

Notre premier choix a été le plus évident : pour le boîtier, il nous fallait le CS350 de Silverstone. Cette référence est à mi-chemin entre le produit grand public et le serveur rackable tout confort. Elle est ainsi livrée avec des pieds pour être posée sur un meuble. Le constructeur nous a mis un exemplaire à disposition pour ce projet.

Il dispose de cinq baies 3,5" en façade (deux alimentations et cinq ports S-ATA) ventilées (80 mm, 1300 tpm), de nombreuses baies 2,5" internes, une 5,25", un ventilateur de 120 mm avec filtre anti-poussière (magnétique) en façade, de l'USB 3.0 et... de la place. Il faut tout de même respecter certaines contraintes.

La carte mère ne doit pas dépasser le format ATX, la longueur de l'alimentation être au maximum de 250 mm, celle de la carte graphique de 350 mm. Le ventilateur du CPU doit être prévu pour un format 4U : pas plus de 110 mm. C'est le cas de certaines références Noctua. Le processeur choisi étant un bon vieux Core i9-7960X, un NH-U9DX i4 faisait l'affaire. Nous l'avons accompagné de deux NF-A8 PWM pour l'extraction à l'arrière. 

  • Serveur 4U SilverStone GSkill
  • Serveur 4U SilverStone GSkill
  • Serveur 4U SilverStone GSkill

Attention tout de même, l'ensemble est imposant : 440 x 161,2 x 474 mm (de profondeur). Dans un rack, il faudra l'accompagner de rails ou le soutenir puisque, composé d'acier (SECC), il pèse 7,95 kg à vide. Bref, ce boîtier à (presque) tout pour plaire. Reste un point qui en freinera plus d'un, son prix : 290 euros, sans les rails.

Certains lui préfèreront des modèles plus basiques dans les 110 euros à 150 euros. Autre possibilité : opter pour un boîtier classique et le coucher, avec éventuellement des baies extractibles dans les emplacements 5,25" (comptez 130 euros). Ce ne sera pas aussi « propre », mais ça peut être bien plus économique. À vous de voir !

FSP Twins : de la redondance dans votre alimentation (700 watts)

Pour limiter les défaillances, il est possible d'opter pour une alimentation redondante. Une solution que l'on trouve couramment dans les NAS et serveurs en tous genres. Ainsi, si un bloc vient à tomber en panne, le second prend le relais, une alerte sonore étant émise. On peut alors simplement remplacer le bloc défaillant. 

FSP propose par exemple sa gamme Twins, que nous avons utilisée ici. La société a mis à notre disposition un bloc composé de deux modules de 700 watts pouvant être retirés indépendamment de manière simple. Son installation est identique à celle d'une alimentation ATX classique puisqu'elle respecte ce format :

FSP Twins 700WFSP Twins 700W

Lors de notre installation, nous avons dû faire avec le câble ATX 24 broches un peu court pour la carte mère utilisée. Il a fallu acheter une rallonge pour une dizaine d'euros. Notez au passage que les connecteurs en façade du boîtier sont dotés de câbles assez longs, mais de justesse. Les ventilateurs étaient touchés par un problème similaire, mais heureusement, Noctua pense systématiquement à les livrer avec des rallonges PWM.

Petit regret : cette alimentation n'existe pas en version modulaire. Pouvoir retirer des câbles inutilisés aurait facilité la « propreté » de notre installation. Les deux blocs sont certifiés 80PLUS Gold, ils fournissent jusqu'à 51 A sur leur rail 12 V et 20 A sur les 3,3/5 V, ce qui était tout à fait suffisant pour notre besoin.

Un connecteur USB à relier à un header de la carte mère permet d'utiliser le logiciel FSP Guardian permettant de surveiller certaines valeurs en temps réel : rails de tension, température, consommation, etc.

Ne vous attendez pas à du silence. Les blocs utilisés sont compacts, les ventilateurs aussi (40 mm), cela souffle donc. Le bruit est mesuré par rapport à certains serveurs, mais audible. Ce n'est pas un problème dans notre cas, la machine étant destinée à être dans une pièce vide, mais attention si vous comptez l'utilisez dans une pièce à vivre.

Là aussi le tarif risque d'en rebuter certains, puisqu'il faut compter 440 euros. Notez qu'une version Pro est disponible depuis peu. Si vous pouvez tolérer des pannes, vous pouvez opter pour une alimentation classique.

La carte mère : X299 WS/IPMI d'ASRock Rack

Comme évoqué précédemment, nous avons opté pour un Core i9-7960X. Nous avions en effet besoin d'un certain nombre de lignes PCIe pour connecter tous nos SSD et cartes graphiques. Vous pouvez adapter ce choix à vos propres besoins, et regarder du côté des Ryzen/Threadripper par exemple.

Nous avons choisi une carte mère ASRock Rack X299 WS/IPMI (vendue 530 euros), disposant de toute la connectique nécessaire et surtout d'un contrôle distant. Un élément important lorsque la machine est dans une pièce éloignée. Il évite d'avoir à se déplacer pour un redémarrage ou un dépannage.

Là aussi, vous pouvez opter pour d'autres références, comme la TRX40D8-2N2T que nous avons récemment testée.

ASRock Rack X299 WS/IPMIASRock Rack X299 WS/IPMI

Comme évoqué, nous avons rencontré quelques problèmes en raison du positionnement de certains connecteurs, nécessitant une rallonge. On apprécie par contre la multitude de ports S-ATA présents et le positionnement des ports PCIe par couple x8/x16 qui nous a permis d'utiliser le premier connecteur pour nos SSD NMe (4x PCIe 3.0 x4) et les deux autres pour des cartes graphiques (chacune en PCIe 3.0 x8) : des GeForce RTX 3060 Ti et 3070.

Attention au système de refroidissement : les cartes sont proches et peuvent donc vite chauffer. Il faut privilégier des modèles avec une extraction de l'air par l'arrière ou ajouter de la ventilation supplémentaire. Autre possibilité, prendre des cartes n'occupant qu'un port PCIe. On pense aux Quadro de la série 4000 de chez NVIDIA, comme la RTX 4000 que nous avions pu tester... mais nous n'avons pas pu en obtenir quatre pour ce dossier.

Notez que vous pouvez aussi utiliser ces ports PCIe pour des cartes contrôleur, réseau, etc. Selon notre besoin. Enfin, nous avons placé 8x 8 Go de DDR4 signée Kingston. Cela avait deux avantages : profiter des quatre canaux mémoire proposés par le Core i9-7960X, mais également ajouter une touche de LED qui plaira à certains.

Serveur 4U Windows 10

ASUS Hyper M.2 : 4 SSD NVMe dans un seul emplacement PCIe

Dernière pierre à notre édifice : le stockage. Nous avons placé des HDD dans chacune des cages disponibles en façade, ainsi qu'un SSD de 2,5" (500 Go) dans un emplacement interne pour accueillir le système. Pour les usages nécessitant du débit, nous avons placé quatre SSD M.2 au format 2280 dans une carte ASUS Hyper M.2 x16. Nous l'avions payé 53 euros à l'époque mais elle n'est plus disponible désormais. 

La carte mère gérant la bifurcation x4x4x4x4 de ses ports PCIe 3.0 x16, elle peut être utilisée sans problème, avec la solution logicielle VROC d'Intel, actuellement dans sa version 6.3. On peut ensuite utiliser ces SSD indépendamment ou en RAID (logiciel) afin de maximiser les débits ou la redondance des données. 

Rendez-vous dans de prochains articles pour découvrir les performances de la bête !

ASUS Hyper M.2 X16ASUS Hyper M.2 X16

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

On a même créé un meuble pour ça

Le boîtier rackable : Silverstone CS350, 4U

FSP Twins : de la redondance dans votre alimentation (700 watts)

La carte mère : X299 WS/IPMI d'ASRock Rack

ASUS Hyper M.2 : 4 SSD NVMe dans un seul emplacement PCIe

Fermer

Commentaires (44)


Ca devient sérieux ^^ Je connaissais pas les double alim’ dans du RTX, c’est cool ça. Avec des RTX factice je présume ( :troll: )
Par contre, ça me fait penser qu’il me faudrait peu être une solution IPMI en PCIe. Je viens de tester ESXi 7 sur une CM qui n’a pas d’USB 2 natif, pas moyen de faire fonctionner un clavier USB, j’ai du passer par de l’installation scripté pour y arriver. Si vous avez l’occasion de tester la carte Asrock PAUL… :D


Merci pour l’article, on attend la suite avec impatience :)


Et donc du coup vous avez mis quoi comme carte graphique parce que à part RTX sur la tranche (voir photo), on ne sait pas trop ?


3060 Ti/3070 (voir la capture)


On a construit notre lit avec ce bois XD.
Les grands esprits ce rencontrent !


J’avoue, ça sert à plein de choses. Mais pour mon lit j’aurais pas confiance :transpi:


Juste quand je reçois les pièces de mon nouveau projet mais sous AMD avec une carte d’ancienne génération présenté ici : ASROCK RACK X470D4U accompagné de 64 Go de ram ECC, un Ryzen 5 3600, d’une carte dual SFP+ et une carte dans le style de l’ASUS Hyper M.2 x16 (choix pas encore fixé).



Hâte d’en savoir plus sur les performance de l’ASUS Hyper M.2 x16 tout comme le reste de ce serveur.



David, ca serait possible que tu nous parles de comment tu va gérer l’arrivé électrique distincte pour chacun des blocs d’alimentation ?
J’ai beau tourner la question dans tout les sens depuis des mois et je n’en vois pas un intérêt très pertinent pour du home server. Car dans mon cas en étant en appartement il est difficile d’être sur deux phases séparées. En maison, ce type d’alimentation serait peut être plus pertinent.


À chaque fois que je vous ces alims doubles, je me pose la question de leur utilité pour un particulier. De toute manière, au mieux, on va tout brancher au même compteur, alors la redondance est quand même très limitée… L’uptime sera de toute façon limité par les mises à jour, le réseau devra être redémarré également pour les mêmes raisons, alors a quoi bon ?
Si ça se trouve, la réponse est juste “parce que c’est rigolo”…


Là ça permet d’éviter une panne surtout, en espérant que les 2 alims ne sautent pas au même moment :)


J’aime bien ces petits projets fumants de bidouille xD. Mais vous en êtes à combien déjà niveau Budget ? C’est du projet pas donné :) Mais c’est sympa, on découvre des trucs. Je ne savais pas qu’AsRock faisait des MB comme celles-ci…



C’est destiné à quel usage ?



Par contre, l’OSB3, bien sympa ! Bon.. au prix du projet, vous auriez pu acheter un peu de métal, un petit poste à souder et zou pour faire un Rack en métal !



Ca doit ronfler en tous cas !


En datacenter tu as souvent plusieurs réseaux électrique indépendants, donc tu branche chaque alim sur une source différente et si une source venait a tomber c’est l’autre qui prend le relai. Idem pour le réseau, plusieurs connexion indépendante.
Il faut éviter les SPOF aux maximum



Zaxe a dit:


Juste quand je reçois les pièces de mon nouveau projet mais sous AMD avec une carte d’ancienne génération présenté ici : ASROCK RACK X470D4U accompagné de 64 Go de ram ECC, un Ryzen 5 3600, d’une carte dual SFP+ et une carte dans le style de l’ASUS Hyper M.2 x16 (choix pas encore fixé).




:D




Hâte d’en savoir plus sur les performance de l’ASUS Hyper M.2 x16 tout comme le reste de ce serveur.




C’est une carte passthrough. Par contre faut que je trouve 4 bons SSD pour m’amuser un peu;




David, ca serait possible que tu nous parles de comment tu va gérer l’arrivé électrique distincte pour chacun des blocs d’alimentation ? J’ai beau tourner la question dans tout les sens depuis des mois et je n’en vois pas un intérêt très pertinent pour du home server.




C’est un des soucis en résidentiel, tu n’as qu’une arrivée. C’est surtout pour limiter les pannes, ou alors pour en mettre une (ou les deux) sur un onduleur isolé du réseau par exemple.




(quote:57010:dvr-x)
J’aime bien ces petits projets fumants de bidouille xD. Mais vous en êtes à combien déjà niveau Budget ? C’est du projet pas donné :)




J’ai pas fait le calcul du total, mais c’est aussi pour ça que j’évoque des alternatives moins coûteuses, les choix peuvent être différents selon les besoins de chacun. Comme pour l’alimentation redondante à voir ce que l’on a évoqué au-dessus. Là c’est surtout pour montrer un extrême de ce qu’il est possible dans ce format.




Mais c’est sympa, on découvre des trucs. Je ne savais pas qu’AsRock faisait des MB comme celles-ci…




C’est pas faute d’en parler régulièrement pourtant :D




C’est destiné à quel usage ?




Là c’est surtout le serveur à tout faire du labo, quand il faut tester des applicatifs qui demandent de la grosse performance, du GPU, etc.




Par contre, l’OSB3, bien sympa ! Bon.. au prix du projet, vous auriez pu acheter un peu de métal, un petit poste à souder et zou pour faire un Rack en métal !




Je suis moins travail du métal, puis tant qu’à faire autant faire dans du rack clé en main vu les budgets (comme le millenium évoqué en référence)




Ca doit ronfler en tous cas !




C’est pas la plus bruyante, mais c’est pas la plus silencieuse non plus :D


même avec une seule source d’énergie ce n’est pas totalement idiot, ça permet de changer à chaud l’une des deux alimentations si elle a rendu l’âme.


Ou de déplacer le serveur à travers la maison avec une rallonge parce que madame a un besoin urgent de changer un truc dans une pièce et qu’on a lancé un truc qui dure des heures / jours
(mais attention aux disques durs qui n’aiment pas du tout ça)


J’avoue c’est pas le cas d’usage qui m’avait frappé à l’esprit, mais oui du coup on peut changer de type d’alimentation à la volée :transpi:


Et pourquoi pas faire une pièce dédiée ?
L’osb3 sert plutôt à construire des murs au départ. :D



(reply:57016:Idiogène)




Ou des planchers, mais bon, j’ai tendance à l’utiliser pour tout à fait autre chose :transpi: Puis c’est plutôt résistant/adaptable à différents besoins. Pour la pièce dédiée, c’est un peu le cas, mais rien n’est finalisé encore, d’où le fait d’éviter de faire un meuble dans du chêne avec un prix au m3 délirant :D


C’est un peu mieux que le mélaminé c’est sûr. Pour du massif et proche des dimensions d’un serveur et du coût de l’osb au m2 il y a aussi les voliges. Un peu de colle et hop.
L’avantage ici c’est de payer le m3 2 fois moins cher que l’osb. :D



(reply:57018:Idiogène)




Oui, mais il faut souvent corroyer ce que tu récupères (surtout quand tu en récupères à pas trop cher), coller, poncer, traiter (si ce n’est pas le cas des planches initiales). C’est plus propre mais pas franchement moins coûteux et beaucoup plus contraignant au final pour ce genre de réalisation.


Pour le volume façonné oui. L’avantage reste que si tu peux te permettre ces opérations sur des voliges, les palettes récupérés à la même enseigne elles sont gratuites. :chinois:



(reply:57020:Idiogène)




Tout dépend de ce que l’on a sous la main à l’instant “t” oui (et de l’équipement, ici par exemple je n’ai pas ce qu’il faut pour courroyer directement, je dois aller voir les menuisiers/charpentiers du coin). Pour les palettes, maintenant on en fait des meubles trop chers dans les grandes enseignes, faut se méfier :D


C’est pas nouveau c’t’affaire. :windu:


La baie en osb3 je ni ai pas pensé je note
Sinon en bonne alternative, un vieux serveur type HP DL380 G6, ca se gave bien ram jusqu’a 128 Go sans Pb, on peux monter jusqu’à 16 Disques (avec un SAS extender), on trouve pas mal de 900 Go SAS entre 10 et 15 €
Un esxi 6.0 la dessus et ca fonctionne pas si mal



megabob a dit:


La baie en osb3 je ni ai pas pensé je note Sinon en bonne alternative, un vieux serveur type HP DL380 G6, ca se gave bien ram jusqu’a 128 Go sans Pb, on peux monter jusqu’à 16 Disques (avec un SAS extender), on trouve pas mal de 900 Go SAS entre 10 et 15 € Un esxi 6.0 la dessus et ca fonctionne pas si mal




Je te dirais que cela sera de combien tu veux payer de facture d’électricité. Mon DL 380 G7 part de chez moi, car trop consommateur, trop bruyant. Tout comme vieux Fujitsu Primergy TX200 S6.



La solution de David est plus haute mais moins profonde, parfait pour une petite baie maison home made.




David_L a dit:


C’est une carte passthrough. Par contre faut que je trouve 4 bons SSD pour m’amuser un peu;




Bon a savoir pour le coté passthrough et ne pas ce faire avoir si le port 16x ce reconfigure en 8x via l’ajout d’une autre carte sur ma carte mère.




C’est un des soucis en résidentiel, tu n’as qu’une arrivée. C’est surtout pour limiter les pannes, ou alors pour en mettre une (ou les deux) sur un onduleur isolé du réseau par exemple.




J’avais pensé à seulement un deux bloc d’alimentation sur onduleur. Mais je ne trouvais pas cela pertinent chez moi. Vu que j’accepte de perdre mon alimentation quelques jours, la bonne vieille alimentation classique sur onduleur est suffisante pour mes besoins comme mes finances.




Là c’est surtout le serveur à tout faire du labo, quand il faut tester des applicatifs qui demandent de la grosse performance, du GPU, etc.




Ho ca sent le proxmox avec une vm windows en pass through pour jouer ou faire de la 3D



Vivement le second article.



Zaxe a dit:


Je te dirais que cela sera de combien tu veux payer de facture d’électricité. Mon DL 380 G7 part de chez moi, car trop consommateur, trop bruyant. Tout comme vieux Fujitsu Primergy TX200 S6.



La solution de David est plus haute mais moins profonde, parfait pour une petite baie maison home made.




Oui surtout qu’au final on se retrouve vite avec une solution qui fait les perfs d’un Ryzen milieu de gamme mais 3x la consommation. Je ne suis pas un grand fan du matos d’occasion côté serveur. Il y a parfois de bonnes affaires à faire, mais il y a aussi de vieux coucous qui se paient cher alors qu’on trouverait un meilleur ratio prix/efficacité/consommation désormais.



Comme dit dans l’article, je montre exprès une solution où l’on pousse tous les curseurs assez haut, mais on peut faire autrement si le budget est restreint (comme on l’a montré avec de précédents articles) et avec du matos plus ou moins dans les gammes GP/Pro selon les cas.




Bon a savoir pour le coté passthrough et ne pas ce faire avoir si le port 16x ce reconfigure en 8x via l’ajout d’une autre carte sur ma carte mère.




Oui il faut faire attention à avoir la bifurcation x4x4x4x4 et tous les liens actifs. C’est pour ça qu’ici le second port PCIe 3.0 est innocupé (sinon le premier passerait en x8).




Ho ca sent le proxmox avec une vm windows en pass through pour jouer ou faire de la 3D
Vivement le second article.




Je ne suis pas très proxmox au quotidien (trop austère :D). Mais oui il y a de la VT (entre autres choses). C’est typiquement le genre de machine que je monte pour faire des tests comme le passthrough GPU sans avoir à monter une configuration en urgence quand la fonctionnalité est annoncée :transpi:


Oui ça peut être l’occasion de jouer avec Proxmox sinon : https://pve.proxmox.com/wiki/Main_Page



En perso je le préfère à un esxi, peut être parce que j’en mange tous les jours de l’esxi aussi :mdr:


Mais justement, quel est l’intérêt de pouvoir le faire en résidentiel ?
Je pense que ce n’est pas l’alim le point faible, c’est plutôt tout ce qu’il y a autour . Perso, j’ai eu plus de coupure électrique ces dix dernières années que d’alim qui rend l’âme, alors pouvoir faire le changement à chaud ne devrait pas trop changer l’uptime. :keskidit:
Après ,c’est clair que je ne suis pas la cible de ces trucs. Mais pour ce point particulier ici, j’ai clairement l’impression que c’est juste pour l’avoir, que ça n’apporte rien de vraiment concret. Un onduleur sera plus efficace pour faire ce que l’on cherche avec ce type d’alim. On pourrait penser à brancher deux onduleurs (un par alim), mais là ça reste toujours trop, parce que rien que les mises à jour des OS vont plomber l’uptime.
Pour tout le reste, cette config va loin mais je peux parfaitement comprendre : on monte le volume à 11.



En datacenter, oui, c’est différent (sauf à Strasbourg en 2017, mais ça petit comme remarque). Mais ce n’est justement pas le cas ici, et je ne pense pas que David paye deux arrivées électrique pour sa maison, qui viennent de deux transformateurs différents, si jamais c’était possible dans une zone résidentielle :D.



(reply:57032:popi_le_clown) Je suis d’accord qu’une alim qui lâche c’est rare, mais on peut toujours vouloir ne pas prendre le risque. Et puis ‘ai envie de dire que tout l’intérêt d’un homelab, c’est de faire tes expérimentations. Perso j’ai commencé à envisager un cluster Proxmox à la maison, because reasons. C’est pas raisonnable et ça n’apporte pas grand chose à mon niveau, mais c’est une manière de découvrir.



Ce qui peu arriver c’est un onduleur HS. C’est possible quand on est sur des pti’ modèle pas trop cher (j’ai pas trouvé les Eaton ellipse hyper fiable). Et sinon dans le cas d’un cluster physique + applicatif, tes uptimes de service seront pas touché.


Tu confonds deux points : un onduleur n’est pas là pour éviter qu’une alimentation lâche, il est là pour assurer la continuité d’alimentation (d’où son nom originel, UPS) qqsoit la situation, parfois fournir un courant de “meilleure qualité” à la machine. La manière diffère selon le type d’onduleur, les avantages aussi, mais on peut très bien protéger des équipements sans un tel dispositif.



Une redondance d’alimentation sert à… redonder. Un bloc lâche, l’autre prend le relais. Tu veux changer un bloc ou faire de la maintenance, l’autre prend le relais. Ces deux approches/besoins ne s’opposent pas, mais ça se complète assez bien en pratique. Ta remarque revient à celle qui tend à opposer RAID et backup en oubliant que ce ne sont pas des dispositifs avec des objectifs similaires.



Pour le reste, je le dit dans l’article : certains auront une tolérance à la panne assez large. Dans un Home Lab quand on ne fait que bidouiller, on peut très bien faire avec une machine HS pendant quelques jours le temps de récupérer une autre alimentation. Quand ce n’est pas le cas, parce que le serveur héberge des données/services qui doivent être constamment accessibles, c’est autre chose.



L’alimentation redondante peut être un moyen de se prémunir contre certaines défaillances, ce n’est pas un gilet pare-balle contre tous les problèmes. A chacun d’évaluer le rapport bénéfice/risque/coût au regard de sa situation. Ici, on ne fait qu’évoquer ce qu’il est possible de faire.



Mais c’est une solution plus élégante qu’avoir une seconde alimentation sous la main, comme on se protège des pannes de stockage avec le RAID, qu’on ne peut pas mettre en place pour tous les composants. Et ça permet d’avoir un juste milieu par rapport à une solution qui consisterai à tout dédoubler.


Oui, c’est vrai : pour l’avoir. C’est une raison.




(reply:57034:Fab’z)




Je ne pense pas avoir confondu, mais je me suis peut-être mal exprimé. J’ai cherché à comprendre ce qu’on cherche avec ces alims, et partir de ce qu’on cherche à avoir : l’uptime.
Je me trompe peut-être, mais perso, mon uptime sera plus limité par la disponibilité de mon routeur, des logiciel (et les mise à jour, en particulier), de ma box (si l’accès internet est nécessaire, et un reboot est nécessaire très régulièrement), voire même des coupures d’électricité (changement du compteur, accidents, etc.). Donc pour la tolérance de panne, j’ai la sensation qu’il est nécessaire de faire plein d’autres choses avant d’utiliser une alimentation redondante, qui ne n’apporte qu’un pourcentage minimal d’uptime face aux autres problèmes à résoudre. J’ai un peu l’impression qu’il faudrait, pour que cela apporte vraiment quelque chose en résidentiel:




  • Changer de fournisseur d’accès et passer à un fournisseur “Pro” (on peut y accéder en zone résidentielle ? Je pense pouvoir trouver un pop près de chez moi, mais de là à pouvoir venir jusqu’à chez moi c’est une autre paire de manche)

  • Avoir deux onduleurs (parce que je ne sais pas si on peut avoir deux lignes électriques chez soi, mais je me trompe peut-être) (Merci @Fab’z pour la remarque)

  • être capable de redonder la machine (même en dégradé) au moins le temps des mises à jour
    Là, oui, peut-être qu’une alim redondée aura un INpact significatif sur ce qui reste…



Donc, oui, la possibilité existe. Le RAID, on connait un peu (et on a tous déjà dû perdre un disque, sinon c’est que ça arrivera). Mais là, je trouve qu’il manque une discussion sur l’intérêt de chaque solution de redondance dans ce contexte. On pourrait même aller plus loin et parler de toutes les redondances, de ce qui se fait pour la haute disponibilité, autant au niveau hard qu’au niveau soft, parce que je ne connais pas grand chose: je ne comprends pas bien comment on fait pour redonder un routeur, par exemple. Pareil pour un reverse proxy ou un load balancer, je ne vois pas trop comment on les met à jour sans interrompre le service, et plus généralement comment on évite tout SPoF d’un point de vue uptime, parce que je suppose qu’un datacenter Tiers IV n’a pas trop le droit d’en avoir.



(l’Internet n’est pas mon métier, je suis juste curieux)


Disons que si t’as aucune panne de routeur mais un bloc d’alim qui crame, ton estimation n’a que peu d’intérêt. Si les pannes suivaient ce que pensent les concepteurs de SI, leur vie serait plus simple. Concevoir un SI qui doit être résilient, qqsoit la taille ou le besoin c’est prévoir, anticiper, préparer.



tout le reste, ça reste de la stat qui te fait une belle jambe dans la pratique. Tu peux jouer des années au loto et ne rien gagner. Jouer une fois et finir milliardaire. Les pannes informatiques, c’est pareil. La question au final c’est : quand ça te tombera dessus, qu’est-ce que tu peux tolérer et qu’est-ce que tu prépares pour te prémunir de ce qui peut te poser réellement problème.



Il y a des tas d’outils à disposition, aucun n’est meilleur ou plus mauvais qu’un autre. Tout dépend du besoin.


Je suis curieux concernant la bifurcation x4x4x4x4. Comment faites-vous pour déduire celle-ci à partir des spécifications de la carte mère ?



En tous cas, c’est une belle bête ! :yes:


C’est consultable via la notice de la carte mère


Il y a un intérêt à la double alim qui n’a pas été évoqué (il me semble) : C’est que si une alim unique lâche, elle le fera peut être au pire moment : pendant une écriture sur un disque, et forcément durant une mise à jour de l’OS… et après on se retrouve avec une machine à réinstaller ou avec des données perdues/corrompues.
C’est pas pareil une alim qui refuse de redémarrer le matin, et une alim qui crame en plein milieu du fonctionnement du PC/Serveur , les conséquences peuvent être plus larges que la simple interruption momentanée le temps de changer le bloc.


Merci. Je n’avais pas vu le lien de téléchargement sur le site de l’éditeur


Est-ce vraiment encore d’actualité ? Je veux dire qu’avec les systèmes de fichiers journalisés (ext4) ou spécialisés (zfs que je vois encore plus adapté à ce genre de machine), a-t-on véritablement encore ce risque ?
En dehors de la coupure qui a lui alors qu’on transfère à 2Gb/s comme un bourrin.


article sympas comme tout.
Je suis à la recherche actuellement d’un boitier 3U ou 4U vide avec les ports PCI sortant en façade avant (pour mes cartes réseaux).
Vous en avez vue quelques un quand vous avez fait vos recherches de boitiers ?



J’en ai trouvé seulement 1. Le Rack 4U ATX N402 https://pc-industriel.anteor.com/racks-19-pouces/458-rack-4u-atx-cpn402.html . J’aurais aimé avoir plus de choix et surtout en trouvé un 3U.


On sera vraiment moins chère qu’un serveur constructeur comme un DL 360 ? (bon après on est peut être moins souple avec les CG ?)


Ce sera difficile de trouver un équivalent je pense, surtout que les serveurs utilisent rarement des composants accessibles au grand public (ça arrive mais c’est plutôt l’exception que la règle). Après passer par un constructeur a ses intérêts (garantie, support, etc.). C’est un choix à faire selon le besoin/budget.


C’est une question intéressante. Mais c’est pas évident, je sais pas si on peu faire tourner du matos autre que HPE dans un proliant sans que ça gueule coté iLO… ça me donne envie d’essayer ^^ on va avoir des DL360 G8 a bazarder bientôt chez un client :)


Je vois pas de mal de commentaire qui parle d’uptime. Vous me faite peur, car un serveur avec un énorme uptime est un serveur qui n’a pas tout les patchs de sécurités !



Il faut reconnaitre que ce genre de paramétrage n’est pas forcément présente dans le monde grand public ou alors de façon automatique.


Mais si allons, un serveur ça ne redémarre jamais, c’est sous Linux :D


Uptime services ! HA partout ;)