Le récap' des tests : faut-il choisir entre vitesse et capacité pour le stockage ?

Le récap’ des tests : faut-il choisir entre vitesse et capacité pour le stockage ?

On aimerait avoir les deux pour trois fois rien

Avatar de l'auteur
Kevin Hottot

Publié dans

Sciences et espace

28/04/2014 3 minutes
32

Le récap' des tests : faut-il choisir entre vitesse et capacité pour le stockage ?

Aujourd'hui, le récapitulatif des tests s'intéresse à la question du stockage. Pour cela nous avons regroupé quatre tests récemment publiés par nos confrères, traitant de deux SSD dont un au format mSATA, de quatre disques durs conçus pour les NAS et d'un NAS de grande capacité.

À force de télécharger des jeux sur Steam ou Origin, et d'entasser les photos de famille au format RAW, il vient un moment ou l'espace vient à manquer sur nos chers ordinateurs. Fort heureusement il existe de nombreuses solutions pour améliorer votre espace de stockage, que ce soit au niveau de sa réactivité, ou bien de sa capacité.

Plextor M6M 256 Go : premiers tours de piste pour le contrôleur Marvell 88SS9188

Nous entamerons donc ce récapitulatif avec nos confrères de chez Custom PC Review, qui se sont penchés sur le Plextor M6M, un SSD au format mSATA qui a pour particularité d'utiliser un contrôleur encore peu répandu : le Marvell 88SS9188. 

 

Couplé à des puces de Toggle NAND Toshiba gravées en 19 nm, ce contrôleur permet au M6M d'afficher des performances théoriques de l'ordre de 520 Mo/s en lecture et de 440 Mo/s en écriture, dans sa version 256 Go. Qu'en est-il en pratique ? C'est à découvrir tout de suite :

 Plextor M6M

Intel 730 Series 240 Go : il y a un crâne dessus, alors ça va plus vite

Vous connaissiez l'overclocking des processeurs, voici maintenant qu'apparaissent les premiers SSD overclockés. En effet, Intel propose depuis peu les 730 Series, des modèles dérivés des DC S3700 de la marque, qui sont quant à eux conçus pour le monde de l'entreprise. 

 

Pour doper leurs performances, Intel assure avoir « overclocké en usine les composants afin de repousser les limites des performances, avec 50 % d'augmentation sur la fréquence du contrôleur et 20 % sur celle du bus des puces de NAND ». Comment cela se manifeste-t-il dans le monde réel ? Nos confrères de Cowcotland vous le diront :

Intel 730 Series

Western Digital Red 4 To : et si on en mettait quatre en RAID, juste pour voir ?

Chez TweakTown, nos confrères ont passé au crible le récent WD Red 4 To de Western Digital, un disque dur spécialement concu pour répondre aux besoins des utilisateurs de NAS, notamment grâce à une gestion de l'énergie différente de celle de disques plus standard. 

 

Nos confrères ne se sont par contre pas contentés de prendre un exemplaire pour juger de ses performances, mais en ont couplé quatre en RAID 0, 5 et 10. Peut-on espérer les mêmes performances qu'avec un SSD avec une telle solution ? La réponse se cache derrière ce lien :

  WD Red

Synology DS1513+ : taillé pour accueillir le RAID du dessus

Si le test précédent vous a donné des idées, il va peut-être vous falloir un NAS pour accueillir tout ce petit monde. Justement de la place, le DS1513+ de Synology en a à revendre, puisqu'il dispose de cinq baies, mais cela vous coutera tout de même la bagatelle de 700 euros.

 

Un tarif que le constructeur cherche à justifier par la présence d'un processeur Atom D2700 dont les deux cœurs sont cadencés à 2,13 GHz, ou la présence de quatre ports Gigabit Ethernet. Tout ceci permet à la marque d'afficher des performances en lecture théorique de 350,94 Mo/s très précisément. Cela se vérifie-t-il en conditions réelles ? Nos confrères d'eTeknix vous le diront :

Synology DS1513+

Écrit par Kevin Hottot

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Plextor M6M 256 Go : premiers tours de piste pour le contrôleur Marvell 88SS9188

Intel 730 Series 240 Go : il y a un crâne dessus, alors ça va plus vite

Western Digital Red 4 To : et si on en mettait quatre en RAID, juste pour voir ?

Synology DS1513+ : taillé pour accueillir le RAID du dessus

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (32)


Sur mon serveur j’ai deux raid, l’un backup l’autre à 560mo/s, alors les SSD :p



Enfin, tout ça pour dire que ce dernier mois le prix des SSD a grandement baissé, mais pas au point de remplacer les HD.


WD40EFRX : Encore une fois, l’article ne s’intéresse qu’aux performances de ces disques, alors que ce n’est absolument pas ce qu’on attend d’eux…



S’il s’agit de répondre à un besoin de performance pures, on préférera choisir dans la gamme (proche) des WD4003FZEX, chez le même constructeur, qui sont, eux, conçus dans ce but. Ou alternativement s’orienter vers un système hybride comprenant des SSD (à mon avis la meilleure solution)…









Si par contre, on veut rester dans le créneau des RAID auxquels sont destinés ces disques - et par exemple dans le cadre du DS1513+ dont on parle dans le même article - il est très probable que ces disques serviront alors de système de backup ou d’archivage, annexe, du système de production principal. Dans ce cas les deux premiers critères sur lequel on attend ces disques sont la durabilité et la fiabilité,

…dont il n’est pas dit un seul mot dans l’article ! <img data-src=" />








-zardoz- a écrit :



WD40EFRX : Encore une fois, l’article ne s’intéresse qu’aux performances de ces disques, alors que ce n’est absolument pas ce qu’on attend d’eux…



S’il s’agit de répondre à un besoin de performance pures, on préférera choisir dans la gamme (proche) des WD4003FZEX, chez le même constructeur, qui sont, eux, conçus dans ce but. Ou alternativement s’orienter vers un système hybride comprenant des SSD (à mon avis la meilleure solution)…









Si par contre, on veut rester dans le créneau des RAID auxquels sont destinés ces disques - et par exemple dans le cadre du DS1513+ dont on parle dans le même article - il est très probable que ces disques serviront alors de système de backup ou d’archivage, annexe, du système de production principal. Dans ce cas les deux premiers critères sur lequel on attend ces disques sont la durabilité et la fiabilité,

…dont il n’est pas dit un seul mot dans l’article en anglais ! <img data-src=" />












-zardoz- a écrit :



WD40EFRX : Encore une fois, l’article ne s’intéresse qu’aux performances de ces disques, alors que ce n’est absolument pas ce qu’on attend d’eux…



S’il s’agit de répondre à un besoin de performance pures, on préférera choisir dans la gamme (proche) des WD4003FZEX, chez le même constructeur, qui sont, eux, conçus dans ce but. Ou alternativement s’orienter vers un système hybride comprenant des SSD (à mon avis la meilleure solution)…









Si par contre, on veut rester dans le créneau des RAID auxquels sont destinés ces disques - et par exemple dans le cadre du DS1513+ dont on parle dans le même article - il est très probable que ces disques serviront alors de système de backup ou d’archivage, annexe, du système de production principal. Dans ce cas les deux premiers critères sur lequel on attend ces disques sont la durabilité et la fiabilité,

…dont il n’est pas dit un seul mot dans l’article ! <img data-src=" />







Pire, il semblerait que la fiabilité ne soit pas leur qualité première (selon le commentaire en bas de l’article, et quelques témoignages qu’on peut trouver sur le ouaibe).



D’après ce que j’ai pu lire par ailleurs, il semblerait que seul le firmware soit différent entre les modèles “red” et “green” (WD40EZRX). Certains ne seraient pas très loin de conseiller ces derniers, même dans un NAS personnel (du genre Synology) en raison de leur coût plus bas ? C’est d’ailleurs ce qui était fait avant l’apparition de la série “red”.



BTW: Désolé pour mon commentaire précédent, en double, que je ne sais pas effacer ! <img data-src=" />








aerith a écrit :



Sur mon serveur j’ai deux raid, l’un backup l’autre à 560mo/s, alors les SSD :p



Enfin, tout ça pour dire que ce dernier mois le prix des SSD a grandement baissé, mais pas au point de remplacer les HD.





Disque de 10 000 rpm ?



Synology DS1513+ :



Synology est un excellent fabriquant de NAS “personnels”. Certains diront le meilleur ?



Avec ce modèle, on atteint quand même une ambigüité, tant dans le matériel que le logiciel DSM-5 associé : Pour un usage personnel (disons familial), il est un peu trop haut de gamme, trop cher ? et surtout certaines caractéristiques (4 ports ethernet, support iSCSI) seront rarement exploitées.



Inversement, dans un cadre professionnel, outre son conditionnement en desktop plutôt que rack, ce sont la plupart des facilités “familiales” en particulier dans le domaine du téléchargement ou du partage multimédia qui seront peu utilisées.

Toujours pour l’aspect professionnel, je ne crois pas qu’il dispose d’alimentation redondante ? Quant à ses 4 ports ethernet, je ne sais toujours pas comment les affecter à des VLAN distincts et surtout les utiliser ensuite ! Il eût été commode de pouvoir connecter certaines applis web à la DMZ et réserver le partage de fichiers ou la gestion d’annuaires au VLAN interne… Comment ? je suppose qu’il existe des tweaks internes accessibles par SSH pour reconfigurer tout ça ; mais alors quid de la compatibilité avec l’interface graphique ?



Les utilisateurs professionnels se tourneront plutôt (IMHO), vers de vrais serveurs HP ou DELL, permettant une virtualisation sur la machine elle même, le support d’un LAMP standard, et dans ce cas confieront aussi la partie backup/archivage à un autre modèle, ad hoc, du même constructeur.



Synology reste par contre un choix très judicieux, lorsqu’il s’agit d’un usage “ludique” et sauvegarde des PC familiaux. Personnellement, je suis très content d’un DS414, moins onéreux !

Avec sa série “professionnelle” (même les modèles “rack”), Synology est un peu assis entre deux chaises, son DSM, ne répondant pas aux besoins de virtualisation, et l’OS sous-jacent est trop imbriqué avec la surcouche graphique, alors que les caractéristiques de partages de photos ou de musiques paraissent superflues…


Cet article est une mascarade de test en effet on s’en aperçoit sur les tableaux du “File Copy To NAS” et inversement : dont les vitesses varient entre 125 et 132 MO/s en écriture et à l’inverse des perfs presque réduites de moitié en lecture.

En écriture ce ne sont pas les perfs des disques qui sont en cause mais les limites du Gigalane et la qualité du contrôleur (qui n’est pas mauvaise) mais on aurait pu améliorer, suivant les cas de RAID grandement les perfs en écriture en faisant du ISCSI ou en faisant du bonding avec les 4 lignes Gigalan.

A l’inverse la vitesse de lecture (NAS&gt;Poste) dépend alors non plus des perfs intrinsèques des disques du NAS mais de celles du contrôleur NIC et du disque de la station.

Encore une fois on aurait pu assisté à mieux si ces points avaient été abordés.

Ceci dît il serait temps quoi qu’il arrive de prendre conscience que ce ne sont plus quoi qu’il arrive les perfs des disques à prendre en compte dans ce cas mais bel et bien celles des réseaux locaux qui plafonnent avec le Gigalane (en effet 130MO/s est dans la moyenne haute des perfs obtenues) alors qu’on devrait s’attendre à beaucoup beaucoup mieux en RAID0 ou en RAID5 avec du SATA3.

Conclusion : il serait temps d’aborder la démocratisation du 10GBaseT car le Gigalane non administré montre aujourd’hui toutes ses faiblesses et le titre de cet article n’a plus aucun sens quand on le sait.


P.S. Il est tout à fait possible de faire du 130Mo/s avec des disques à 5300T/mn en RAID0 ou RAID5 et SATA3, le critère n’étant plus dans ce cas la rapidité de l’unité mais son comportement à l’utilisation notamment la monté en température critère très important dans ce cadre d’exploitation des disques.








Mr.Nox a écrit :



Disque de 10 000 rpm ?





Nonon, ils sont juste par 5 :p





Je réagis sur ce qu’on dit sur la fiabilité, car celle des disques dur se dégrade d’année en année, c’est une honte. Pour preuve la garanti des disques de plus en plus courte.









aerith a écrit :



Nonon, ils sont juste par 5 :p





Je réagis sur ce qu’on dit sur la fiabilité, car celle des disques dur se dégrade d’année en année, c’est une honte. Pour preuve la garanti des disques de plus en plus courte.







C’est vrai que ma voiture je peux faire 1 000 000 de Km sans rien entretenir , juste avec de l’essence, c’est une honte d’aller au garagiste









Elwyns a écrit :



C’est vrai que ma voiture je peux faire 1 000 000 de Km sans rien entretenir , juste avec de l’essence, c’est une honte d’aller au garagiste







Ben écoute, quand j’ai été voir mon garagiste pour qu’il vidange mon disque dur, il ma pris pour une conne, donc forcement, maintenant il roule moins bien.



C’est quoi ce que tu appel “entretient” pour un disque dur, qu’on rigole nous aussi ?

Si par là tu parle de défragmentation ou de nettoyage logiciel, sache qu’on est pas tous sous Windows et que l’intérêt principal des gros disque réside plus dans le stockage longue durée qu’autre chose, et que paradoxalement, plus un disque est gros, et par conséquent récent, moins celui-ci est fiable.

Et que les constructeurs le savent très bien et ne font rien pour y remédier, si ce n’est réduire la garanti pour nous presser un peu plus, nous, consommateur, fana d’obsolescence programmé.









-zardoz- a écrit :



Synology DS1513+ :



Synology est un excellent fabriquant de NAS “personnels”. Certains diront le meilleur ?



Avec ce modèle, on atteint quand même une ambigüité, tant dans le matériel que le logiciel DSM-5 associé : Pour un usage personnel (disons familial), il est un peu trop haut de gamme, trop cher ? et surtout certaines caractéristiques (4 ports ethernet, support iSCSI) seront rarement exploitées.

[…]







Je suis d’accord sur le principe, mais il faut quand même différencier les besoin pro “SOHO” et les autres.



Les Syno sont avant tout destinés à être des machines pour les petites entreprises avec des facilités d’administration & co.

Il est clair qu’il semble indadapté aux besoins des grosses boites …

Mais oui, ici on dirait qu’ils essayent de viser les grosses boites (700€ quand même), sans s’en donner les moyens “techniques” (l’alim redondante est un must dans les grosses boites).



Reste que dans une boite sans administrateur “qualifié”, ça peux permettre de monter une solution NAS sans difficulté, qui reste performante et avec des fonctionnalités avancés très intéressantes en 2 click (serveur mail, serveur VPN … ).





Plextor M6M

Intel 730 Series 240 Go : il y a un crâne dessus, alors ça va plus vite





Jerry <img data-src=" />








aerith a écrit :



Sur mon serveur j’ai deux raid, l’un backup l’autre à 560mo/s, alors les SSD :p



Enfin, tout ça pour dire que ce dernier mois le prix des SSD a grandement baissé, mais pas au point de remplacer les HD.







La force du SSD c’est pas vraiment la vitesse de transfert mais vraiment le temps d’accès nul. Niveau réactivité, un system avec un SSD écrase un system sous un raid 0 :)









aerith a écrit :



é.





ai-je dis qu’il y ait un entretient mécanique ?









loulnux a écrit :



Cet article est une mascarade de test en effet on s’en aperçoit sur les tableaux du “File Copy To NAS” et inversement : dont les vitesses varient entre 125 et 132 MO/s en écriture et à l’inverse des perfs presque réduites de moitié en lecture.

En écriture ce ne sont pas les perfs des disques qui sont en cause mais les limites du Gigalane et la qualité du contrôleur (qui n’est pas mauvaise) mais on aurait pu améliorer, suivant les cas de RAID grandement les perfs en écriture en faisant du ISCSI ou en faisant du bonding avec les 4 lignes Gigalan.

A l’inverse la vitesse de lecture (NAS&gt;Poste) dépend alors non plus des perfs intrinsèques des disques du NAS mais de celles du contrôleur NIC et du disque de la station.

Encore une fois on aurait pu assisté à mieux si ces points avaient été abordés.

Ceci dît il serait temps quoi qu’il arrive de prendre conscience que ce ne sont plus quoi qu’il arrive les perfs des disques à prendre en compte dans ce cas mais bel et bien celles des réseaux locaux qui plafonnent avec le Gigalane (en effet 130MO/s est dans la moyenne haute des perfs obtenues) alors qu’on devrait s’attendre à beaucoup beaucoup mieux en RAID0 ou en RAID5 avec du SATA3.

Conclusion : il serait temps d’aborder la démocratisation du 10GBaseT car le Gigalane non administré montre aujourd’hui toutes ses faiblesses et le titre de cet article n’a plus aucun sens quand on le sait.









+100 d’accord avec toi

Le goulot d’étrangelement c’est désormais le débit LAN, et le Giga depuis trop light. m’en vais regarder le prix des switchs actifs en 10G cuivre mais j’ai peur que cela pique un peu les yeux !









Elwyns a écrit :



ai-je dis qu’il y ait un entretient mécanique ?





Ok, mais plutôt que de botter en touche… peux tu nous éclairer en exprimant le fond de ta pensée ?









atomusk a écrit :



Mais oui, ici on dirait qu’ils essayent de viser les grosses boites (700€ quand même), sans s’en donner les moyens “techniques” (l’alim redondante est un must dans les grosses boites).







Tout dépend ce que tu appelles grosses boîtes: pour moi une solution de stockage ça se compte en K€… A 700€ ça vise bien les PME







Anna Lefeuk a écrit :



Le goulot d’étrangelement c’est désormais le débit LAN, et le Giga depuis trop light. m’en vais regarder le prix des switchs actifs en 10G cuivre mais j’ai peur que cela pique un peu les yeux !







Il faudrait déjà que tu satures ton réseau Giga (~120Mo/sec en théorie) ce qui est très rarement le cas.

Pour atteindre la limite il faut utiliser des jumbo frame, taille de la Window TCP, avoir une très bonne latence, et que ça suive au niveau applicatif… (les partages type Windows ce n’est pas trop ça par exemple).

Le passage à du 10G ne t’apportera strictement rien, sauf la sympathie du mec qui te revendra le matériel et le désespoir de ton comptable.

Et pour le coup, on tombe vraiment sur du matériel pro, qui vise plus haut qu’un simple NAS (aussi bien soit-il)









Riicolaaa a écrit :



Tout dépend ce que tu appelles grosses boîtes: pour moi une solution de stockage ça se compte en K€… A 700€ ça vise bien les PME







Il faudrait déjà que tu satures ton réseau Giga (~120Mo/sec en théorie) ce qui est très rarement le cas.

Pour atteindre la limite il faut utiliser des jumbo frame, taille de la Window TCP, avoir une très bonne latence, et que ça suive au niveau applicatif… (les partages type Windows ce n’est pas trop ça par exemple).

Le passage à du 10G ne t’apportera strictement rien, sauf la sympathie du mec qui te revendra le matériel et le désespoir de ton comptable.

Et pour le coup, on tombe vraiment sur du matériel pro, qui vise plus haut qu’un simple NAS (aussi bien soit-il)





A 120Mo/sec tu satures déjà j’ai peur que tu confondes bit et Byte même avec Jumbo Frame tu ne feras pas beaucoup mieux.



Un point qui n’a pas été soulevé jusqu’ici (il me semble) c’est la durée de reconstruction d’un volume selon la taille du disque à reconstruire ?



Déjà avec un grappe de 10 disques sur un NAS professionnel donc assez performant même en RAID 6 et avec des SAS de 2 To, ça peut prendre une bonne journée, alors que la grappe est en exploitation par ailleurs (mais c’est le but) !



Je me demande donc sur un tout petit NAS, 4 disques de 4To avec un proc forcément rachitique, combien de temps cela prendrait-il ? Et pour peu qu’on soit en RAID 5 (compte tenu du nombre de disques le RAID 6, ne doit pas être très avantageux par rapport à un RAID 0+1). N’y-a t’il pas un risque d’avoir une seconde panne pendant la reconstruction du volume, si ça doit prendre plusieurs jours ?



Si c’est la cas, il faudrait bien recommander de choisir une autre configuration : Par exemple, plutôt que 4 disques de 4To (soit 12To dispo), choisir un NAS avec au moins 8 disques (je crois pas que 7 existe), de 2 To, soit 12 To aussi si on garde un en “spare” ?








loulnux a écrit :



A 120Mo/sec tu satures déjà j’ai peur que tu confondes bit et Byte même avec Jumbo Frame tu ne feras pas beaucoup mieux.







Non non je confond pas, 1Gbit / 8 = 0.125 soit environ 120Mo ou 120MB si tu veux…

Sur un réseau en Giga, si tu exprimes de débit en bits bah en théorie tu le satures à 1G comme son nom l’indique.

Après c’est vrai qu’en pratique c’est saturé plus vite, aux alentour de 100~110Mo.



Les jumbo frame permettent de dépasser la limite de taille des paquets ethernet ce qui permet d’augmenter grandement les débits en TCP (sans outrepasser la limite du support physique).



DS1513+ Voilàààààààààààààà c’est exactement ce qu’il me faut <img data-src=" />



<img data-src=" /> Comment ça je suis un particulier ?

Je sorts d’un DS110J donc un DS1513+ c’est bien le minimum <img data-src=" />



A moi une bibliothèque multimédia et la sauvegarde de mes données personnels <img data-src=" />



Quid de la version ignifugé… juste au cas ou <img data-src=" />



Planqué son NAS dans la doublure de son mur what else <img data-src=" />








-zardoz- a écrit :



Un point qui n’a pas été soulevé jusqu’ici (il me semble) c’est la durée de reconstruction d’un volume selon la taille du disque à reconstruire ?



Déjà avec un grappe de 10 disques sur un NAS professionnel donc assez performant même en RAID 6 et avec des SAS de 2 To, ça peut prendre une bonne journée, alors que la grappe est en exploitation par ailleurs (mais c’est le but) !



Je me demande donc sur un tout petit NAS, 4 disques de 4To avec un proc forcément rachitique, combien de temps cela prendrait-il ? Et pour peu qu’on soit en RAID 5 (compte tenu du nombre de disques le RAID 6, ne doit pas être très avantageux par rapport à un RAID 0+1). N’y-a t’il pas un risque d’avoir une seconde panne pendant la reconstruction du volume, si ça doit prendre plusieurs jours ?



Si c’est la cas, il faudrait bien recommander de choisir une autre configuration : Par exemple, plutôt que 4 disques de 4To (soit 12To dispo), choisir un NAS avec au moins 8 disques (je crois pas que 7 existe), de 2 To, soit 12 To aussi si on garde un en “spare” ?







Je ne sais pas comment fonctionnent les NAS Syno, mais le RAID n’est-il pas géré en Hardware?

Si c’est bien le cas (ce qui serait le seul critère justifiant le prix), c’est une puce optimisé qui doit s’occuper de ces calculs et logiquement ça doit aller très vite.

Après sur des disques plein à 4To, ça prends quand même au minimum le temps d’écrire 4To de données sur le disque…









Riicolaaa a écrit :



Non non je confond pas, 1Gbit / 8 = 0.125 soit environ 120Mo ou 120MB si tu veux…

Sur un réseau en Giga, si tu exprimes de débit en bits bah en théorie tu le satures à 1G comme son nom l’indique.

Après c’est vrai qu’en pratique c’est saturé plus vite, aux alentour de 100~110Mo.



Les jumbo frame permettent de dépasser la limite de taille des paquets ethernet ce qui permet d’augmenter grandement les débits en TCP (sans outrepasser la limite du support physique).





Partant du principe d’une part qu’on n’est pas sensé être seuls sur un réseau qu’il faut bien laisser un peu de bande passante aux autres usagers ou plus simplement aux autres usages et qu’aujourd’hui les performances des disques dépassent largement celles de cette bande passante, je ne trouve pas idiot de mettre l’accent sur cette bizarrerie consistant à nous vendre du stockage de plus en plus performant sans pouvoir en bénéficier en réseau local.

D’ailleurs tu noteras que le NAS décrit comporte 4 ports Gigalan mais je suis à peu près certain que la plupart des utilisateurs n’ont aucune idée de ce à quoi ils pourraient servir.

C’est aussi pour ça que j’appelle de mes voeux un 10GBaseT “non administré” car l’important n’est pas de commencer à savoir si le jumbo frame apportera son lot d’amélioration ou à quel point le ISCSI ou le Bonding apporteront leur lot d’améliorations, l’important c’est : tu branches et ça fonctionne vite et bien.









loulnux a écrit :



Partant du principe d’une part qu’on n’est pas sensé être seuls sur un réseau qu’il faut bien laisser un peu de bande passante aux autres usagers ou plus simplement aux autres usages et qu’aujourd’hui les performances des disques dépassent largement celles de cette bande passante, je ne trouve pas idiot de mettre l’accent sur cette bizarrerie consistant à nous vendre du stockage de plus en plus performant sans pouvoir en bénéficier en réseau local.

D’ailleurs tu noteras que le NAS décrit comporte 4 ports Gigalan mais je suis à peu près certain que la plupart des utilisateurs n’ont aucune idée de ce à quoi ils pourraient servir.

C’est aussi pour ça que j’appelle de mes voeux un 10GBaseT “non administré” car l’important n’est pas de commencer à savoir si le jumbo frame apportera son lot d’amélioration ou à quel point le ISCSI ou le Bonding apporteront leur lot d’améliorations, l’important c’est : tu branches et ça fonctionne vite et bien.







Dans ce cas je te rejoints sur plusieurs points, mais la limite de bande passante n’interviendra que dans quelques cas précis: il faut que tu ais un certain nombre d’utilisateurs qui fassent des transferts important de manière simultanée et de façon suffisamment longue.

Même dans une PME de 20~25 personnes manipulant de gros fichiers cela devrait peu ou pas se produire.

Ainsi le passage à du 10GB n’apportera pour ainsi dire rien, en tout cas sans optimisations, mais augmentera le coût de NAS et de ton infra réseau.



Déjà dans beaucoup de “grandes” entreprises l’usage d’un réseau Giga correctement configurer suffit amplement pour l’archi système, je ne suis pas sûr de l’intérêt en pratique d’avoir du 10G sur un NAS qui n’intéressera que les PME.



Je comprends bien ce que tu veux dire, mais je suis pas convaincu du rapport coût/effets bénéfiques réels.

D’autant plus que les tests montrent (je regardé uniquement quelques graphes) que les perfs du NAS ne permettent pas de saturer un réseau Giga en lecture ou en écriture.

En écriture on atteint 130MB/sec quelque soit le mode RAID ce qui s’explique certainement par l’usage d’un cache, qui n’a pas pu servir pour le lecture (65~80MB/sec). Une fois ce cache saturé on peut facilement imaginer que les perfs en écritures tombent assez franchement.

Si tu ajoutes à cela les accès concurrents de XX utilisateurs qui vont diviser les performances, le gigabit est largement suffisant.



Après, c’est mon point de vu et mes conclusions techniques, je conçois que je puisse me tromper.

(Ma seconde réponse venait de ta remarque bits ~ octets que je voulais corriger.)









Riicolaaa a écrit :



Dans ce cas je te rejoints sur plusieurs points, mais la limite de bande passante n’interviendra que dans quelques cas précis: il faut que tu ais un certain nombre d’utilisateurs qui fassent des transferts important de manière simultanée et de façon suffisamment longue.

Même dans une PME de 20~25 personnes manipulant de gros fichiers cela devrait peu ou pas se produire.

Ainsi le passage à du 10GB n’apportera pour ainsi dire rien, en tout cas sans optimisations, mais augmentera le coût de NAS et de ton infra réseau.



Déjà dans beaucoup de “grandes” entreprises l’usage d’un réseau Giga correctement configurer suffit amplement pour l’archi système, je ne suis pas sûr de l’intérêt en pratique d’avoir du 10G sur un NAS qui n’intéressera que les PME.



Je comprends bien ce que tu veux dire, mais je suis pas convaincu du rapport coût/effets bénéfiques réels.

D’autant plus que les tests montrent (je regardé uniquement quelques graphes) que les perfs du NAS ne permettent pas de saturer un réseau Giga en lecture ou en écriture.

En écriture on atteint 130MB/sec quelque soit le mode RAID ce qui s’explique certainement par l’usage d’un cache, qui n’a pas pu servir pour le lecture (65~80MB/sec). Une fois ce cache saturé on peut facilement imaginer que les perfs en écritures tombent assez franchement.

Si tu ajoutes à cela les accès concurrents de XX utilisateurs qui vont diviser les performances, le gigabit est largement suffisant.



Après, c’est mon point de vu et mes conclusions techniques, je conçois que je puisse me tromper.

(Ma seconde réponse venait de ta remarque bits ~ octets que je voulais corriger.)





Ma réponse est simple : évidemment dans une entreprise ou il n’y a que quelques bases de données et courriers ou rapports à sauvegarder par jour, la performance n’a pas lieu d’être remise en question; moi qui ai exercé dans l’impression grand format, et qui oeuvre aujourd’hui dans la vidéo, je peux te dire qu’avec ce type de données on commence à envisager les problèmes d’une autre manière.

Par ailleurs il n’y a pas de secret, l’avènement du BR et du 4K va rendre le problème de plus en plus épineux même chez les particuliers. Quand on a à faire transiter un fichier de 2Go , ça reste dans la transparence, 8Go on le sent déjà plus, mais 50 ou 100Go là ça commence à coincer quand on voit des smartphones OPPO ou Nokia qui commencent à intégrer des capteurs 2K de là à voir une exception devenir une mode puis une généralisation: le gros fichier est déjà une préoccupation pour le commun des mortels.









loulnux a écrit :



Ma réponse est simple : évidemment dans une entreprise ou il n’y a que quelques bases de données et courriers ou rapports à sauvegarder par jour, la performance n’a pas lieu d’être remise en question; moi qui ai exercé dans l’impression grand format, et qui oeuvre aujourd’hui dans la vidéo, je peux te dire qu’avec ce type de données on commence à envisager les problèmes d’une autre manière.

Par ailleurs il n’y a pas de secret, l’avènement du BR et du 4K va rendre le problème de plus en plus épineux même chez les particuliers. Quand on a à faire transiter un fichier de 2Go , ça reste dans la transparence, 8Go on le sent déjà plus, mais 50 ou 100Go là ça commence à coincer quand on voit des smartphones OPPO ou Nokia qui commencent à intégrer des capteurs 2K de là à voir une exception devenir une mode puis une généralisation: le gros fichier est déjà une préoccupation pour le commun des mortels.







Je comprends bien ces problématiques.

Il n’empêche que sans configuration particulière, ton particulier seul ne saturera pas le lien Giga, et donc encore moins un lien 10G, sans compté que le NAS en lui même n’est pas capable de soutenir des débits supérieurs à ce que propose l’Ethernet Gigabit.



A partir de là tu peux mettre des interfaces 10G, tu ne verras pas de différence sauf sur le prix.



Donc ma réponse est simple aussi: dans le cas où la performance est source de préoccupation pour l’entreprise (ou le particulier), il est important de se poser des bonnes questions pour identifier ce qui limite les performances et comment les augmenter.

Ce n’est pas parce que tu places une micheline sur une voie de TGV qu’elle va faire du 300km/h. Tu t’assures jusque que ce ne sera plus ce critère qui te limitera, mais si ce n’était pas lui qui te bloquait tu n’iras pas plus vite.



A coté de ça, je n’ai jamais dénigré l’intérêt d’augmenter les débits, c’est juste que ce simple critère ne te servira en rien.

Pour t’en convaincre regarde comment on calcule le débit d’une connection TCP en fonction de la latence et de la MTU. Après il y a des améliorations comme les Windows, les connexions parallèle, etc… mais cela t’aidera certainement à comprendre les limitations.



Et une dernière fois, même si tu as un réseau 10G performant, c’est le NAS qui ne suivra pas (et je ne parle même pas du PC ou téléphone de ton utilisateur qui seront encore moins performant que le NAS).



Il est évident que les besoins évoluent et qu’il faut trouver des solutions. Mais là pour le coup la solution est plus compliqué que ça…









aerith a écrit :



Nonon, ils sont juste par 5 :p





Je réagis sur ce qu’on dit sur la fiabilité, car celle des disques dur se dégrade d’année en année, c’est une honte. Pour preuve la garanti des disques de plus en plus courte.







Que soit sous Windows ou autres système la problématique étant la même, quid de la fiabilité ? J’ai quelques disques dur, une dizaine chez moi, ce sont pour l’instant les plus récent qui claquent (3 de HS avec une durée de vie d’environ de trois ans). Alors que l’usage est le même sur les anciens (+8 ans) qui eux tiennent la route.



Mais pour revenir aux tests quand est-il de la capacité en cycle d’écritures/lectures des SSD je n’ai jamais trouvé de réponses satisfaisantes à cette question?



Si j’ai un usage d’écritures/lecture/effacement de gros fichiers, avec un formatage en block de 8k, comment puis-je déterminer la durée de vie de mon SSD par rapport à un disque dur (récent) ?

C’est une vrai question et pour le moment je n’ai rien trouvé dans les test une réponse satisfaisante à moins que d’avoir loupé quelque chose.



edit : ortho









Riicolaaa a écrit :



Je comprends bien ces problématiques.

Il n’empêche que sans configuration particulière, ton particulier seul ne saturera pas le lien Giga, et donc encore moins un lien 10G, sans compté que le NAS en lui même n’est pas capable de soutenir des débits supérieurs à ce que propose l’Ethernet Gigabit.



A partir de là tu peux mettre des interfaces 10G, tu ne verras pas de différence sauf sur le prix.



Donc ma réponse est simple aussi: dans le cas où la performance est source de préoccupation pour l’entreprise (ou le particulier), il est important de se poser des bonnes questions pour identifier ce qui limite les performances et comment les augmenter.

Ce n’est pas parce que tu places une micheline sur une voie de TGV qu’elle va faire du 300km/h. Tu t’assures jusque que ce ne sera plus ce critère qui te limitera, mais si ce n’était pas lui qui te bloquait tu n’iras pas plus vite.



A coté de ça, je n’ai jamais dénigré l’intérêt d’augmenter les débits, c’est juste que ce simple critère ne te servira en rien.

Pour t’en convaincre regarde comment on calcule le débit d’une connection TCP en fonction de la latence et de la MTU. Après il y a des améliorations comme les Windows, les connexions parallèle, etc… mais cela t’aidera certainement à comprendre les limitations.



Et une dernière fois, même si tu as un réseau 10G performant, c’est le NAS qui ne suivra pas (et je ne parle même pas du PC ou téléphone de ton utilisateur qui seront encore moins performant que le NAS).



Il est évident que les besoins évoluent et qu’il faut trouver des solutions. Mais là pour le coup la solution est plus compliqué que ça…





J’adore les mecs qui essaient de m’expliquer mon métier.









loulnux a écrit :



J’adore les mecs qui essaient de m’expliquer mon métier.







Bon c’est ma dernière réponse pour toi… <img data-src=" />



Je vais être simple: tu ne réponds à aucun argument technique et n’en avance aucun. Tu confonds bits et Bytes, ne comprends pas qu’un NAS qui a une vitesse de lecture à 80Mo/sec dans le meilleur de cas (lecture d’un seul fichier, dans le mode RAID le plus performant, avec tous les disques qui appartiennent à la grappe…) n’est pas saturé par un réseau qui peut monté à plus de 100Mo/s… <img data-src=" />



Alors je ne sais pas quel est ton métier, mais ça n’est visiblement pas du réseau.

En dehors des questions de réseau, pour ne pas comprendre que 80 &lt; 100, tu ne dois pas vraiment être un technique non plus.



Pour reprendre ta phrase, j’adore les mecs qui n’argumentent pas leurs propos, ne répondent pas à ce qu’on leur dit et ne se remettent pas en question.

Tu en déduiras ce que tu veux, mais si c’est ça ton métier il y a effectivement des choses à t’expliquer <img data-src=" />









Riicolaaa a écrit :



Bon c’est ma dernière réponse pour toi… <img data-src=" />



Je vais être simple: tu ne réponds à aucun argument technique et n’en avance aucun. Tu confonds bits et Bytes, ne comprends pas qu’un NAS qui a une vitesse de lecture à 80Mo/sec dans le meilleur de cas (lecture d’un seul fichier, dans le mode RAID le plus performant, avec tous les disques qui appartiennent à la grappe…) n’est pas saturé par un réseau qui peut monté à plus de 100Mo/s… <img data-src=" />



Alors je ne sais pas quel est ton métier, mais ça n’est visiblement pas du réseau.

En dehors des questions de réseau, pour ne pas comprendre que 80 &lt; 100, tu ne dois pas vraiment être un technique non plus.



Pour reprendre ta phrase, j’adore les mecs qui n’argumentent pas leurs propos, ne répondent pas à ce qu’on leur dit et ne se remettent pas en question.

Tu en déduiras ce que tu veux, mais si c’est ça ton métier il y a effectivement des choses à t’expliquer <img data-src=" />





Relis bien mes posts depuis le début, je dis bien le début, lis aussi l’article (ce que tu ne sembles pas avoir fait).

Tu viens d’abord me contre-dire sur des bases fallacieuses et ensuite tu argumentes sur ces bases.

J’ai le regret de maintenir qu’en Gigalane la valeur de 130Mo/s est le grand maximum qu’on puisse atteindre en vitesse de transfert et qu’à cette vitesse on va allègrement saturer le réseau.

Que ça te plaise ou non, c’est un fait et j’ai parfaitement conscience que ça peut également dépendre de tas de paramètres physiques qui peuvent également brider ces transferts.

Ensuite je cite des moyen pour outre-passer ces limites (bonding, ISCSI..) et tu as le culot de venir me raconter que je ne sais pas de quoi je parle?

Il y a des jours où la stupidité s’ajoute à la mal-comprenance.

Saches par ailleurs que par contre la puissance de calcul d’un NAS reste tout à fait secondaire dès l’instant où on attache un soin particulier sur la sélection des interfaces (ce à quoi travaillent maintenant les fabricants) et qu’on n’a pas recours à des fonctions secondaires telles que le chiffrage. Enfin le système de fichier à aussi une très grosse importance surtout en terme de réactivité et de rationalité mais c’est une autre histoire.

Je n’ai pas d’autres preuves de probité à apporter sachant que tu te permets de d’argumenter sur des bases fausses et que tu n’as même pas pris la peine de me lire dès le début.