Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !
Crucial lance ses SSD MX500 (3D NAND TLC), le modèle 1 To vendu 265,19 euros

Un an et demi après les MX300, le fabricant dévoile ses nouveaux SSD MX500. Ne cherchez pas les MX400, ils sont passés aux oubliettes.

Disponibles en version de 250 Go à 2 To, au format M.2 2280 (1 To maximum) ou S-ATA, ils proposent tous les mêmes débits : 560 Mo/s en lecture, 510 Mo/s en écriture (avec Dynamic Write Acceleration) pour respectivement 95 000 et 90 000 IOPS.

Dans le détail, un contrôleur Silicon Motion SM2258 est de la partie, avec des puces de 3D NAND TLC sur 64 couches (32 couches pour les MX300). Le fabricant annonce une endurance de 100 To pour la version de 250 Go, 180 To pour celle de 500 Go, 360 To pour 1 To et enfin 700 To pour le SSD de 2 To.

Dans tous les cas, la garantie est de cinq ans. Amazon propose d'ores et déjà le MX500 S-ATA de 1 To pour 265,19 euros.

13 commentaires
Avatar de BlackYeLL Abonné
Avatar de BlackYeLLBlackYeLL- 20/12/17 à 10:36:37

C'est quoi "l'endurance" ? 360 To pour 1 To, ça veut dire qu'on peut écrire sur la totalité du disque 360 fois ?

Avatar de Vinzenz-o INpactien
Avatar de Vinzenz-oVinzenz-o- 20/12/17 à 11:26:36

C'est bien ça.

Sur le 1 To, il est possible d'écrire 360 To avant que les "cellules" ne deviennent potentiellement défaillantes (et donc risque potentiel de perte de données).

Mais il faut bien se dire que ça correspond à:

  •  1 To par jour pendant 1 an
  • 500 Go par jour pendant 2 ans
  • 250 Go par jour pendant 4 ans
  • 125 Go par jour pendant 8 ans
  • 62,5 Go par jour pendant 16 ans

Bref, c'est assez large... Qui écrit vraiment "ne serait-ce que" 125 Go de données par jour, tous les jours de l'année, pendant 8 ans ? ;)
Et d'ici 8 ans, on aura encore beaucoup avancé sur le stockage de masse.

Et si on a vraiment besoin d'écrire autant de données quotidiennement, il vaut mieux se tourner vers d'autres solutions, comme des DD "normaux".

Avatar de Case_Of Abonné
Avatar de Case_OfCase_Of- 20/12/17 à 11:30:50

Personnellement, je préfère les disques SLC aux disques TLC

Avatar de OlivierJ Abonné
Avatar de OlivierJOlivierJ- 20/12/17 à 13:03:13

Oui, c'est la durée de vie garantie. C'est vrai que ça semble vraiment peu, 300 à 400 écritures complètes du disque, dans la fourchette basse de l'endurance d'une cellule TLC.

Après, l'endurance est en pratique souvent supérieure, du moins c'était le cas de plusieurs disques testés par un site américain il y a plus de 2 ans :http://linuxfr.org/users/voixoff/journaux/endurance-des-ssd .

Avatar de OlivierJ Abonné
Avatar de OlivierJOlivierJ- 20/12/17 à 13:13:24

Vinzenz-o a écrit :

[...]Bref, c'est assez large... Qui écrit vraiment "ne serait-ce que" 125 Go de données par jour, tous les jours de l'année, pendant 8 ans ? ;)
Et d'ici 8 ans, on aura encore beaucoup avancé sur le stockage de masse.

:chinois:

Vinzenz-o a écrit :

Et si on a vraiment besoin d'écrire autant de données quotidiennement, il vaut mieux se tourner vers d'autres solutions, comme des DD "normaux".

Oui, ou vers un disque SSD disposant d'une meilleure endurance (ce qui se paie mais pas tellement plus cher), en TLC ou MLC.

Il faut savoir que les vendeurs de baies (NetApp, EMC, autres) sont passés presque exclusivement à des disques Flash, sans surcoût majeur ; certes, on parle de disques "pro" donc les magnétiques sont plus chers qu'en grand public, en comparaison, et les disques Flash sont plutôt des e-MLC.

Case_Of a écrit :

Personnellement, je préfère les disques SLC aux disques TLC

Je crois que ça a quasiment disparu du marché, les SLC.

Édité par OlivierJ le 20/12/2017 à 13:14
Avatar de Nozalys Abonné
Avatar de NozalysNozalys- 20/12/17 à 13:53:45

Vinzenz-o a écrit :

Bref, c'est assez large... Qui écrit vraiment "ne serait-ce que" 125 Go de données par jour, tous les jours de l'année, pendant 8 ans ? ;)
Et d'ici 8 ans, on aura encore beaucoup avancé sur le stockage de masse.

C'est vrai, cependant le problème ne vient pas tant de la quantité de données mais de la bonne répartition de celles-cis.

De nombreux fichiers temporaires sont générés par l'O.S. et les applications, si par malchance c'est souvent la même zone du SSD qui est utilisée, ces cellules vieilliront plus rapidement que d'autres, pouvant entrainer des instabilités.

Quand bien même le contrôleur est sensé éviter cela, l'O.S. également, je ne suis pas certain du fonctionnement réel de ces fonctions de protections.

Je dis ça, je suis passé aux SSD depuis longtemps, le premier SSD que j'ai acheté en 2008 fonctionne toujours à merveille.... A côté de ça, je n'ai plus aucun HDD d'avant 2010 fonctionnel....

Édité par Nozalys le 20/12/2017 à 13:53
Avatar de OlivierJ Abonné
Avatar de OlivierJOlivierJ- 20/12/17 à 14:33:00

Nozalys a écrit :

C'est vrai, cependant le problème ne vient pas tant de la quantité de données mais de la bonne répartition de celles-cis.
De nombreux fichiers temporaires sont générés par l'O.S. et les applications, si par malchance c'est souvent la même zone du SSD qui est utilisée, ces cellules vieilliront plus rapidement que d'autres, pouvant entrainer des instabilités.
Quand bien même le contrôleur est sensé éviter cela, l'O.S. également, je ne suis pas certain du fonctionnement réel de ces fonctions de protections.

Faudrait peut-être mettre à jour tes connaissances en terme de SSD. :transpi:

La répartition des écritures (principe du wear leveling) marche particulièrement bien, il n'y a qu'à voir l'endurance réelle constatée lors des tests (cf un des liens que j'ai indiqués).

Avatar de Nozalys Abonné
Avatar de NozalysNozalys- 20/12/17 à 15:52:49

Je vais lire ça, merci.

Je me pose quand même la question du fonctionnement de ces algos et de la manière dont le SSD stocke l'information sur l'état de ses cellules qui doit coûter autant de bits de mémoire que de cellules... Et si ces bits sont eux-même corrompus.. ?

Je ne dis pas que c'est pas fiable, je constate le contraire, comme beaucoup de monde et de tests. Je me demande juste comment cela fonctionne en pratique.

Avatar de Vinzenz-o INpactien
Avatar de Vinzenz-oVinzenz-o- 20/12/17 à 17:33:31

Je t'avoue qu'en pratique, je ne sais pas précisément comment fonctionne la répartition et si elle est vraiment efficace.
Je me borne à la théorie qui veut que ça fonctionne bien :D

Avatar de OlivierJ Abonné
Avatar de OlivierJOlivierJ- 21/12/17 à 09:08:04

Nozalys a écrit :

Je me pose quand même la question du fonctionnement de ces algos et de la manière dont le SSD stocke l'information sur l'état de ses cellules qui doit coûter autant de bits de mémoire que de cellules... Et si ces bits sont eux-même corrompus.. ?

Je ne dis pas que c'est pas fiable, je constate le contraire, comme beaucoup de monde et de tests. Je me demande juste comment cela fonctionne en pratique.

Tu as raison de te demander comment ça fonctionne, ça doit être plus ou moins complexe c'est sûr, chaque fabricant ayant sa variante ; on peut le supposer du fait des modèles ces dernières années qui ont eu des bugs et qui devaient être "reflashés" (je parle du firmware).

Pour ton premier paragraphe, ce sont les premières questions que se sont posées les concepteurs, et les algorithmes en tiennent compte, et surtout les tests ont dû être très nombreux pour valider un fonctionnement plus ou moins optimal (ils ont dû griller un paquet de SSD en bêta-test chez tous les fabricants :-) , sans parler de certaines séries qui elles ont grillé chez les consommateurs, comme des OCZ il y a plusieurs années).

Il n'est plus possible de commenter cette actualité.
Page 1 / 2