Avec ses SSD 670p, Intel veut faire oublier les défauts de la flash NAND QLC

Avec ses SSD 670p, Intel veut faire oublier les défauts de la flash NAND QLC

Ou pas

Avatar de l'auteur
David Legrand

Publié dans

Hardware

02/03/2021 2 minutes
21

Avec ses SSD 670p, Intel veut faire oublier les défauts de la flash NAND QLC

Dans le domaine des SSD grand public, on incite le plus souvent à éviter les modèles à base de puces QLC, moins endurantes et posant des problèmes de performances en écriture assez rapidement. Intel a néanmoins fait à nouveau le choix de cette solution pour ses modèles 670p.

Intel annonce aujourd'hui la nouvelle génération de ses SSD M.2 NVMe (PCIe 3.0 x4) visant le « mainstream gaming », comprendre des modèles affichant de gros chiffres, mais des prix raisonnables.

Pour cela, la société continue de se reposer sur des puces de Flash NAND QLC (3D, 144 couches), avec un contrôleur Silicon Motion SM2265G et 256 Mo de mémoire Nanya. Il s'agit donc de la même base technique qu'auparavant mais plus récente, annoncée plus véloce : jusqu'à 2x les débits en lecture séquentielle sans plus de détails.

Mais ceux qui suivent ce marché savent que cette information n'a guère d'intérêt. Intel ne l'oublie pas et évoque une endurance 20 % supérieure. 0,2 DWPD soit 185 To, 370 To et 740 To écrits pour les modèles de 512 Go, 1 To et 2 To annoncés. Leurs tarifs sont relativement élevés pour de la QLC : 90, 155 et 330 dollars. 

Intel SSD 670pIntel SSD 670p
Source : Hot Hardware

Si Intel évoque dans ses documents techniques un cache SLC qui se déclenche plus tard que pour les modèles 660p, cela ne change que peu de choses au final : l'endurance reste faible par rapport à des modèles TLC et les performances très réduites dès que le cache est épuisé comme le montrent les tests d'Anandtech.

Si encore cela était au profit de modèles plus abordables, on pourrait se dire que les clients ont le choix, selon leur besoin. On peut en effet privilégier la QLC dans des usages à faible écriture par exemple. Mais cela ne semble ici pas le cas et il vaudra mieux privilégier de bons modèles TLC dans des tarifs similaires. 

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (21)


J’ai du mal à comprendre l’intérêt de ces SSD vu leur tarifs. Ces tarifs sont au même niveaux que beaucoup de bons SSD TLC, et pas très loin des Samsung 980 Pro qui restent certes 30% plus cher mais qui sont d’un tout autre niveau.



SomeDudeOnTheInternet a dit:


J’ai du mal à comprendre l’intérêt de ces SSD vu leur tarifs. Ces tarifs sont au même niveaux que beaucoup de bons SSD TLC, et pas très loin des Samsung 980 Pro qui restent certes 30% plus cher mais qui sont d’un tout autre niveau.




Peut-être pour les OEMs. Les OEMs utilisent majoritairement des processeurs, chipsets et cartes wifi Intel. J’imagine que c’est plus commode pour eux d’aussi utiliser des SSDs Intel et de minimiser le nombre de fournisseurs.


On est donc sur de la flash qui, hors effets de sa gestion par le contrôleur, supporte seulement 370 cycles d’effacements vu du côté de l’utilisateur. Ce qui doit donner au niveau du boîtier de flash un datasheet à moins de 1000 cycles. Pitoyable, a comparer avec les 100k cycles d’une bonne vieille SLC ou même les 5/10k cycles des MLC initiales (finesses de gravures d’il y a 810 ans).



On se retrouve en fait à acheter de la capacité qu’il faudra prendre soin de ne pas utiliser totalement, afin qu’un wear leveling pas trop mal géré donne une endurance restant correcte.



Si on se retrouve avec une taxation à la capacité des stockages internes un de ces jours, le désastre technique d’en arriver là se cumulera à un non sens économique.



J’espère que certains fabricants auront l’intelligence de proposer des versions avec un contrôleur configuré pour utiliser ces QLC en pseudo-SLC afin de revenir à un fonctionnement plus sain même si les capacités affichées seront bien moins flatteuses (mais honnêtement utilisable sans gros compromis de durabilité).


Les puces SLC coûtent de véritables fortunes à produire. Plus du double des tarifs de la QLC, et pour très peu d’avantages comparés à de la TLC par exemple.



La TLC est parfaitement viable sur le long terme (j’en utilise depuis un paquet d’années et même avec beaucoup de manipulation de fichiers régulièrement pour le boulot je suis encore loin de la limite au bout de 5 ans).



La MLC et la SLC ne sont utiles que pour des charges de travails très importantes.



yl a dit:


On se retrouve en fait à acheter de la capacité qu’il faudra prendre soin de ne pas utiliser totalement, afin qu’un wear leveling pas trop mal géré donne une endurance restant correcte.




En Pro, on achète de l’Optane. C’est cool, endurant, et performant-sa-mère (et ça tient 5 ans quand un SSD grand public meurt en moins d’un mois xD)



Perso, je rêves de SSD SLC M2 16Go, même à 150€ pièce.



EBP sur un pc normal, et donc avec un SQL Serveur express (une entreprise d’un comptable et un patron): SSD mort au bout de 2 ans, sans avertissement. Merci Veeam.
La TLC et la QLC devraient avoir un compte à rebours “Baisage de tes données dans 272 jours à ce rythme là”.



SomeDudeOnTheInternet a dit:


Les puces SLC coûtent de véritables fortunes à produire.




On ne fabrique pas de puce SLC en tant que telle, on produit de la Flash et ensuite on l’utilise en SLC ou en autre chose.



C’est l’utilisation de cette mémoire qui fait qu’on parle de SLC ou MLC ou autre : le nombre de bits qu’on stocke par cellule (via une charge dans une sorte de condensateur), via des niveaux plus ou moins fins entre 0 et 100 % de capacité (la SLC c’est juste 0 ou 100 %, la MLC c’est genre 0, 33, 66 et 100%). C’est aussi pour ça qu’on a des parties de la Flash en SLC sur les SSD TLC et QLC, c’est juste la façon dont on l’utilise mais les cellules sont identiques.



La fiabilité diminue car avec l’usure des cellules il devient plus difficile de distinguer parmi 8 niveaux de charge (pour la TLC) ou 16 (QLC), là où on comprend qu’avec la SLC il est plus facile de distinguer du ~0 % du ~100 %.



La MLC est (2 x) moins chère (à capacité finale) que la SLC étant donné qu’on y stocke 2 fois plus d’information, (la TLC 3 fois plus, et la QLC 4 fois).



patos a dit:


En Pro, on achète de l’Optane. C’est cool, endurant, et performant-sa-mère (et ça tient 5 ans quand un SSD grand public meurt en moins d’un mois xD)




5 ans pour quel usage (et modèle) ? Je fait de l’auto-hébergement et ce genre de retour m’intéresse.




Perso, je rêves de SSD SLC M2 16Go, même à 150€ pièce.




Peut-être que l’Intel MEMPEK1W016GAXT (bien qu’en x2 PCIe 3.0) peut correspondre à votre besoin (il existe aussi en 32 Go pour la moitié de votre budget).




EBP sur un pc normal, et donc avec un SQL Serveur express (une entreprise d’un comptable et un patron): SSD mort au bout de 2 ans, sans avertissement. Merci Veeam. La TLC et la QLC devraient avoir un compte à rebours “Baisage de tes données dans 272 jours à ce rythme là”.




Je le dit depuis un bon paquet d’années que ces technos ont clairement fait baisser le niveau, bien que je n’ai encore pas eu de catastrophe à mon actif.


En Pro, les P4800 (375Go pour 1000€HT) sont une tuerie. Des perfs et une endurance de malade, et format HHHL / U.2, au choix.
Dans mon cas, c’est à dire cache vSan pour du VDI, ils perdaient 10% par an de durée de vie.



Pour ma part, mon prochain SSD de cache sera un Samsung PM1735: 1.6Tb, 3 DWPD, 5 ans de garantie. C’est moins performant que l’Optane P4800X, mais c’est aussi moins cher pour une endurance plus que bonne. Et le prix est convenable ;)



Vous avez oublié la ligne “Status, discontinued”. En plus, vu leur coût, je préfères prendre des Samsung 860 Pro avec une meilleure endurance, et je n’alloue que quelques Go des 256Go (50 max seront alloués).
Si j’avais les optanes, le fait que ce soit du PCIe x2 serait négligeable: c’est un serveur de maison que j’ai. J’ai besoin de To pour resauvegarder mes clients, sinon j’ai que des VMs de tests avec les hyperviseurs “nested” dans un hyper-v…



Vous en avez de la chance: j’ai bousillée une baie de disque à 30K€, soit disant “mixed workload” en un an. Mixed mon cul oui. Et je parle pas les ssd grand public… Quand mes PM863/SM863 sont toujours aussi vaillant, eux ! (et je ne compte pas mon crucial c300..)



OlivierJ a dit:


On ne fabrique pas de puce SLC en tant que telle, on produit de la Flash et ensuite on l’utilise en SLC ou en autre chose.



C’est l’utilisation de cette mémoire qui fait qu’on parle de SLC ou MLC ou autre : le nombre de bits qu’on stocke par cellule (via une charge dans une sorte de condensateur), via des niveaux plus ou moins fins entre 0 et 100 % de capacité (la SLC c’est juste 0 ou 100 %, la MLC c’est genre 0, 33, 66 et 100%). C’est aussi pour ça qu’on a des parties de la Flash en SLC sur les SSD TLC et QLC, c’est juste la façon dont on l’utilise mais les cellules sont identiques.



La fiabilité diminue car avec l’usure des cellules il devient plus difficile de distinguer parmi 8 niveaux de charge (pour la TLC) ou 16 (QLC), là où on comprend qu’avec la SLC il est plus facile de distinguer du ~0 % du ~100 %.



La MLC est (2 x) moins chère (à capacité finale) que la SLC étant donné qu’on y stocke 2 fois plus d’information, (la TLC 3 fois plus, et la QLC 4 fois).




Source ?
car chez les drugstore il y a bien des puces SLC, TLC et QLC qui ont une référence différente
exemple micron qlc
https://www.mouser.fr/ProductDetail/Micron/MT29F1T08GBLBEJ4-MB-TR/?qs=GBLSl2AkirvVRgCni0TuUw%3D%3D
en tlc
https://www.mouser.fr/ProductDetail/Micron/MT29F1T08EEHAFJ4-3TA/?qs=rrS6PyfT74ex7pWBKqEkVg%3D%3D
C’est bien comme tu le vois la même série de puce nand MT29 mais derrière les chiffres change car ce n’est pas la même structure interne de puce. C’est par le nombre de couche/die en mettant qu’une couche on a une SLC alors qu’en mettant 3 ou 4 ca fait tlc ou qlc c’est bien pour ça que pour une même taille de puce la tlc fais au moins 3fois plus de capacité


non c’est pas les couches qui font tlc / qlc …
par contre il peut y avoir des différences dans les puces tout “simplement” pour pouvoir lire les états, il faut être capable de différencier les tensions (ou peu importe quel attribut exactement) et lire 2 extrêmes peut se contenter d’une électronique plus simple que ce qui est nécessaire pour lire 16 paliers.
la “cellule mémoire” elle-même n’a pas autant de différence, elle se doit d’être plus stable, c’est tout en ce qui la concerne
la taille de la puce n’a “rien” à voir avec les couches et la slc/qlc : avec une même finesse de gravure et un même empilement de couches (samsung en est à 112 non? je sais plus) une slc aura 4 fois moins de capacité qu’une qlc
rien n’empêche d’avoir une puce de slc en 64 couches, et une puce de qlc en 16, l’encombrement ET la capacité seront identiques
sauf que maintenant on sait faire ET des qlc ET empiler beaucoup de couches, les fondeurs vont pas se priver pour faire les deux en même temps pour augmenter les chiffres, mais ça biaise un peu les perceptions / compréhensions de la techniques.


Merci pour votre retour !
C’est toujours bon à prendre.


Tout simplement:




  • en SLC, tu as deux niveaux: vulgairement 0 et 5V.

  • en QLC, tu as 16 niveaux: vulgairement 0, 0.3125, 0.625, 0,9375, … ,4,6875, 5V



Quand tu as 16 niveaux, la marge d’erreur est… 16 fois plus faible. Le risque d’erreur est donc bien plus grand, et tu as une moins grande fiabilité.



Perso, j’aimerais un SSD avec un switch de firmware: SLC/TLC. Mais il ne faut pas rêver…. :)


c’est simple tu prends un tlc et tant que tu n’utilises qu’13 de la capacité il fonctionne comme un slc



ashlol a dit:


Source ? car chez les drugstore il y a bien des puces SLC, TLC et QLC qui ont une référence différente




Comme dirait l’autre, la question elle est vite répondue, vu que sur la plupart des SSD ces dernières années, on a une zone de taille variable de la flash qui est utilisée comme cache SLC, alors que le reste (la majorité) est utilisée en TLC ou QLC.




fry a dit:


non c’est pas les couches qui font tlc / qlc … par contre il peut y avoir des différences dans les puces tout “simplement” pour pouvoir lire les états, il faut être capable de différencier les tensions (ou peu importe quel attribut exactement) et lire 2 extrêmes peut se contenter d’une électronique plus simple que ce qui est nécessaire pour lire 16 paliers. la “cellule mémoire” elle-même n’a pas autant de différence, elle se doit d’être plus stable




Bonne question, mais je ne crois pas qu’on produise différemment de la SLC et de la TLC ou QLC. Dans tous les cas, on essaie d’avoir la meilleure fiabilité possible à coût concurrentiel. On pourrait supposer que finalement pour de la SLC on a moins besoin de “qualité” que pour de la QLC et ses 16 paliers à distinguer, je ne sais pas ce qu’il en est ; il me semble que même en pro, il n’y a plus que de la “MLC+” (2 bits par cellule), ça suffit déjà à avoir une très grande longévité en pratique (me souviens d’une discussion avec un type d’EMC ou assimilé, en 2016, déjà à l’époque les baies de SSD étaient vues comme très fiables).




patos a dit:


Perso, j’aimerais un SSD avec un switch de firmware: SLC/TLC. Mais il ne faut pas rêver…. :)




Remarque, tu l’as en pratique avec tous les SSD qui offrent un cache en utilisant une partie en SLC :-) .


effectivement une mlc (tlc, qlc) peut être utilisée en slc mais l’inverse n’est pas vrai à ma connaissance, donc il y a bien une différence interne qui fait une slc ou mlc, non ?
C’est peut être par contre juste une histoire de stabilité de la cellule envers ces différents niveaux c’est effectivement possible comme certaine ram qui s’overclocke plus que d’autre ou certain proc qui chauffe plus en fonctions des pertes silicium.


Il faut vraiment que tu prennes des cours de techniques. Ça n’a strictement rien à voir….




OlivierJ a dit:


il me semble que même en pro, il n’y a plus que de la “MLC+” (2 bits par cellule), ça suffit déjà à avoir une très grande longévité en pratique (me souviens d’une discussion avec un type d’EMC ou assimilé, en 2016, déjà à l’époque les baies de SSD étaient vues comme très fiables).




Les MLC sont Mixed workload ou Read intensive selon leur qualité. Les SLC sont write intensive.(par exemple pour les DELL SC (ex compellent) ).
Une SLC en cache écriture dans une baie de disque à 80000€, c’est 10% d’usure par an avec une charge de travail légère à modérée, donc je pense qu’une forte charge (noir de SQL Server) pourrait tomber des SLC en moins de 2 ans. Les MLCs ne tiendraient pas 6 mois en mixed workload et un mois en read intensive.
Pour avoir eu une baie hybride SLC/MLC, 10% d’usure par an pour 90 machines virtuelles donc 3 SQL Server, c’était très convenable ;) (pour une durée de vie donnée de 7 ans, ça me va).
Et un SLC 800Go, c’est 3000€HT pièce acheté par 7 :D Un 1.92To MLC, c’est 2000€HT.




OlivierJ a dit:


Remarque, tu l’as en pratique avec tous les SSD qui offrent un cache en utilisant une partie en SLC :-) .




Oué mais je veux le maitriser, et ne pas laisser le SSD s’écrouler et s’user pour rien.



patos a dit:


Une SLC en cache écriture dans une baie de disque à 80000€, c’est 10% d’usure par an avec une charge de travail légère à modérée




Comment mesures-tu ces 10 % ?




Oué mais je veux le maitriser, et ne pas laisser le SSD s’écrouler et s’user pour rien.




À moins d’en avoir un usage assez particulier, ça fait des années qu’on ne s’inquiète plus de la longévité des SSD, en tant que particulier (même si tu bosses avec ton ordi). En pratique on les change bien avant qu’ils ne soient en bout de course.
(ça me rappelle la légende qui perdure parfois, comme quoi faudrait pas mettre le swap sur un SSD, mais en fait ça fait belle lurette - genre 10 ans - que c’est faux, d’ailleurs ; on est d’accord que c’est juste un exemple, mais j’ai un SSD de 80 Go de 2009 où j’ai mis le swap (Linux) et qui me sert toujours de disque système (PC fixe allumé 2424).



OlivierJ a dit:


Comment mesures-tu ces 10 % ?




Un constat de la console, vu que j’avais deux de ces baies en gestion. Je gardais des stats mensuelles de l’usure pour savoir, en fonction des extension de garantie, si ça valait le coup/coût ou non :)




OlivierJ a dit:


À moins d’en avoir un usage assez particulier, ça fait des années qu’on ne s’inquiète plus de la longévité des SSD, en tant que particulier (même si tu bosses avec ton ordi). En pratique on les change bien avant qu’ils ne soient en bout de course. (ça me rappelle la légende qui perdure parfois, comme quoi faudrait pas mettre le swap sur un SSD, mais en fait ça fait belle lurette - genre 10 ans - que c’est faux, d’ailleurs ; on est d’accord que c’est juste un exemple, mais j’ai un SSD de 80 Go de 2009 où j’ai mis le swap (Linux) et qui me sert toujours de disque système (PC fixe allumé 2424).




Ton SSD de 2009 est beaucoup plus fiable qu’un SSD d’aujourd’hui.
Il faut s’en servir (genre mettre le swap sur un hdd, quelle blague en termes de confort d’utilisation…), sinon autant garder des disques durs. Mais il faut avoir des SSDs adaptés à l’usage. Et aujourd’hui, c’est ça le problème: trouver des SSDs qui correspondent à tous ces usages.
Et franchement, trouver des bons SSDs, fiables, performants et constants, c’est une merde ou ça coute un rein.



patos a dit:


Un constat de la console, vu que j’avais deux de ces baies en gestion. Je gardais des stats mensuelles de l’usure




Ces stats sortent d’où ?
(tu n’as en fait pas répondu à ma question :-) )




Ton SSD de 2009 est beaucoup plus fiable qu’un SSD d’aujourd’hui. [..] Et franchement, trouver des bons SSDs, fiables, performants et constants, c’est une merde ou ça coute un rein.




Je disconviens. En 2009 c’était vu comme pas plus fiable que ça.
Et entre 2009 et 2021 le prix de la Flash (et des SSD) s’est effondré, même à qualité égale (le contraire serait étonnant et même très très surprenant). Sans parler des capacités et des perfs qui ont explosé.
Les SSD étaient rares et chers en 2009, en tous cas pour le public, même geek.



OlivierJ a dit:


Ces stats sortent d’où ? (tu n’as en fait pas répondu à ma question :-) )




La console de gestion Dell SC Manager, fourni avec les baies de disques SC5020, remplies de SSD ;)
T’as les courbes d’usure journalière, remontées à Dell pour faire du SAV préventif.




OlivierJ a dit:


Je disconviens. En 2009 c’était vu comme pas plus fiable que ça. Et entre 2009 et 2021 le prix de la Flash (et des SSD) s’est effondré, même à qualité égale (le contraire serait étonnant et même très très surprenant). Sans parler des capacités et des perfs qui ont explosé. Les SSD étaient rares et chers en 2009, en tous cas pour le public, même geek.




Nous sommes d’accord en réalité ;) .
En 2009 c’était vu comme pas fiable et performant. Aujourd’hui, les SSDs d’aujourd’hui sont vu comme fiables et performants grâce à des truches. Mais aujourd’hui, on se rends compte que les SSDs d’avant étaient bien plus fiables qu’on le pensait: la plupart du temps, c’était des bug firmware (coucou le Crucial M4) qui donnaient mauvaise réputation.
Les SSDs classiques d’aujourd’hui, franchement, ils ne sont pas bons. Ils sont + performants, mais à quel prix? Une endurance à chier, un cache tricheur, quand ils ne proposent pas un ramdrive directement pour accélérer l’écriture… (je ne sais plus qu’elle marque faisait cela).
Pour minimiser la casse, je n’achète que des Samsung Pro et j’ai pas beaucoup de problèmes.



Le SSD est plus abordable à capacité constante, mais aussi bien plus marketing que “bon” !


je voulais dire que “avant” on je savait faire que de la slc car les cellules mémoires elle-mêmes n’étaient pas aussi stables que ce qu’on sait faire maintenant, donc c’était dans le sens “on a besoin de cellules plus stables pour de la qlc que pour de la slc”



oui mais non, vu qu’on ne contrôle rien, et que les fabricants se gardent bien de l’indiquer dans leurs fiches techniques.
si je prend un ssd de 2to, rien de garantit qu’il fonctionne “en mode slc” sur les 666 premiers gigas
on parle souvent d’un “cache slc” dont la taille peut varier en fonction du remplissage, mais chaque constructeur fait sa sauce, certains réservent 10go de manière fixe, d’autres c’est 50 ou 100, d’autres encore vont utiliser 100go à moins de 10% de remplissage puis 50go entre10% et 50% puis …
et ce n’est qu’un “cache slc”, les données y sont écrites à l’enregistrement histoire d’avoir de bons débits, mais dès que le ssd n’est plus sollicité, les données vont être “copiées” vers les cellules utilisées en qlc pour avoir à nouveau ce cache utilisable