Test Corsair MP400 4 TB im Test: Große QLC-SSD mit ausdauerndem SLC-Modus

Also ich habe in 4 Jahren ca 92TB Total Byte Written angesammelt, das über 4 Platten. Das meiste hat meine 4TB HDD der als Zwischenspeicher und Datengrab zugleich genutzt wird mit 40TB. Auf Platz 2 ist meine 512GB Boot-SDD mit 32TB geschrieben und ca 53TB gelesen. Halten soll die SSD 400TB...
Hat damals aber auch 300€ gekostet >_>

Persönlich würde ich eine SSD mit QLC nur als SATA-SSD kaufen. Als NVME sollte TLC oder MLC drauf.
 
  • Gefällt mir
Reaktionen: C4rp3di3m
h00bi schrieb:
Sind denn SLC writes so "abnutzend" wie QLC writes?

An den eigentlichen Flashzellen ändert sich nichts, egal ob im pSLC Modus oder als QLC - die Zelle hält physisch genauso lang. Der Unterschied besteht einfach darin wie viele Spannungsniveaus man am Ende auseinander halten muss. Wenn man nur 2 statt 16 sicher unterscheiden können muss, kann man die Zelle halt länger nutzen.

Fleischmann schrieb:
Es ist vermutlich extrem einfach so einen kleinen Schalter zu realisieren und es würde dem Nutzer so viel mehr Flexibilität geben und vor allem mehr Kunden ansprechen.
Jein. Wenn man sich nicht um die bisher vorhandenen Daten kümmert, wäre ein Umkonfigurieren aus technischer Sicht sicherlich vorstellbar, auch wenn das normalerweise fest in der Firmwarekonfiguration ist.

Aber, eine Firma wäre extrem dumm das zu erlauben, weil das ein Horrorszenario für den Support und möglichen Garantieansprüchen wird. Einfach ein Beispiel: Du benutzt die SSD hauptsächlich im pSLC Modus - alles funktioniert bestens, entscheidest dich aber dann für den QLC Modus um. Plötzlich funktionieren aber 3/4 der Zellen nicht mehr ordentlich weil diese nicht mehr ihr Spannungsniveaus ausreichend unterscheiden können. Ist die SSD jetzt defekt oder nicht?

Der normale User wird zurecht die Erwartung haben, wann immer er will, umschalten zu können, wo aber technische Gründe dagegensprechen. Nur mit technischen Details kann man keine Werbung machen. Und wenn ein Hersteller sowas wagt, muss er sicherstellen den Usern diese technische Gegebenheit vor Benutzung und vor Kauf zu vermitteln, andererseits verwickelt er sich schnell in Forderungen von Verbraucherschützern oder gar Klagen bzgl. nicht erfüllter Produktversprechungen.

Dem User sowas umschaltbar zu erlauben öffnet ein Fass an Problemen, welches kein Hersteller eingehen wird.

Wenn jemand wirklich pSLC only SSDs sucht, kann er z.B. im Industrial Markt schauen. Einfach mal bei Distributoren wie Digikey, Mouser etc. gucken, da gibt's genügend Angebote verschiedener Hersteller und da können auch Privatpersonen kaufen.
 
Also irgendwie verstehe ich den Sinn von so einen Produkt nicht ganz.
  • Das Teil ist langsamer und weniger lang haltbar als TLC, aber fast genau so teuer.
  • Es kann vor allem als schnelles Datengrab genutzt werden, kostet aber 5-6 (als 4TB) mal so viel wie eine HDD.
  • Als Laufwerk für Spiele und Anwendungen ist es wie gesagt langsamer als TLC, DRAM fehlt (falls ichs nicht überlesen habe), kann man gleich TLC nehmen.
  • Als Datengrab und für alte Spiele und Anwendungen reicht eine HDD locker aus und das bissle Geschwindigkeit muss einem ansonsten sehr viel Geld Wert sein.
  • Wenig lang haltbar im Dauerbetrieb was uns im Fall von gewünschter Geschwindigkeit zu TLC bringt und im Falle von Datengrab zu HDD, wegen Preis.
  • QLC als Datengrab muss wie alle NAND ab und zu "aktiviert" werden, sonst geht die Ladungsinfo verloren, was den Einsatztyp Datengrab aus meiner Sicht wieder etwas schwieriger macht. HDD als Datengrab kann theoretisch im Gegensatz zu NAND ewig halten, je nachdem wann die Mechianik verschleisst.
Wäre auf der Habenseite nur noch:
  • Schneller als HDD
  • Lautlos
  • Nerdtech
  • für den Hersteller: mehr Gewinn als bei TLC
:-)
 
  • Gefällt mir
Reaktionen: C4rp3di3m und begin_prog
PS828 schrieb:
@Robo32 Aber TLC hat kaum Probleme bei der schreiberate innerhalb normaler Benutzung. Da sieht's bei QLC echt übel aus im Vergleich.

Nein, ich hab auch schon üble TLCs gehabt. Manche Hersteller können alles schlecht machen. DRAM-less und extrem hoher dynamischer pSCL ziehen sogar große TLC-SSDs auf ein Niveau unter einer gut gemachten QLC.
 
  • Gefällt mir
Reaktionen: PS828
MichaG schrieb:
Oder haben sie geflunkert? ^^
Ich habe das aus Spezifikationen von 870 Evo und 860 Evo im Vergleich.
https://www.computerbase.de/2021-01/samsung-870-evo-ssd-test/


870.jpg

Bei Geizhals stimmen die Angaben nicht.
 
@Jan das sieht doch schonmal sehr informativ aus. Die X-Achse ist allerdings etwas schwer verständlich formattiert :D

Benutzt ihr dafür ein Programm, das random Dateien erzeugt und diese auf die SSD schreibt? Falls ja, wie komprimierbar sind diese Dateien?
 
Ich schreibe ein 10 GB grosses RAR aus einer RAM-Disk unter immer neuem Namen auf die SSD.

Die X-Achse ist doof. Aber es in 100 Prozent umrechnen wäre ziemlich haarsträubend und die Datei jedes Mal auf 1 Prozent Größe anzupassen aufwendig und eine unbekannte Variable...
 
  • Gefällt mir
Reaktionen: ZeusTheGod
@Staubwedel deshalb immer vor dem Kauf gucken was man sich da anschafft :D

Ich nutze Beispielsweise aktuell eine SSD mit 400 GB,.MLC und 1,6 PB TBW. Diese ist allerdings schon fast 4 Jahre alt.

Aktuell bleibt sie auch noch drinnen aber irgendwann muss sie aufgrund ihrer Größe getauscht werden. Dennoch bleibt sie mir erhalten. Evtl als cache im Selbstbau NAS. Diese Platte hat den Vorteil dass sie ihre 1,4 GB/s Lesen und 900 MB/S Schreiben über das gesamte Volumen schafft. Deshalb ist sie mir auch ans Herz gewachsen :D

Generell muss man halt immer gucken was man macht. Wie viel wird gelesen und geschrieben? Welche Datenmengen braucht man und wie sehen entsprechende Zugriffe aus.

Z.b. bei Backup Platten, welche täglich mit Backups beschossen werden sollten vorher auf ihre jährliche TBW geprüft werden.
 
SSD Cache ist ganz nett aber leider sollte man das in den meisten Situationen als Raid 1 einsetzen.
Ansonsten zerlegt ein ausfallendes Cache Medium das Filesystem was darunter liegt.
 
Rickmer schrieb:
Auch beim 390GB Kopiertest? :king:
Prinzipiell wäre es ja denkbar (und sicher auch möglich) ein Tool zu schreiben, welches im RAM Zufallsdaten in rauen Mengen generiert und direkt auf die SSD schreibt.
Edit: beim nächsten Mal lade ich vor dem Abschicken die neuen Posts... bestimmt :)

begin_prog schrieb:
Was im Test IMHO zu wenig herausgestellt wurde: Eine leere SSD ist nicht realistisch. Je voller sie wird, desto kleiner wird der Cache, und zwar gleich um Faktor 4(!). Dann wird das Schreiben zur Geduldsprobe.
Wie kommst Du auf Faktor 4?
Der Cache beträgt immer ein Viertel der Größe des freien Speichers. Wenn man nun den freien Speicher halbiert, hat man auch die halbe Größe an Cache. Das ist nicht Faktor 4... je nach Sichtweise ist es sogar eher Faktor 0,25, weil man pro geschriebenem TB nur 250GB Cache einbüßt.
BeschriebenCache-GrößeSLC-Äquivalent
0% (0TB)4TB1TB
25% (1TB)3TB750GB
50% (2TB)2TB500GB
75% (3TB)1TB250GB
90% (3,6TB)400GB100GB

Und sind wir doch mal ehrlich: wie viele realistische (Heimanwender-)Szenarien gibt es, in denen hunderte von GB schnell auf so eine Datengrab-SSD geschrieben werden sollen.
 
Zuletzt bearbeitet:
PS828 schrieb:
Ich nutze Beispielsweise aktuell eine SSD mit 400 GB,.MLC und 1,6 PB TBW. Diese ist allerdings schon fast 4 Jahre alt.

Aktuell bleibt sie auch noch drinnen aber irgendwann muss sie aufgrund ihrer Größe getauscht werden. Dennoch bleibt sie mir erhalten. Evtl als cache im Selbstbau NAS. Diese Platte hat den Vorteil dass sie ihre 1,4 GB/s Lesen und 900 MB/S Schreiben über das gesamte Volumen schafft. Deshalb ist sie mir auch ans Herz gewachsen
Wenn ich mal einen großen schreibfesten Cache brauche habe ich noch eine Toshiba XG3 1TB mit MLC und 2400/1500 MB/s read/write :D

ZeusTheGod schrieb:
Prinzipiell wäre es ja denkbar (und sicher auch möglich) ein Tool zu schreiben, welches im RAM Zufallsdaten in rauen Mengen generiert und direkt auf die SSD schreibt.
Das neue Verfahren wurde mittlerweile erläutert, siehe Beitrag #87 und #89
 
  • Gefällt mir
Reaktionen: PS828 und ZeusTheGod
ZeusTheGod schrieb:
Der Cache beträgt immer ein Viertel der Größe des freien Speichers.

Das stimmt leider nicht. Auch wenn bei QLC maximal 1/4 möglich ist, machen das noch lange nicht alle Laufwerke so. Und auch der Quotient bleibt über den Füllstand nicht immer gleich, siehe z.B. die Modelle, die einen statischen (immer vorhanden) und einen dynamischen (abhängig vom Füllstand) haben.

Ein großer Cache hat ja auch Nachteile, siehe z.B. oben in dem Diagramm: Ich denke, dass der 2. Leistungsabfall der MP600 Pro daher rührt, dass die Platte noch nicht fertig ist mit dem Umschreiben von 1 Bit auf 4 Bit. Wäre der SLC-Modus kürzer verfügbar, hättest du vorne zwar nicht so lange 2,x GB sondern früher 1,7 GB, dafür hinten aber eventuell nicht die 1,0 GB/s.
 
  • Gefällt mir
Reaktionen: massaker und Staubwedel
Deshalb bin ich auch für einen kleineren pSLC-Cache.

Muß nicht so klein sein wie bei Samsung, aber auch nicht mehrere hundert GB groß da dies unweigerlich zu einem starken Leistungsabfall führt

PS828 schrieb:
@Staubwedel deshalb immer vor dem Kauf gucken was man sich da anschafft :D

Ich nutze Beispielsweise aktuell eine SSD mit 400 GB,.MLC und 1,6 PB TBW. Diese ist allerdings schon fast 4 Jahre alt.
Ist in den meisten Fällen unmöglich, außer man kauft alte Modelle. Was widerum auch nicht immer helfen wird da manche Marken in der laufenden Serie die Innereien tauschen.

Die Nicht-Angaben von Herstellern machen es auch schwer. Aber selbst wenn man NAND und Controller angibt hat man noch keine Infos was die Firmware macht. Riesiger Cache inkl. totalen Leistungsabfall oder andersrum?

Samsung ist meines Wissens der einzige Hersteller der da recht genaue Angaben macht.
 
  • Gefällt mir
Reaktionen: PS828
Die 970 Pro 1TB ist im Preis deutlich gefallen und hat keine Probleme mit pSLC-Cache. ;)
 
medsommer schrieb:
Wo ist Holt denn?
Auf Hardwareluxx. Wäre auch schlimm, wenn er gänzlich weg wäre. Sonst bliebe ja niemand mehr übrig, der dich mehr oder weniger als Vollidioten bezeichnet, weil du dich nicht perfekt ausdrückst?
 
  • Gefällt mir
Reaktionen: Staubwedel und C4rp3di3m
Jan schrieb:
Das stimmt leider nicht. Auch wenn bei QLC maximal 1/4 möglich ist, machen das noch lange nicht alle Laufwerke so. Und auch der Quotient bleibt über den Füllstand nicht immer gleich, siehe z.B. die Modelle, die einen statischen (immer vorhanden) und einen dynamischen (abhängig vom Füllstand) haben.
Dann war das missverständlich von mir ausgedrückt. Mit 'immer' meinte ich, bei diesem Laufwerk immer, also unabhängig vom Füllstand. Und das Ganze in Bezug auf den angeblichen Faktor 4.

Jan schrieb:
Ein großer Cache hat ja auch Nachteile, siehe z.B. oben in dem Diagramm: Ich denke, dass der 2. Leistungsabfall der MP600 Pro daher rührt, dass die Platte noch nicht fertig ist mit dem Umschreiben von 1 Bit auf 4 Bit. Wäre der SLC-Modus kürzer verfügbar, hättest du vorne zwar nicht so lange 2,x GB sondern früher 1,7 GB, dafür hinten aber eventuell nicht die 1,0 GB/s.
Aber wäre das wirklich das bessere Verhalten? Die meisten üblichen Schreibvorgänge werden sich doch eher genau in dem schnellen Bereich befinden.
Unabhängig davon: habt ihr eine andere MP600 Pro als z.B. Techpowerup (abgesehen von der Kapazität)? Zum einen müssten doch zu Beginn mindestens 5GB/s (und nicht nur 2,x) erreicht werden und zum Anderen ist der 1. Leistungsabfall zu gering. Auf deinem Screenshot schreibt die SSD ja im TLC-Modus noch mit 1,8GB/s, da bräuchte man ja gar keinen SLC-Modus.
Und warum "Umschreiben von 1 auf 4 Bit"? Die MP600 Pro hat doch TLC und nicht QLC!?

Nach meiner Interpretation hat die 2TB-Variante einen fixen Cache von 200GB (also 600GB auf der SSD reserviert), analog zu den 100GB bei der 1TB-Variante (siehe Techpowerup). Nach 200 geschriebenen GB wird jetzt doch direkt im TLC-Modus geschrieben, oder nicht? Ich kann mir nicht vorstellen, dass hier bereits (während des weiteren Schreibvorgangs) der Cache geleert wird. Das passiert dann doch am Schluss und ist für den zweiten Einbruch verantwortlich. Rechnerisch wären dann 200GB+1400GB geschrieben (auf der SSD 600GB im SLC-Modus und die restlichen 1,4TB im TLC-Modus), bis die SSD "voll" ist. Für die letzten 400GB MUSS der Controller den Cache leeren, damit sie auf die SSD passen. Es wird also parallel der SLC-Cache gelesen und im TLC-Modus geschrieben und zusätzlich parallel die ankommenden Daten geschrieben. Für jedes Byte aus dem Cache, welches jetzt im TLC-Modus geschrieben wird, werden gleichzeitig 2 Byte für Nutzdaten frei. Die Performance bricht also im Vergleich zum normalen TLC-Modus um über ein Drittel ein: 1 Byte Cache-Daten + 2 Byte Nutzdaten und zusätzlicher Overhead (oder anders: von den 1800MB/s bleiben 1200MB/s minus Overhead für Nutzdaten und 600MB/s für die Cache-Umwandlung), weil beim Schreiben parallel gelesen werden muss.
 
  • Gefällt mir
Reaktionen: Staubwedel
ZeusTheGod schrieb:
habt ihr eine andere MP600 Pro als z.B. Techpowerup (abgesehen von der Kapazität)? Zum einen müssten doch zu Beginn mindestens 5GB/s (und nicht nur 2,x) erreicht werden

TPU schreibt sequentiell Daten drauf, da erreicht sie in CMD ja sogar 7,x GB. Ich wiederum kopiere "echte Daten" und, ja, so traurig das auch ist, da hängt auch so ein Laufwerk dann bei 2,x GB/s.

ZeusTheGod schrieb:
Und warum "Umschreiben von 1 auf 4 Bit"? Die MP600 Pro hat doch TLC und nicht QLC!?

Da hast du Recht, es muss "3 Bit" heißen.
ZeusTheGod schrieb:
Ich kann mir nicht vorstellen, dass hier bereits (während des weiteren Schreibvorgangs) der Cache geleert wird.
Da dürfest du richtig liegen.
 
  • Gefällt mir
Reaktionen: ZeusTheGod und Staubwedel
Zurück
Oben