Test Corsair MP600 Core XT SSD im Test: Zugleich schneller und langsamer als SATA

peakyblinder schrieb:
Okas danke für die kurze Erklärung. Ist aber PCIE 4.0 perse PCIE 3.0 vorzuziehen?
Beispiel 2TB vs 2TB/ 1TB vs 1TB
https://geizhals.de/?cmp=2807720&cmp=1972736&cmp=1972735&cmp=2807718
Muss jeder grundsätzlich selbst entscheiden und die Vorteile oder Nachteile der verschiedenen Faktoren mitenbeziehen. Kommt auch auf die Verwendung an. In eine PS5 kommt eine PCIe 4 rein.
In ein externes 10Gbit Gehäuse wäre da wieder verschwendung oder für ein Office System reicht auch
eine ohne DRAM bzw, eine PCIe3 locker aus auch für Gaming (z.B. Steam-Library) also ob das Spiel jetzt ne Sekunde schneller lädt oder nicht - merkt man quasi eh kaum was die Leistung angeht.

Finde halt, man sollte aus genannten Gründen zu TLC greifen, gerade weil die zum selben Preis wie QLC oder sogar günstiger zu haben sind. DRAM Cache muss nicht unbedingt sein, aber wenn es sowas günstiges wie aktuell die 970 EVO Plus 1 TB für 59,99€ mit DRAM Cache gibt - nimmt man natürlich die.
 
  • Gefällt mir
Reaktionen: peakyblinder
TorenAltair schrieb:
Nein, die Performance ist nicht schlechter oder kopierst Du den ganzen Tag Daten von einer SSD auf die andere?

Es soll tatsächlich Leute geben, die öfters große Datenmengen hin und her schieben. Und man bedenke, dass der Pseudo-SLC Cache ja immer kleiner wird, sobald die SSD voller wird. Oder kaufst Du eine 2TB SSD um dann nur etwa die Hälfte zu nutzen?

QLC ist akzeptabel als Quasi-Datengrab, wenn wenigstens noch ein DRAM-Cache verbaut wurde. Aber wenn selbst der fehlt, ist das Ding in meinen Augen ziemlicher Elektronik-Müll und man greift besser zur Konkurrenz. Die bereits erwähnte WD SN750 mag zwar "nur" PCIe3 sein, aber liefert dafür deutlich konstanter diese Leistung dank TLC. Für mich eindeutig das wesentlich bessere Produkt für den gleichen Einsatzzweck.
 
  • Gefällt mir
Reaktionen: Haldi
Ich habe in letzter Zeit vermehrt alte SSDs aussortiert und eine gesucht, die als OS-Datenträger fürs NAS oder einen neuen PC noch in Frage kämen. Ich bin wirklich erstaunt, welche Rückschritte man mit QLC teilweise in Kauf nehmen muss. Selbst die älteste noch brauchbare SSD, die ich hier gefunden habe, eine 750 EVO von 2016, überträgt schneller ihre Daten. Schade, dass Corsair auch durch die Produktbezeichnungen hier so einen Murks unter die Leute bringen will.
 
Fazit: Wenn es nicht mehr wie 2TB pro Laufwerk braucht, ist man mit ner SN570 oder KC3000 besser bedient.

QLC ohne DRAM? Auch bei NVMe… Fail. TLC-SSDs ohne DRAM können bei NVMe-SSDs bei manchen Anwendungsfällen ja wenigstens durchaus sinnvoll und dennoch hinreichend performant sein…
 
peakyblinder schrieb:
Okas danke für die kurze Erklärung.

Ist aber PCIE 4.0 perse PCIE 3.0 vorzuziehen?

Beispiel 2TB vs 2TB/ 1TB vs 1TB
https://geizhals.de/?cmp=2807720&cmp=1972736&cmp=1972735&cmp=2807718
Für die Zukunft ist PCIE 4.0 vorzuziehen. Kommt aber aktuell noch darauf an was du für ein Usecase hast.
Aktuell von der Preis/Leistung sind die Kingston Fury Renegade für 500GB und 1TB sehr zu empfehlen. Bei 2TB dann die WD SN850X. Die Kingston ist bei der Größe beidseitig bestückt und hat dann mit der Temperatur etwas zu kämpfen.
 
Wa die Schreibleistung ist ja abartig schlecht... was für ein "unterirdisches " Produkt 👎
Und dafür wollen's auch noch Geld?
NIEMALS! 🤣
 
@MaverickM Dass es aktuell im Markt bessere Alternativen gibt, absolut d‘accord. Mir geht es hier um das pauschale Abwerten von wegen, da kaufe ich doch besser eine Festplatte oder QLC ist Müll. Ich erinnere mich noch gut daran, als TLC eingeführt wurde. Nun ist TLC die heilige Kuh geworden.
 
  • Gefällt mir
Reaktionen: Aquilid
peakyblinder schrieb:
Was bringt DRAM eig?
DRAM erhöht die Schreibrate bei kleinen Dateien enorm. Zudem wird durch den DRAM der SLC-Cache entlastet. SLC-Cache ist idr. Teil des Speicherbereiches, die Nutzung der Zellen als SLC-Cache erhöht die Abnutzung der Zellen enorm.
peakyblinder schrieb:
Und wo liegt der große Unterschied zu QLC, TLC etc?
Wie viel Bits pro Zelle gespeichert werden.
SLC -> Single Level Cell
MLC -> Multi Level Cell
TLC -> Tripple Level Cell
QLC -> Quad level Cell
qlc-vs-tlc-1.png

Du musst dir eine Zelle vorstellen wie ein Glas. Wenn das Glas voll ist, ist da eine 1 drin. Ist das Glas leer, ist da eine 0 drin. Das ist SLC.
Jetzt dachte man sich, dass man pro Zelle mehr Informationen speichern kann, wenn man nicht nur Voll oder Leer definiert, sondern auch Zustände dazwischen. So ist es zu MLC gekommen. MLC speichert statt einem zwei Bits. also statt 0 oder 1 -> 00, 01, 10, 11. Um Zwei Bits zu speichern, muss die Zelle 4 unterschiedlich definierte Füllstände (Spannungen) haben.
Dann dachte man sich, da geht noch mehr. TLC.
TLC sind 3 Bits. Drei Bits sind 2³ -> 8 mögliche Zustände:
000, 001, 010, 011, 100 ,101 ,110 ,111.
Merke, die Komplexität der Speicherung für nur ein Bit mehr (von 2 zu 3) hat sich verdoppelt.

Da dachte man sich, da geht noch mehr: QLC
Vier Bits pro Zelle. Ich erspar mir die Aufschlüsselung, aber das sind 16 verschiedene Spannungslevel, die in einer Zelle definiert werden müssen. 16 verschiedene Zustände, um 4 Bits zu speichern!
Falls es mal zu PLC kommt, sind wir bei 32 verschiedenen Zuständen. Der Bitgewinn steht seit spätestens QLC in keinem Verhältnis mehr zur Speicherkomplexität.
Flashzellen nutzen sich mit der Zeit ab und es wird immer schwerer für die Zelle, Elektronenladungen stabil zu halten. Je feiner die Abstufung der Spannung in einer Zelle über deren Inhalt entscheidet, desto schneller passiert ein Bitflip, also Bitrot. QLC hat also eine deutlich geringere Haltbarkeit, bei gleichzeitig deutlich geringerer Speichersicherheit.

Gut, aber warum ist QLC jetzt so langsam?
Man muss sich vorstellen, um 4 Bit in eine Zelle zu schreiben, hat man die Auswahl an 16 verschiedener Spannungen. Man kann nicht alle Zellen gleichzeitig beschreiben, das sind dreidimensional angeordnete Gitter die diese Zellen beherbergen, die nur über wenig Steuerleitungen mit Multiplexern und letztendlich dem Controller verbunden sind. SLC beschreiben ist einfach, man legt eine definierte Spannung an und öffnen die Zellen, die beschrieben werden sollen über eine definierte Dauer.
Bei QLC hat man dieselbe Infrastruktur, muss jetzt aber zwischen 16 verschiedenen Spannungen auswählen. Und man kann nicht im selben Bereich mit zwei unterschiedlichen Spannungen arbeiten. Solange die eine Spannung angelegt ist können nur die Zellen damit beschrieben werden, die genau diese Bitkombination bekommen sollen. Grob theoretisch betrachtet ist die Schreibrate von SLC zu QLC also 1/16. Und das betrachtet noch nicht, das man die Zellen länger offen halten muss, damit sie das Spannungslevel definiert annehmen.

Das diese Zellen überhaupt in modernen PCs nutzbar sind, verdanken sie der Parallelisierung von Schreib und Lesezugriffen und vor allem Cache, Cache Cache.
Bei SLC Cache nimmt man ein Teil dieser QLC-Zellen die noch leer sind und betreibt die als SLC-Zellen.
Aus 4GB freiem QLC Speicher wird also 1GB SLC-Speicher, den man schnell beschreiben kann. Und nach dem Schreibvorgang übernimmt der Controller die Mühselige Aufgabe, die Daten wieder auszulesen und kriechend langsam in noch nicht beschriebene QLC-Zellen zu speichern, um die als SLC-Cache vorgehaltenen QLC-Zellen wieder zu befreien. Merke, Flashzellen haben nur eine begrenzte Anzahl an Schreibzyklen. Werden diese als Cache benutzt, sinkt die Lebenszeit des Laufwerks durch die Verdoppelung der Schreiblast. Das dies nur bis zu einem gewissen Füllstand überhaupt funktioniert ist wohl klar, man kann im Lagerhaus nur Sokoban spielen wenn genug Platz frei ist.
Brauchbare QLC-Laufwerke setzen deshalb auf externen DRAM, der den SLC-Modus je nach Größe der geschriebenen Daten ersetzt und so die Zellen extrem entlastet. Vorallem wirkt sich der Füllgrad des Laufwerks nie limitierend auf den DRAM-Cache aus wie es bei SLC-Cache der Fall ist.
QLC-Laufwerke ohne DRAM-Cache sind meines Erachtens unbrauchbar. Selbst TLC-Laufwerke ohne DRAM-Cache empfehle ich eigentlich nicht.

Und jetzt weißt du, warum QLC-Laufwerke langsamer als HDDs sind, sobald der SLC-Cache vollgeschrieben ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Engaged, Donnerkind, scheru und 6 andere
Wie "fest" ist eigentlich dieser TBW?
Meldet sich die SSD sobald der Wert erreicht wird und sagt "nun ist schluss" oder gehts munter weiter nur, dass der Hersteller dann keine Garantie mehr gibt?

Und um welchen Wert übertrifft man dann ggf. solch einen Wert?
 
besseresmorgen schrieb:
oder gehts munter weiter nur, dass der Hersteller dann keine Garantie mehr gibt?
This
Das kann "bis zum" 4fachen drübergehen - kann aber auch direkt danach sterben...
Normale "Praxiswerte" sind das 1,5-2fache.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: besseresmorgen
  • Gefällt mir
Reaktionen: besseresmorgen
Telechinese schrieb:
...und ist auch Mist! 👍
SLC war das einzig Wahre...
Wenn es nur um Geschwindigkeiten geht, mag das stimmen. Allerdings hat die Verkleinerung und Komplexität von Speicherzellen auch Vorteile. 2,5" ist ein sehr begrenzter Formfaktor, von M.2 ganz zu schweigen. Es wird in der Zukunft sicher noch mehr Verbesserungen in dem Bereich geben (müssen).
 
Davon sieht man aber (zu Zeit) nichts...
TBW-Werte fallen in den Keller, Schreibraten unterirdisch... was kommt dann noch?
Der Nachfolger von QLC wird noch viel langsamer und weniger haltbar als jetzt...
Ich seh da kein Land...
 
  • Gefällt mir
Reaktionen: Engaged
Boimler schrieb:
Es wird in der Zukunft sicher noch mehr Verbesserungen in dem Bereich geben (müssen).
Nur wird das dann vermutlich auf einer anderen Technologie basieren. Der Weg, mehr Bits in NAND-Flash Zellen zu stopfen, ist eine Sackgasse in der wir schon zu weit drin stecken. Wir können die Speicherkomplexität (PLC) nicht mehr wirklich erhöhen ohne uns bei der Fertigungsgröße zurück zu entwickeln. Aber ohne kleinere Fertigung wird es auf der Ebene keinen Kapazitätsgewinn mehr geben. Der einzige Ausweg aktuell scheint Stacking zu sein, den die Hersteller munter beschreiten. Wie weit das noch skalierbar ist?
Wir müssen langfristig von NAND-Flash weg.
 
  • Gefällt mir
Reaktionen: Boimler
4TB QLC mit grottiger Performance für €300? LOLZ

Ich habe mir als "Datengrab" gerade eine Kingston KC3000 für knapp €335 (inkl. Versand) gegönnt, um meine Samsung 2,5" SATA 860 EVO abzulösen. Mit schnellem Phison E-18 Controller und TLC Micron 176 Layer NAND (7000MB/s read/write).

Insofern: Viel Glück, Corsair. Ihr werdet es brauchen (oder jede Menge DAUs) :D .
 
Drahminedum schrieb:
Daten/Programme nur tröpferlweise drauf kopieren/installieren?
Wenn du die Daten einmalig kopieren musst, ist es doch Banane.
Lässt man einfach im Hintergrund laufen und gut ist.
Und selbst beim Download wird anderes begrenzen.

Klar ist es nervig, wenn selbst USB Sticks schneller lesen, als die SSD schreibt. Aber wie oft schreibt man die voll?
 
  • Gefällt mir
Reaktionen: Aquilid und Jan
@MichaG Habt ihr mal überlegt zu testen wie lange die SSDs brauchen um nach einem größeren write wieder pSLC-Cache zuhaben?

Würde ja nichts nutzen, wenn die SSD tage braucht um von 100 MBit/s wieder auf sinnvolle Geschwindigkeiten zukommen.
 
@MichaG warum ist die MX500 als SATA-Vergleich denn nur 1TB groß und nicht 2TB wie die anderen Laufwerke? Die geringere Größe könnte eventuell ein Nachteil sein, muß aber nicht. Zudem wäre es interessant zu wissen welche Revision der MX500 dort im Einsatz ist.
Vielleicht solltet ihr bei solchen Vergleichen auch immer die genutzte Firmware der jeweiligen Laufwerke in einer Übersicht anzeigen.
 
Sorry, aber eure SSD-Tests finde ich zum Teil ziemlich dilettantisch:
Der Testlauf im leeren Zustand erfolgt 30 Minuten nach der Formatierung. Der Testlauf bei 80 Prozent wird auf dem zuerst zu 100 Prozent und dann ausgehend von 50 Prozent vollgeschriebenen Laufwerk durchgeführt, auf dem 20 Prozent gelöscht und dann 30 Minuten Pause eingelegt wurden.
Nach dem löschen trimmen! - Windows nutzt kein online-discard: Woher soll die SSD wissen, dass die 20% wieder frei sind?
Doch ist die Corsair-SSD bereits zu 80 Prozent mit Daten gefüllt, geht ihr allmählich der SLC-Cache aus. Dadurch wird überwiegend im extrem langsamen QLC-Modus geschrieben. Das bedeutet nur noch durchschnittlich knapp 120 MB/s
Es gibt so eine neumodische Erfindung, die nennt sich Mathematik:

Wenn 20% frei sind, sind das bei einer 2 TB 400 GB. - D. h. im SLC-Modus können 100 GB geschrieben werden (da lt. eurer Aussage ursprünglichen Aussage der komplette freie Speicher als SLC-Cache genutzt wird), also mit knapp 2 GB/s (lt. kopieren, wenn frisch formatiert - sofern das aussagekräftig ist): Wenn die restlichen 95 GB mit den zu Anfang angegeben 100 MB/s geschrieben werden, kommt man auf eine Dauer von 1000 Sek. und damit auf eine Durchschnittliche Geschwindigkeit 195 MB/s: ca. 2/3 schneller.

Auch verstehe ich nicht, wie man Windows für solche Tests nutzen kann: Das ist dafür doch ziemlich ungeeignet. - Auch wenn ich nicht gedacht hätte, dass zwischen verschiedenen Versionen die Unterschiede so riesengroß sind, wie ihr bzgl. der neuen Testplatform schreibt.

Tipp:

Als ich meine SSDs getestet habe, habe ich das per "dd" u. a. mit "oflag=direct" und einer vorher erstellten 1 GiB Datei aus der RAM-Disk gemacht, damit weder das Dateisystem noch der Datenträger-Cache des Betriebssystems es verfälschen können.

Mit bs=1G und seek=(Anzahl der Blöcke) kann man die nahtlos aneinander setzen: https://linux.die.net/man/1/dd

Nachtrag:

Mit blkdiscard kann man auch nur bestimmte Bereiche (bzgl. ab 50% oder 80%) trimmen: https://man7.org/linux/man-pages/man8/blkdiscard.8.html
 
Zuletzt bearbeitet:
Zurück
Oben