News Memxpro PC32: SSD nutzt kompletten TLC-Speicher als Pseudo-SLC

A_H schrieb:
Eine NAND-Zelle ist und bleibt immer eine NAND-Zelle, egal wie viele Bits man da hinein quetscht. Die Anzahl der Bits ist wohl in erster Linie eine Frage der Firmware und vielleicht des Controllers. Und ich denke, je mehr Bits und damit Widerstands-Level man unterscheiden will, um so besser müsste eigentlich das Material sein. Das heißt, bei Belegung mit nur einem Bit - SLC - werden weniger hohe Anforderungen gestellt.

So lange keine elektronisch fundierten Gegenargumente da sind würde ich auch davon ausgehen.

Insofern finde ich auch jeweils die Texte und das SLC als "besser" zu bezeichnen etwas verwirrend.

Wahrscheinlich ist SLC = alte Fertigungsverfahren. Und neue MLC/TLC Zellen im SLC mode sind auch genau SLC. Aber in einer kleineren Strukturbreite, weswegen sie allenfalls trotzdem nicht die Lebensdauer der "alten" (SLC) NAND Zellen erreichen. Und für gewissen Anwendungsgebiete wird man vielleicht noch sehr lange "alte" NAND Zellen produzieren.
 
@Beitrag Das ist mir schon klar. Am Anfang hat eine SSD sagen wir mal 1TB.
Bei vielen gibt es einen Pseudo-Cache von sagen wir mal 40GB.
Wenn ich jetzt die ganze SSD nehme (1TB : 3), dann bleiben mir über 300GB übrig.
Somit hätte ich am Anfang immer eine hohe Geschwindigkeit.
Sobald ich "nichts" mache/PC neu starte... wird alles in TLC/QLC umgemünzt.
 
Das geht aus dem Artikel nicht direkt hervor, aber das ist ein Hersteller industrieller SSDs, die werden höchstens über spezialisierte Distributoren bei normalen Consumern landen, aber sind eigentlich nicht für diese gedacht.

Daher ergibt
Ralf74 schrieb:
Finde ich schön, dass endlich Mal ein Hersteller dies tut.
leider keinen Sinn, da es im industrial Bereich seit es MLC gibt auch pSLC genutzt wird, also schon seit unzähligen Jahren.

Beitrag schrieb:
Im Industriebereich gibt es reine pSLC-Speicher afaik schon länger
Exakt

Digi Quichotte schrieb:
Wobei TLC-SLC auch weitere Vorteile gegenüber herkömmlichem SLC hat. Man hat einen riesigen Spare-Bereich, denn die restlichen Zellen bleiben ja nicht auf ewig unbenutzt. Sie dienen als zusätzlicher Spare.
Wo siehst du den zusätzlichen Spare? Der ist prozentual genauso groß wie bei TLC only, da der Spare Bereich ja auch als pSLc arbeiten muss. Der größte Vorteil liegt im höheren Spielraum bei den Spannungsleveln und daher die Längere Nutzbarkeit der Flashzellen.

iGameKudan schrieb:
Geil, ich bin auf den Preis des 320GB-Modells gespannt...
Wir bei mehreren hundert Euro liegen wenn man bei Digikey, Mouser und Co mal nach vergleichbaren SSDs guckt.

Ansonsten finde ich die Pressemitteilung die als Quelle im Artikel verlinkt ist ziemlich mutig... Da ist eine Marketingabteilung mal wieder bissle übermütig mit den Vergleichen und es klingt mehr nach einer Ankündigung für den Consumer statt industrial Bereich ;) Für die NVMe SSD machen sie keine Angabe, aber für die parallel vorgestellte SATA SSD schreiben sie
The SATA 3 ET30 series has the best in class total bytes written (TBW). The ET30 series offers a Total Bytes Written (TBW) of up to 5,500TB for its 1TB SSD. Compared to industrial MLC SSDs with the same capacity, it has 7x better TBW.
Das ist faktisch einfach falsch. Ich nehme als Beispiel mal die entsprechenden SSDs von Swissbit (nicht zwangsweise als Werbung verstehen, sind halt andere die ich aus dem Bereich kenne). Die X-75 Reihe mit TLC hat 0.6 TBW pro GB Kapazität, kommt also auf 6000 TBW für die 1TB SSD, damit ist das "best of class" schonmal fragwürdig. Und der Vergleich, dass das 7x besser als MLC ist, wird z.B. durch die X-60 Reihe widerlegt, die mit MLC ebenfalls 0.6 TBW pro GB Kapazität hat.

Aber im Prinzip sind Zahlen aus solchen Pressemitteilungen nur alles Schall und Rauch um Aufmerksamkeit zu erzeugen. Industrielle Anwender unterziehen die SSDs eh ausführlichen Qualifikationstests und das ist quasi nackig machen beim Arzt ohne Möglichkeit was zu verstecken ;) Da zeigt sich dann wieviel die Geräte wirklich taugen.
 
Dito schrieb:
Warum wird die SSD nicht solange im SLC betrieben, wie Platz vorhanden ist?
Zum endgültigen abspeichern wird das ganze dann in TLC/QLC umgewandelt.

Na wie gross ist denn die Disk?
Wieviel Platz kannst du einer Partition zuweisen? (Vergessen wir mal Reservezellen für wear-out)

Sagen wir mal wir schreiben bis die Disk komplett SLC voll. Jetzt willst du noch 1MiB schreiben. oops.
Also nehmen wir 1MB SLC Speicher, lesen ihn in den cache, machen ihn leer (löschen dauert c.a. 8x länger als schreiben!), und schreiben dann 2MB mit "two level" rein.
Das dauert viel länger als wenn wir etwas früher angefangen hätten mit 2-levels zu schreiben.
 
Man müsste 1 Zelle 256 Werte zuweisen können.
Dann könnte man darin 1 Byte speichern.
Geht vielleicht mit Quanten oder sonstigem Kram.
p.s. Was wurde eigenlich aus Kristall Speichern?
 
Finde ich sehr gut, diese als 256GB SLC Version und ich kauf dass!

mfg
 
Digi Quichotte schrieb:
Wobei TLC-SLC auch weitere Vorteile gegenüber herkömmlichem SLC hat. Man hat einen riesigen Spare-Bereich, denn die restlichen Zellen bleiben ja nicht auf ewig unbenutzt. Sie dienen als zusätzlicher Spare.
Was für restliche Zellen meist Du? Pseudo-SLC ist MLC, TLC oder QLC NAND bei den nur ein Bit pro Zelle geschrieben wird, man hat also bei TLC nur ein Drittel der Anzahl an Bits bei gleicher Anzahl an Zellen, da bleiben nicht zwei Zellen übrig, weil man nur ein Bit schreibt. Die Kosten pro GB für SSD die TLC komplett als Pseudo-SLC nutzt, sind natürlich dann dreimal so hoch wie bei einer mit TLC NAND die dies normal nutzt und billiger als echtes SLC, schon weil kaum noch echtes SLC gefertigt wird und wenn, dann wird es meist in alten Fertigungsverfahren hergestellt und ist schon daher teurer. Neben den Optane, deren 3X Point sowieso anders und teurer zu fertigen ist, kenne ich nur noch Samsungs Z-SSDs deren Z-NAND auch SLC ist, aber es gibt wohl schon Bestrebungen dies künftig als MLC (2bpc) zu realisieren.
iGameKudan schrieb:
Geil, ich bin auf den Preis des 320GB-Modells gespannt...
Im Text steht:
Memxpro wirbt mit einer dadurch von 10.000 P/E-Zyklen auf 40.000 P/E-Zyklen gesteigerten Haltbarkeit für den eingesetzten 64-Layer-TLC-3D-NAND (Micron B17A).
10.000 sind bei TLC allenfalls mit den besten Enterprise NANDs machbar, es dürften also Enterprise SSDs sein und daher entsprechend teuer, wenn dann eine Optane billiger ist, wäre diese dann klar die bessere Wahl.
Digi Quichotte schrieb:
Bei heutigen CPUs mit 12 oder mehr Kerne, ist dann die CPU mal nicht der Flaschenhals, sondern allein die SSD Schreibrate.
Das ist ein Irrtum, denn die I/O Funktionen sind, gerade bei Windows aber auch in den Programmen und Spielen, meistens eben nicht parallelisiert und daher ist die Singlethreadperformance der CPU meistens doch ein Flaschenhals.
0815-Spieler schrieb:
Da ist wohl ein kleiner Fehler unterlaufen.

80GB von 320GB sind ein Viertel. Außerdem spricht dies nicht für TLC-Flash bei dieser SSD, sondern eher QLC.
Unsinn, die 80GB ist eigentlich eine 240GB TLC SSD, aber weil bei der nur ein Bit Zelle beschrieben wird, hat sie eben nur ein Drittel der Kapazität und die 320GB ist die höchste Kapazität und eigentlich eine 960GB TLC SSD. Wie man nun aus dem 1:4 Verhältnis der kleinsten Kapazität den Rückschluss auf QLC ziehen will, ist mir unverständlich, denn diese Verhältnis war/ist auch bei viele SSD Familien mit SLC, MLC, TLC und QLC zu finden (gewesen).
Digi Quichotte schrieb:
Variable Größe beim SLC Cache ist eher die seltene Ausnahme denn die Regel.
Nein, inzwischen ist dies bei Consumer SSDs Standard geworden.
Digi Quichotte schrieb:
Bei so mancher SSD läßt sich nicht mal sagen wieviel SLC Cache genutzt wird, weil der Hersteller die Info nicht rausgibt.
Dies ist allerdings korrekt, die Hersteller mauern bei den Angaben, aber trotzdem sind dynamische Pseudo-SLC Caches bei Consumer SSDs inzwischen Standard, auch wenn man meistens nicht weiß wie groß dieser Cache im Anhängigkeit vom Füllstand ist.
 
  • Gefällt mir
Reaktionen: cruse
Holt schrieb:
Das ist ein Irrtum, denn die I/O Funktionen sind, gerade bei Windows aber auch in den Programmen und Spielen, meistens eben nicht parallelisiert und daher ist die Singlethreadperformance der CPU meistens doch ein Flaschenhals.

Also ich nutze z.Z. übergangsweise einen i5-9400. Und der ist z.B. für so manche Dateioperation nicht ausreichend in Zusammenhang mit einer NVMe SSD. Hab da z.B. ein paar merkwürdige Abstürze in RDR2 gehabt. Hab dann die Dateien verifizieren Option gewählt. Diese Operation hat zwar keine Fehler entdeckt (es lag an Vulkan, bei DX12 waren die Abstürze weg), doch alle 6 Kerne meiner CPU bis zum Anschlag ausgelastet. Von Anfang bis Ende der Operation starre 100% Auslastung.

Und alle sagen immer (mit aufgesetzten FPS-Scheuklappen) NVMe bringt im Gaming nix. :D Bei 115GB im Spieleordner wartet man mit einer SATA SSD (gefühlt) ewig, und bei einer HDD kann man dann Pizza bestellen bis der Rechner fertig ist.
 
Digi Quichotte schrieb:
Bei heutigen CPUs mit 12 oder mehr Kerne, ist dann die CPU mal nicht der Flaschenhals, sondern allein die SSD Schreibrate.
ist das denn inzwischen so?
Ich kann da mit meinen 4 Kernen grad nicht mehr mitreden...
Bei mir ist es atm noch ganz ganz klar cpu limitiert. Würde ja in Umkehrschluss heißen, dass man mit genug Kernen keine Ladescreens mehr hat...
 
@Holt
Wenn man zusätzlich noch NTFS Datenträgerkomprimierung verwendet sollte das bei SSDs gar keine Nachteile wie bei HDDs mitbringen oder?
Komprimierung über den Kontroller ist halt nicht so transparent denk ich mal.
 
cbtestarossa schrieb:
Wenn man zusätzlich noch NTFS Datenträgerkomprimierung verwendet sollte das bei SSDs gar keine Nachteile wie bei HDDs mitbringen oder?
Die NTFS Datenträgerkomprimierung ist bei SSDs, zumal bei den schnellen NVMe SSDs, eher eine Bremse und erhöht die CPU Last zusätzlich. Ich würde empfehlen sie nicht zu verwenden, wenn man Wert auf Performance legt.
 
Chuuei schrieb:
Die X-75 Reihe mit TLC hat 0.6 TBW pro GB Kapazität, kommt also auf 6000 TBW für die 1TB SSD, damit ist das "best of class" schonmal fragwürdig. Und der Vergleich, dass das 7x besser als MLC ist, wird z.B. durch die X-60 Reihe widerlegt, die mit MLC ebenfalls 0.6 TBW pro GB Kapazität hat.
1. Du vergisst die Einheit, ich vermute Mal es sollen 0.6 TB TBW (Total Bytes Written, nicht TeraByte.)

2. Wenn die X-75 0.6TB TBW pro GB Kapazität hat hat sie nur 600TB TBW bei 1TB Kapazität. kA wie du auf 6,000TB kommst.

3. Die ET30 hat mit 5,500TB TBW bei 1TB Kapazität am Ende 5.5TB TBW pro GB Kapazität. Und damit über das 9-fache an TBW der von dir als "Gegen"Beispiel gebrachten SSD.
 
Wie sieht es eigentlich mit der Zugriffszeit (ms) im Vergleich mit echtem SLC aus ?
Hat da jemand Erfahrung ? :confused_alt:

Und wie funktioniert das im Detail ?
Werden beim "virtuellen" SLC einfach mehrere Werte doppelt ins TLC geschrieben ?

Oder mit anderen Worten - Kann der Controller den TLC-Speicher wie SLC ansteuern ?
- Also in der Art und Weise, dass er weniger Arbeit bei der Fehlerkorrektur hat.
 
joshy337 schrieb:
Wie sieht es eigentlich mit der Zugriffszeit (ms) im Vergleich mit echtem SLC aus ?
Die Frage ist unsinnig, da die Zugriffszeit von den konkreten NANDs abhängt und nicht nur von der Anzahl der Bits pro Zelle und echtes SLC gibt es kaum nicht und wenn, dann meistens mit alter Technologie und aus alten Fertigungsverfahren. Wirklich aktuell ist meines Wissens nur das Z-NAND von Samsung für ihre Z-SSDs, welches extra auf geringe Latenzen optimiert ist um mit den Intel Optane zu konkurrieren.
 
Holt schrieb:
Die Frage ist unsinnig, da die Zugriffszeit von den konkreten NANDs abhängt und nicht nur von der Anzahl der Bits pro Zelle und echtes SLC gibt es kaum nicht und wenn, dann meistens mit alter Technologie und aus alten Fertigungsverfahren. Wirklich aktuell ist meines Wissens nur das Z-NAND von Samsung für ihre Z-SSDs, welches extra auf geringe Latenzen optimiert ist um mit den Intel Optane zu konkurrieren.
Danke für die Kritik, aber ich bat lediglich um eine Antwort auf meine Frage(n).
In den Zeilen, die nicht zitiert wurden, habe ich diese auch (zumindest ansatzweise) begründet.
Es ging mir nicht um die Geschwindigkeit einer Zelle alleine, sondern um das Zusammenspiel mit dem Controller.
Also u.a. darum, ob der Controller einen höheren Overhead hätte, als mit echtem SLC.

Edit: Dennoch danke. Habe hier in der Tat noch SSDs mit SLC im Betrieb.
Sind betagte SATA Modelle von Kingspec, zwischen 16GB und 120GB in Kapazität.
 
Die Zugriffszeiten wie Benchmarks wie AS-SSD sie ermitteln, sind bei SSDs meist falsch, da dabei meist mit 512 Byte Zugriffen gearbeitet wird, aktuellere SSDs sind aber auf 4k Zugriffe optimiert und außerdem beachtet AS-SSD nicht, ob die Adressen die gebencht wird, auch gültige Daten enthält und wenn die keine gültigen Daten enthält, dann kann und muss der Controller auch nichts aus dem NAND auslesen, sondern gibt i.d.R. einfach nur Nullen zurück. Dies geht natürlich schneller als reale Daten aus dem NAND auszulesen und daher hängt bei AS-SSD die Zugriffszeit vom Füllstand der SSD ab und bei HDD Tools wie HD Tune dürfte es genauso sein. Die 4k bzw. bei CDM die 4k Q1T1 sind daher viel aussagekräftiger, aber die wenigsten Hersteller geben dies an und der Wert hängt auch sehr von System und dessen Energiespareinstellungen ab. bei den Intel Optane mit ihrer sehr geringen Latenz sieht man dies besonders deutlich, da kann man mal Werte von 200MB/s bei 4k lesend und mal sogar über 400MB/s für die gleiche SSD finden.
 
  • Gefällt mir
Reaktionen: joshy337
Holt schrieb:
Die Zugriffszeiten wie Benchmarks wie AS-SSD sie ermitteln, sind bei SSDs meist falsch, da dabei meist mit 512 Byte Zugriffen gearbeitet wird, aktuellere SSDs sind aber auf 4k Zugriffe optimiert und außerdem beachtet AS-SSD nicht, ob die Adressen die gebencht wird, auch gültige Daten enthält und wenn die keine gültigen Daten enthält, dann kann und muss der Controller auch nichts aus dem NAND auslesen, sondern gibt i.d.R. einfach nur Nullen zurück. Dies geht natürlich schneller als reale Daten aus dem NAND auszulesen und daher hängt bei AS-SSD die Zugriffszeit vom Füllstand der SSD ab und bei HDD Tools wie HD Tune dürfte es genauso sein. Die 4k bzw. bei CDM die 4k Q1T1 sind daher viel aussagekräftiger, aber die wenigsten Hersteller geben dies an und der Wert hängt auch sehr von System und dessen Energiespareinstellungen ab. bei den Intel Optane mit ihrer sehr geringen Latenz sieht man dies besonders deutlich, da kann man mal Werte von 200MB/s bei 4k lesend und mal sogar über 400MB/s für die gleiche SSD finden.
Da bin ich voll Deiner Meinung. :D Die 512e/4k native Geschichte wird zu wenig Beachtung geschenkt.
Windows kann seit Windows 8.x ja auch native 4k Transfers, was sehr gut zum Virtuellen Speicher und NTFS passt. Dadurch entstehen keine Flaschenhälse bzw. Fehlausrichtungen zwischen logischen/physischen Sektoren mehr.
Apropos Alignment. Da SSDs häufig als Ersatz für kleine/alte HDDs herangezogen werden, teils per IDE/SATA Konverter, wird oft vergessen, dass andere Dateisysteme wie z.B. FAT32 nicht gerade ideal für SSDs sind, da die Cluster mit unter an den "falschen" Positionen sitzen.
 
joshy337 schrieb:
dass andere Dateisysteme wie z.B. FAT32 nicht gerade ideal für SSDs sind, da die Cluster mit unter an den "falschen" Positionen sitzen.
Das bei FAT32 die Cluster nicht bei der Anfangsadresse der Partition plus der Nummer des Clusters mal der Clustergröße anfangen würde, höre ich zum ersten mal. Meines Wissens haben sowohl bei NTFS als auch bei FAT32 die Cluster das gleiche Alignment wie die Anfangsadresse der Partition.
 
Holt schrieb:
Das bei FAT32 die Cluster nicht bei der Anfangsadresse der Partition plus der Nummer des Clusters mal der Clustergröße anfangen würde, höre ich zum ersten mal. Meines Wissens haben sowohl bei NTFS als auch bei FAT32 die Cluster das gleiche Alignment wie die Anfangsadresse der Partition.
Verständlich, habe es ja anfangs selbst nicht gewusst.
Anbei ein Link zu dem Thema.
https://msfn.org/board/topic/151798-does-fat32-align-its-clusters/?tab=comments#comment-968582
 
joshy337 schrieb:
Wo steht da etwas zum Thema das das Alignment der einzelnen Cluster nicht stimmt, auch wenn das Alginment der Partition selbst korrekt ist? Der erste Cluster beginnt an der Startadresse der Partition und wenn die Cluster 4096 Byte groß sind, oder eben ein ganzzahliges Vielfaches davon, dann hat die Startadresse jede Clusters genau das gleiche Alignment der Startadresse der Partition und dies gilt für FAT32 wie auch für NTFS gleichermaßen. Ich dem verlinkten Kommentar aus 2011 sehe ich auch nichts, was das Gegenteil belegen oder nur behaupten würde.

Das Thema Alignment ist sowieso durch, nur mit XP war es ein Problem weil XP per Default die erste Partition auf eine falsch ausgerichtete Startadresse angelegt hat und auch generell keine Rücksicht auf das Alignment genommen hat, seit Vista ist dies anderes und selbst Win 7 ist inzwischen aus dem Support gefallen, damit sollte jeder hier hoffentlich nur noch mit einem Windows unterwegs sein, dessen Datenträgerverwaltung das korrekt Alignment beachtet und wer noch ein uraltes Windows hat, der muss eben selbst aufpassen, aber dann ist das Alignment auch längst nicht das einzige Problem.
 
Zurück
Oben