News IMW 2022: Kioxia experimentiert mit 7 Bit pro NAND-Speicherzelle

Ne ne ne QLC kommt mir nicht in den Rechner sollange es sich vermeiden lässt, TLC plus SLC Cache, das ist es was ich bevorzuge.

@Corpus Delicti hatte mit WD schon genug Ausfälle bei den HDDs, deswegen meide ich diesen.
 
  • Gefällt mir
Reaktionen: dersuperpro1337
Wirtschaftlich gesehen macht bereits TLC keinen Sinn (viel geringere Lebensdauer des NAND-Flash im Vergleich zu 2bit MLC und nur verlgeichsweise kleine Kostenreduktion bei gleichzeitig deutlich erhöhte Risiko von Verlust der Datenintegrität), zumindest wenn auf den Speicher häufig Daten geschrieben werden.
Und eine SSD kann eine HDD als Datengrab sowieso niemals ersetzen. NAND-Flash hat eine hohe Volatilität im Vergleich zu magnetischem Speicher. Ein Bitflip kann bereits nach wenigen Wochen Lagerung ohne Stromzufuhr auftreten und das Risiko erhöht sich je mehr Bits pro Speicherzelle geparkt werden.
Und finanziell gesehen wird selbst QLC Nand-Flash vermutlich niemals den Preis/Gigabyte von HDDs erreichen.
 
  • Gefällt mir
Reaktionen: GT200b
Fleischmann schrieb:
Wirtschaftlich gesehen macht bereits TLC keinen Sinn
Hm, komisch, dass im gesamten Consumer-Markt schon seit Jahren nahezu nichts anderes mehr verkauft wird als TLC, obwohl das wirtschaftlich so wenig Sinn macht. 🤔

Fleischmann schrieb:
Und eine SSD kann eine HDD als Datengrab sowieso niemals ersetzen.
Bei mir schon vor Jahren passiert. Ist nur eine Frage des Geldes. Allerdings verstehe ich unter "Datengrab" nicht die stromlose Lagerung, sondern einfach eine große Platte, auf der viele platzverschwenderische Daten wie Videos liegen und die nicht viel Schreibarbeit leisten muss.
Sämtliche HDDs im Rechner durch SSDs zu ersetzen ist besser als jedes CPU-Upgrade. Nur meine Meinung, aber ich würde mir nie wieder HDDs in den Rechner stecken. Und wenn ich wirklich so viel Speicher bräuchte, dass es mit SSDs nicht bezahlbar wäre, würden die HDDs ganz sicher nicht in den PC wandern, sondern in ein NAS.
 
  • Gefällt mir
Reaktionen: M4deman, Mardock, NJay und 6 andere
Corpus Delicti schrieb:
Schau doch mal was eine 16TB-SSD verbraucht (Controller + NAND). Da ist eine gleich-große HDD sparsam gegen.
Wer einen schlechten Vergleich macht, bekommt auch schlechte Daten.

Hier die richtige SSD für einen HDD-Vergleich: https://geizhals.de/mushkin-source-hc-16tb-mknssdhc16tb-a2580916.html?hloc=at&hloc=de

0,08W im Leerlauf - nenn mir eine HDD, die das schafft.

Fleischmann schrieb:
Wirtschaftlich gesehen macht bereits TLC keinen Sinn (viel geringere Lebensdauer des NAND-Flash im Vergleich zu 2bit MLC und nur verlgeichsweise kleine Kostenreduktion bei gleichzeitig deutlich erhöhte Risiko von Verlust der Datenintegrität), zumindest wenn auf den Speicher häufig Daten geschrieben werden.
Genau, deshalb gibt's im Enterprise Segment nur noch TLC und QLC. MLC existiert nicht mehr.
[/sarkasmus]

Fleischmann schrieb:
Und finanziell gesehen wird selbst QLC Nand-Flash vermutlich niemals den Preis/Gigabyte von HDDs erreichen.
Ist dir 'TCO' ein Begriff?

Im Enterprise Segment ist der Einzelpreis des Speichers egal - relevant ist der Systempreis, der am Ende rauskommt, inklusive Einrechnung der ersten X Jahre Betriebskosten.
 
  • Gefällt mir
Reaktionen: bensen und DefconDev
Rickmer schrieb:
Hier die richtige SSD für einen HDD-Vergleich: https://geizhals.de/mushkin-source-hc-16tb-mknssdhc16tb-a2580916.html?hloc=at&hloc=de

0,08W im Leerlauf - nenn mir eine HDD, die das schafft.

mindestens 10x teurer wie eine 16TB HDD

Wenn ich so viel Geld ausgebe, würde ich das Laufwerk auch nutzen wollen, statt mich dauerhaft über die niedrige Leerlauf-Leistungsaufnahme zu freuen. ;)

Davon mal ab: (Cold Storage, kein System-LW)

1655413139188.png
 
Da muss sich dann nur ein elektron verirren dass aus einer 15 eine 14 wird und eine 6GB große komprimierte Datei schrottet. Nein danke!
 
  • Gefällt mir
Reaktionen: dersuperpro1337
Wie allergisch manche Leute hier schon auf die bloße Forschung an Multi-Level-Falshzellen reagieren. :rolleyes:
Und @Quonux du tätest gut daran dich mal mit der Funktionsweise von DRAM auseinanerzusetzen. Vielleicht nimmt dir das ein wenig die Angst, wenn du siehst, was da so getrieben wird. ;)
 
  • Gefällt mir
Reaktionen: bensen
Salierfähig schrieb:
Aber die war wohl so gut, weil es eine Enterprise-SSD ist, denn Samsung und Co. haben das noch nicht einholen können. Höchste Zeit, dass die nächste QVO endlich das ausgleicht.
Die Intel Consumer QLC sind auch flott.
Momentan hat halt nur Intel/Micron gescheiten QLC NAND. Der von Samsung und Kioxia ist einfach Grotten lahm.
Soll sich ja mit der nächsten Generation ändern.
 
Warum bleiben die nicht einfach bei SLC? Oder maximal zwei Bit/Zelle? Durch die geringen Strukturbreiten bekommt man das doch mittlerweile auch kleiner. Und wenn man mehr Speicher braucht, kann man auch ruhig die "historischen" Formfaktoren von 2,5" oder 3,5" nutzen. Da passt viel ins Gehäuse.
Geheimtipp: man kann sogar eine fortschrittlichere Schnittstelle als SATA einbauen ;)
 
  • Gefällt mir
Reaktionen: dersuperpro1337
AGB-Leser schrieb:
kann man auch ruhig die "historischen" Formfaktoren von 2,5" oder 3,5" nutzen. Da passt viel ins Gehäuse.
Geheimtipp: man kann sogar eine fortschrittlichere Schnittstelle als SATA einbauen
Man bräuchte eigentlich nur U.2 bzw. U.3 Anschlüsse auch im Consumermarkt einführen, da die Schnittstelle neben Sata und SAS auch das NVMe Protokoll unterstützt. Dann wären schnelle 2,5'' oder 3,5'' SSDs kein Problem. Stattdessen hat man für NVMe im Consumermarkt nur M.2, wo dann auf die Platine der SSD nur eine vergleichsweise geringe Menge an Speicherchips passt.
 
  • Gefällt mir
Reaktionen: Salierfähig und dersuperpro1337
Das meine ich ja mit meiner Aussage. Es gibt ja schon Hauptplatinen mit U2. Versteckt sich in den SATA-Anschlüssen
 
Echt gut geschriebener Artikel. Vielen Dank 😊
 
  • Gefällt mir
Reaktionen: MichaG
Fleischmann schrieb:
Ein Bitflip kann bereits nach wenigen Wochen Lagerung ohne Stromzufuhr auftreten und das Risiko erhöht sich je mehr Bits pro Speicherzelle geparkt werden.
Und jetzt weißt du wieso SSD, wenn anständig produziert, bei den Blöcken viele zusätzliche Bits haben die nur für die Korrektur da sind. Und SLC war am Anfang auch nicht toll (2012). Da gingen nach paar Jahren meine beiden SSDs flötten. Meiner Meinung soll der Fokus jetzt bei der Verbesserung von TLC und QLC liegen, mit besseren Strukturen, anderen Materialen(Legierung) und so weiter. Und wer weiß, vielleicht kommt eine neue Speichertechnologie die wieder besser sind als SSD bevor PLC in 2026 eingeführt wird. TLC hat sich ja auch (gering) verbessert über die Jahre.
 
m4c1990 schrieb:
QLC ist schon für mich Elektroschrott und die Geschwindigkeiten teilweise unterirdisch (Ohne "Cache")
Mit 7 Bit sind wir back to IDE oder was? :D
IDE war doch schon super. Mit 7 Bit sind wir back to Datasette... ;)
 
  • Gefällt mir
Reaktionen: Mumbira und m4c1990
Beitrag schrieb:
Und @Quonux du tätest gut daran dich mal mit der Funktionsweise von DRAM auseinanerzusetzen. Vielleicht nimmt dir das ein wenig die Angst, wenn du siehst, was da so getrieben wird. ;)
Ein Unterschied ist dass der DRAM Controller aller paar 100ms Fehler mit ECC korrigiert.
Bei Flash geht das nicht wenn die Zellen ohne Strom für 5 Jahre rumliegen.

Und ja ich komprimiere gerne meine Daten.
 
Quonux schrieb:
Ein Unterschied ist dass der DRAM Controller aller paar 100ms Fehler mit ECC korrigiert.
Und bei DRAM wird der Inhalt der Zellen auch permanent aufgefrischt, selbst wenn sich der Inhalt an sich nicht ändert, eben damit ein definiertet Spannungslevel erhalten bleibt. Auch ändert sich der Inhalt der Speicherzellen (bspw. im RAM) ohnehin oft genug, so dass die Spannung gar noch großartig lange gehalten werden muss und nach einem Neustart sind die Daten sowieso weg.
 
m4c1990 schrieb:
QLC ist schon für mich Elektroschrott und die Geschwindigkeiten teilweise unterirdisch (Ohne "Cache")
Mit 7 Bit sind wir back to IDE oder was? :D
Deswegen gibt es für dich auch noch TLC und mit etwas Glück auch MLC. QLC wenn es auch günstig wäre in Vergleich zu TLC würde ja für einige Anwendungen auch vollkommen reichen. Aber bei QLC von Müll zu sprechen ist es dämlich.
Mit 7 Bit Sprechen wir von ATA 33 oder Floppy Speed beim Schreiben ;)
 
_anonymous0815_ schrieb:
Weil wir dann über Datenraten unter 100 MB/s sprechen?
Ich kann mir vorstellen dass man mit einem hybriden Ansatz aus TLC und PLC z.B. diesem Problem vorbeugen würde.
 
andr_gin schrieb:
Der aktuelle Trend ist, dass sich die benötigten Datenmengen alle 2-3 Jahre verdoppeln. Geht dieser so weiter, dann wird es bald echt knapp werden.
Wie kommst du darauf? Bei dir privat? Sehr repräsentativ....
Denk mal drüber nach, warum das so ist. Vielleicht weil Speicherplatz immer günstiger wird?
Wenn Speicherplatz knapp wird, speichert man halt nicht immer jeden Müll doppelt und dreifach.
Das ist wie bei Spielen. Spiele werden anspruchsvoller WEIL Grafikkarten leistungsfähiger werden.
 
Zurück
Oben