News 3D-NAND: Intel produziert erste QLC-SSDs mit PCIe fürs Data Center

andr_gin

Lt. Commander
Dabei seit
Jan. 2004
Beiträge
1.746
#2
QLC und dann gleich im Serverbereich damit starten? Da ist Intel echt mutig. Normalerweise klatscht man diesen Müll zuerst mal in billige OEM Geräte für Heimanwender wo es egal ist, wenn das Ding eingeht.
 

Atkatla

Lt. Commander
Dabei seit
Dez. 2007
Beiträge
1.456
#3
@andr_gin : Was ist wahrscheinlicher:
A) Intel hat echt keine Ahnung von den Technologien oder
B) QLC ist per se Müll?

Die Schreibraten werden niedriger sein, aber nicht jeder Server hat hohe Schreiblasten. Die Probleme von Samsungs Consumer TLC-SSDs lagen ja auch nicht am TLC selbst, sonst wären die anderen Modelle und Hersteller ja ebenfalls betroffen gewesen. TLC / QLC kann nicht so oft überschrieben werden, wie SLC oder MLC und sind etwas langsamer beim Schreiben. Das wars auch schon. Warum soll das jetzt deswegen Müll sein? Nicht jeder Server überschreibt seine Datenträger 10mal am Tag und Consumer PCs erst recht nicht.
 
Zuletzt bearbeitet:

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
47.031
#6
Eben und es wird auch noch übersehen, dass eben nicht alle Anwendungen die gleichen Anforderungen an die SSD stellen, gerade auch in Unternehmen. Da ist es nicht wirtschaftlich immer nach dem Motto "Viel hilft viel" zu handeln, sondern man kauft auch bei der Haltbarkeit nur so viel wie man braucht. statt Geld für unnötg viel Haltbarkeit auszugeben.
 

Beyazid

Lieutenant
Dabei seit
Dez. 2009
Beiträge
789
#8
Mal eine kurze Frage die sich mir so beim Lesen aufgetan hat:

Auf dem Twitterbild von Intel kann man das gute Stück ja sehen, auf der abgewandten Seite sind mehrere "Finnen". Sind die dafür gedacht, im passiven Betrieb in Servern gekühlt zu werden ergo wie bei den üblichen passiven Kühlkörpern? Außer dieser Möglichkeit und der puren Optik fiele mir nämlich sonst nichts ein
 

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
47.031
#9
Was heißt hier "Für mehr als", die allermeisten Anwendungen sind "Read Intensive", der Markt dafür ist also weitaus größer als die der "Write Intensive" SSD, bei denen Intel mit seinen Optane ja auch optimal aufgestellt ist und wo immer alle in den Kommentaren merken, die wären ja ein solches Nischenprodukt. Ist es ja auch, die meisten Anwendungen sind eben "Read Intensive" und da zählt der Preis pro GB mehr als die TBW/DWPD und genau deswegen passt das "Für mehr als" irgendwie so gar nicht.
 

andr_gin

Lt. Commander
Dabei seit
Jan. 2004
Beiträge
1.746
#10
@andr_ginDie Probleme von Samsungs Consumer TLC-SSDs lagen ja auch nicht am TLC selbst, sonst wären die anderen Modelle und Hersteller ja ebenfalls betroffen gewesen.
Da muss ich dir eindeutig widersprechen. Die Probleme von Samsungs erster TLC Serie beruhen auf einem Phänomen namens nand cell decay. Hierbei werden die Daten wenn sie länger nicht gewchrieben werden immer schlechter lesbar was. Je mehr Bits in einer Zelle gespeichert sind und je kleiner die Strukturgröße desto schlimmer ist der Effekt, der bereits nach einigen Wochen zu massiven Performanceeinbrüchen geführt hat. Dieser Effekt trifft grundsätzlich alle Hersteller und wird dadurch gelöst, dass die Daten von der Firmware regelmäßig neu geschrieben werden. Das nützt aber rein gar nichts wenn das System aber einmal eine Zeit offline ist. Derzeit ist unklar wie lange es dauert bis die Daten gar nicht mehr lesbar sind. Samsung hat in der ersten Firmware die Daten zu selten neu geschrieben weil sie das Phänomen anscheinend unterschätzt hatten. Mittlerweile wirken alle Hersteller dem Phänomen entgegen, indem sie mit 3D Speicher die Strukturgröße wieder deutlich erhöht haben aber dafür mehr Schichten verwenden.


Zu Intels QLC: Mag sein dass dieser perfekt läuft, aber es ist eine neue Technologie, die noch nicht ausreichend getestet ist und deshalb setzt man neue Technologien immer zuerst in Sparten ein, wo geringere Anforderungen an die Ausfallsraten gestellt werden. Wenn dann wie bei Samsung wirklich ein Serienfehler besteht und man 10-20% davon retour bekommt ist das bei 500 Euro Aldi Noteboots nicht dramatisch. Wenn das im Serverbereich passiert, kann man die Sparte begraben.
Weiters hat QLC nur einen Vorteil und das ist Kostenersparnis bei der Fertigung. Der Kunde hat hier keine Vorteile außer dem Preis.

Und ja selbst MLC ist minderwertiger als SLC. Deshalb wird im Industriebereich immer noch auf SLC statt MLC gesetzt. Business SSDs haben immer noch MLC statt TLC Speicher. QLC ist die nächstniedrigere Qualität.
 

LamaMitHut

Lt. Junior Grade
Dabei seit
Nov. 2013
Beiträge
352
#11
MLC ist Minderwertiger? Jetzt geht es echt in den esotherischen bereich, der komplett an der Praxis vorbei geht. Google mal den begriff "Datendichte", und informier dich ein wenig - der niedrigere Preis ist nämlich nicht der einzige Voteil von QLC gegenüber SLC oder xpoint.

Technik sollte man immer als Gesamtes betrachten. Nur weil ein Flugzeug nicht tauchen kann, ist es nicht gleich minderwertiger als ein Uboot.
 

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
47.031
#13
Derzeit ist unklar wie lange es dauert bis die Daten gar nicht mehr lesbar sind.
Die JEDEC hat in der JESD 218 für Consumer (Client) SSDs u.a. verlangt, dass die Daten 12 Monate bei 30°C Lagertemperatur erhalten bleiben (für Enterprise SSDs 3 Monate bei 40°C) und trotzdem bestimmte Fehlerraten nicht überschritten werden und zwar bis zum Erreichen der TBW (was damals eher mit den spezifizierten P/E Zyklen gleichzusetzen war, denn die Hersteller haben erst später angefangen die TBW von Consumer SSDs künstlich knapp anzugeben um Enterpriseuser von der Garantie auf Consumer SSD auszuschließen). Die Geschwindigkeit wird so gering, weil die Controller dann die viel aufwendigere LDPC (Low Density Parity Check) ECC anwenden müssen, aber dies bedeutet noch längst nicht das die Daten dann unlesbar wären. Micron hat für die 32 Layer 3D TLC NANDs 500 P/E Zyklen ohne LDPC und 1500 mit LDPC genannt, die LDPC ist also schon sehr mächtig.
Mittlerweile wirken alle Hersteller dem Phänomen entgegen, indem sie mit 3D Speicher die Strukturgröße wieder deutlich erhöht haben aber dafür mehr Schichten verwenden.
Vor allem haben sie es durch eine Anpassung der Refresh Zyklen der NAND gelöst, Phison bewirbt die meisten seiner Controller sogar extra mit dem "SmartRefresh™" Feature. So ein Refresh war immer schon nötig, aber bei TLC NANDs ist es noch wichtiger um eben möglichst nicht in die Verlegenheit zu kommen die LDPC nutzen zu müssen, da die dann erfolgende Reduzierung der Leseraten bei den Samsung 840 und 840 Evo dann also Bug angesehen wurde, was es aber technisch gar nicht ist. Natürlich helfen auch größere Zellen und vor allen Zellabstände die Häufigkeit der nötigen Refreshs zu verringern.
So neu ist QLC nicht, schon vor über 10 Jahren war dies ein Thema: QLC ist also schon ein alter Hut und schon seit 2007 geplant, mit TLC als Zwischenschritt: Eben wegen der ständig sinkenden Größe und Abstände der Zellen wurde es dann erstmal nicht weiter verfolgt, aber mit dem 3D NAND, welches auch damals schon fest eingeplant war, ist dies nun eben realisierbar geworden: Wie man sieht verzögert sich nicht nur bei CPUs oder HDDs die Entwicklung und außerdem kann man gut sehen, wie lange die Entwicklungszeiten für solche Technologien wie die 3D NANDs oder QLC letztlich sind.
deshalb setzt man neue Technologien immer zuerst in Sparten ein, wo geringere Anforderungen an die Ausfallsraten gestellt werden.
Hast Du nocht mal die Überschrift gelesen? Da steht doch: Intel produziert erste QLC-SSDs mit PCIe fürs Data Center
ist das bei 500 Euro Aldi Noteboots nicht dramatisch.
Da wird ganz sicher keine Data Center SSD drin sein und außerdem ist es gerade OEM Produkten besonders teuer wenn eine Komponente noch während der Garantiezeit ausfällt, denn während man eine einzeln gekaufte SSD dann selbst ausbauen, die Ersatz SSD dann auch selbst einbauen und den Rechner selbst wieder zum Laufen bringen (also meist Windows und die Treiber neu installieren) muss, schickt eines Notebooks diese einfach komplett ein und der Hersteller muss dies alles machen, denn der Kunde erwartet ein funktionierendes Geräte zurück zu bekommen. Weshalb meist Du wohl das die OEMs besonders auf die Zuverlässigkeit der Komponenten achten?
Gerade der Preis ist doch für die allermeisten Kunden das Argument schlchthin, gerade auch bei Enterprisekunden. Die wissen nämlich meist sehr genau was sie brauchen und wählen dann zwischen allen Komponenten die ihre Anforderungen erfüllen die günstigste, schon weil sie eben meist auch große Mengen davon benötigen.
Von minderwertig würde ich nicht reden, denn hoch- oder minderwertig bedeut bei NAND besser oder schlechter gelungen und daher mit oder weniger haltbar als die anderen Dies auf dem Wafer oder den anderen Wafern auf denen ebenfalls genau die gleichen Dies entstehen. So wie es bei CPUs die besser gelungenen gibt die taktfreudiger sind als solche bei denen der Fertigungsprozess nicht optimal verlief. Zwischen verschiedenen Modellen zu vergleichen, würde dann aber auch bedeuten z.B. einen nativen 6 Kerner wie den 8700K als minderwertiger wie etwa einen 18 Kerner wie den 7980X zu bezeichnen, selbst wenn der 8700K extrem taktfreudig ist und der 7980X sich als längst so nicht gut übertakt wie andere 7980X erweist.

Im übrigen fehlt mir bis heute der Beleg für die angeblichen 100.000 P/E Zylen die man SLC noch nachsagte, also für MLC nur 10.000 genannt wurden. Schau Dir doch mal an, wie die MTRON und die Intel X25-E im Dauerschreibtest auf xtremesystems.org abgeschnitten haben. Die MTRON waren auch schnell und unter komischen Umständen kaputt und die SLC NANDs der X25-E waren nicht besser als die MLC NANDs der X25-V.

Bei der Intel X25-E 64GB hat sich jedenfalls nach 579.46 TiB der Available Reserved space von 100 auf 99 verringert, obwohl es angeblich keine Reallocations gab, S.M.A.R.T. Attribute sagen eben nicht immer die Wahrheit, nach 625.97 TiB sind dann die ersten beiden Reallocated sectors aufgetaucht, da waren gerade erst 5% der Spezifizierten Zyklen verbraucht. Bei 665.36 TiB waren es 7 Reallocated sectors, bei 702.41 TiB schon 27 und der Wert ist munter weiter gestiegen.

Im Vergleich dazu hat sich bei der Intel X25-M G1 80GB nach 431,9031 TiB die Anzahl der Reallocated sectors von 02 auf 04 erhöht (den Post 0 auf 2 habe ich nicht gefunden) und da war der MWI auf 82, es waren also nur 18% der Spezifizierten P/E Zyklen verbraucht. Bei 439,2336 TiB waren es 5 (MWI 80), bei 443 TiB 7 (MWI 79) und Ende war sie nach 883.46 TiB, da war der Zähler der Reallocated sectors schon mehrfach übergelaufen (ist der Aktuelle Wert, nicht der Rohwert) und auch der MWI war schon unter 0 und wieder bis 235 runter. Der Available Reserved space war auf 16 gefallen.

Beiden haben den gleichen Controller, beiden haben 80GiB NAND verbaut und auch wenn die Meldung über das Ableben der X25-E fehlt, so war bei der letzten Meldung nach 1.58 PiB der Available Reserved space von 25 (bei 1.49 PiB) auf 14 gefallen, die SSD also sehr nahe am Ende und hatte nicht einmal doppelt so viele Daten geschrieben, obwohl die X25-E neben SLC auch noch den Vorteil von viel mehr Overprosivioning hat, was das Wear Leveling erleichtert und die Write Amplification reduziert.

Vergleicht man das noch mit der Crucial m4 64GB, die genau darüber auch nahe dem Ende ist aber noch lebt und 2110.8663 TiB (=2.06PiB) geschrieben und 36477 P/E Zyklen überstanden hat, obwohl sie 20% weniger NAND und auch nur das MLC in 25nm statt in 50nm wie die beiden Intel hat, so zeigt das doch deutlich, dass SLC nicht so eine mythische Haltbarkeit hat und die Fortschritte der Controller sowie der NAND Fertigung die prinzipiellen Nachteile von mehr Bits pro Zelle und kleineren Fertigungsstrukturen durchaus mehr als ausgleichen können.
Business SSDs haben immer noch MLC statt TLC Speicher.
Was meinst Du mit Business SSDs genau? Es gibt gerade bei der Business Hardware ein viel breiteres Spektrum als bei Consumer HW, aber man unterscheidet SSDs nur zwischen Client und Enterprise SSDs, eine Kategorie die sich "Business SSDs" nennt, ist mir zumindest nicht bekannt und auch von der JEDEC nicht spezifiziert. Auch google liefert mit darauf als erste Anwort: "Here's Why Enterprise SSD Is An Important Business For Micron...."
 

Robo32

Fleet Admiral
Dabei seit
Sep. 2006
Beiträge
15.945
#14
@Nebula123
Nicht unbedingt, es wird sicher wieder ein Teil als SLC arbeiten um die Schreibzugriffe abzufangen.
Was die Datenintegrität angeht wird es sicher schlechter werden, nur um wie viel ist die Frage und vor allem wird sich das weniger im Betrieb bemerkbar machen (Data Center ist selten aus).
 
Zuletzt bearbeitet:

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
47.031
#15
Mixed Use ist die Nutzung ja eigentlich immer, schon wegen der von Zeit zu Zeit nötigen Refreshs der NAND Inhalte, die auch beim häufigen Auslesen öfter erfolgen muss, wird das NAND einer SSD immer wieder beschrieben, selbst wenn man sie Read Only mountet. Dies ist aber sicher nicht der Normalfall und die Frage ist wie hoch jeweils der Lese- und der Schreibanteil sind und dementsprechend muss der Anwender eben entscheiden ob diese oder jene Haltbarkeit dann für die geplante Nutzung ausreicht oder eben nicht. Die Enterprise User wissen dies auch meist sehr gut, die verwenden auch die entsprechenden Analyse- und Monitoring Tools, die kennen ihre Anwendungen, wissen wie deren Anforderungen an die HW sind, wie sich diese in der Vergangenheit entwickelt haben und können daher auch recht gut abschätzen wie diese sich in während der geplanten Nutzungsdauer entwickeln dürften.

Wer ein ganz neues System anschafft oder eine neue Anwendung hin bekommt, der kann dann zumindest auf die Erfahrungen anderer Nutzer oder externer Consultants zurückgreifen um eine vernünftige Abschätzung zu machen, denn wer nur das Beste, also die haltbarsten SSDs kauft, der gibt nur unnötig viel Geld aus und dies kann sich auf Dauer kaum ein Unternehmen leisten und kaum ein Entscheider in einem Unternehmen kann auf Dauer weit über dem Budget bleiben welches Kollegen mit ähnlichen Aufgaben haben.
Ergänzung ()

Was die Datenintegrität angeht wird es sicher schlechter werden, nur um wie viel ist die Frage und vor allem wird sich das weniger im Betrieb bemerkbar machen (Data Center ist selten aus).
Außerdem haben alle vernünftigen Enterprise SSDs die wirklich im Data Center landen, auch immer ein Full Power Loss Protection die im Gegensatz zu den kleinen Client Lösungen wie sie Crucial von der M500 bis zur MX300 in allen seinen SSDs mit Marvell Controller verbaut hat, auch alle Userdaten im Schreibcache im Falle eine Spannungsabfalls sicher schützt. Bzgl. der Datenintegrität wird Intel mit Sicherheit auch für diese SSD die von der JESD218 geforderten 1:10^17 angeben und auch locker einhalten können.
 

Atkatla

Lt. Commander
Dabei seit
Dez. 2007
Beiträge
1.456
#16
Da muss ich dir eindeutig widersprechen. Die Probleme von Samsungs erster TLC Serie beruhen auf einem Phänomen namens nand cell decay. Hierbei werden die Daten wenn sie länger nicht gewchrieben werden immer schlechter lesbar was. Je mehr Bits in einer Zelle gespeichert sind und je kleiner die Strukturgröße desto schlimmer ist der Effekt, der bereits nach einigen Wochen zu massiven Performanceeinbrüchen geführt hat. Dieser Effekt trifft grundsätzlich alle Hersteller und wird dadurch gelöst, dass die Daten von der Firmware regelmäßig neu geschrieben werden.
Das ist ein normaler und kein problematischer Prozess. Du hast die eingentliche Natur des Bugs nicht verstanden: das was du Cell Decay nennt ist ja nichts anders, als dass sich die Zellladung über die Zeit durch electron leakage ändert oder durch Interferenz von den Nachbarzellen beeinflusst wird. Das bedeutet auch, dass der korrekte read point (das benötigte Spannungslevel zum Lesen der gewünschten Information) sich in Abhängigkeit dieser Faktoren ändert. Da bei TLC die einzelnen Spannungsfenster kleiner sind als bei MLC (bei TLC muss man schließlich in einer Zelle zwischen 8 verschiedenen Ladungsleveln / read points unterscheiden) , muss man bei der Ansteuerung dementsprechend genauer sein. Der Lesealgorithmus bei Samsung hatte aber nun einen Bug, der das korrekte read point-Fenster nicht mehr traf, wenn die Zellen länger nicht mehr beschrieben wurden und der read point sich immer weiter verschoben hatte. Dadurch waren deutlich mehr read-retries notwendig, wodurch die Leserate einbrach. Daher trat das Problem in dieser Form bei anderen Herstellern nicht auf. Auffrischen ist eine generelle Methode, aber bei Samsung gab es eben noch ein zusätzliches, tieferliegenderes Problem.

Wären wie von dir beschrieben einfach nur die Ladungen verloren gegangen, wären die Daten weggewesen. Da hilft dann auch kein Auffrischen mehr.

Ja, je kleiner die Strukturgröße, desto mehr muss man sich mit dem Elektronenverlust beschäftigen. Aber, durch 3D-NAND sind die Zellen erstmal wieder größer geworden, denn man konnte vertikal skalieren. In dem 32-lagigen 3D NAND von Intel/Micron konnten pro Zelle über 10mal mehr Ladungen gespeichert werden als bei einem 16nm planarem NAND.
 
Zuletzt bearbeitet:

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
47.031
#17
Der Lesealgorithmus bei Samsung hatte aber nun einen Bug, der das korrekte read point-Fenster nicht mehr traf, wenn die Zellen länger nicht mehr beschrieben wurden und der read point sich immer weiter verschoben hatte. Dadurch waren deutlich mehr read-retries notwendig, wodurch die Leserate einbrach.
Das ist kein Bug, sondern was Du beschreibst ist das LDPC soft decoding und dies muss man einsetzen wenn der hard-LDPC decoder immer noch zu viele Bitfehler liefert und damit wird dann eben mehrfach mit unterschiedlichen Thresholds (oder eben Read Points) gelesen, was länger dauert und daher zu einer geringen Leseperformance führt. Sicher konnten die SSD Herstelle mit der Erfahrung optimieren mit welchem Threshold man es anfänglich probieren sollte, die 840 und 840 Evo waren die ersten SSDs mit TLC auf dem Markt und damals hatte kein Wettbewerber überhaupt SSDs mit TLC NAND im Programm.

Es kann aber immer passieren und dürfte bei einigen SSDs mit der Alterung der NANDs auch durchaus noch passieren, dass die Leseraten schlecht sind, eben weil LDPC soft decoding angewendet werden muss, etwa nachdem die SSD länger stromlos war. Wer sowas aber als Bug bezeichnet, hat von LDPC einfach keine Ahnung.
 

Atkatla

Lt. Commander
Dabei seit
Dez. 2007
Beiträge
1.456
#18
Das ist kein Bug, sondern was Du beschreibst ist das LDPC soft decoding und dies muss man einsetzen wenn der hard-LDPC decoder immer noch zu viele Bitfehler liefert und damit wird dann eben mehrfach mit unterschiedlichen Thresholds (oder eben Read Points) gelesen, was länger dauert und daher zu einer geringen Leseperformance führt.
Schon richtig. Aber die Vorgehensweise des Soft-Decoders (SLDPC) kannst du als Hersteller ja beeinflussen. SLDPC ist ja nichts, was du einmal ausführst und dann hast du ein Ergebnis, sondern es kann ein mehrstufiger Prozess sein. Die unterschiedlichen Thresholds sind ja unterschiedlich wahrscheinlich und du fährst zu erst diejenigen an, die du als am wahrscheinlichsten ansiehst. Wenn du da einen Fehler machst, lässt du den Decoder anfangs an den falschen Schwellwerten suchen, bis er irgendwann mal den richtigen trifft.

Wer sowas aber als Bug bezeichnet, hat von LDPC einfach keine Ahnung.
Keiner hat hier behauptet, dass das Verwenden von SLDPC selbst der Bug war. Aber bei einer nicht optimalen Anwendung von SLDPC werden unnötig viele soft-Anläufe pro letztlich erfolgreichem Lesevorgang notwendig.

HLDPC und SDLPC wird letztlich in allen Produkten eingesetzt, ohne dass es zu vergleichbarem schlechtem Verhalten kommt. Wenn es an den "üblichen" Faktoren gelegen hätte, wäre es für Samsung einfacher gewesen, das Problem einzunorden und sie hätten relativ schnell ein Firmware raushauen können, die einfach nur refresht. Um genau zu sein, taten sie das im Oktober 2014 auch, aber weil es eben nur ein Teil des Problems war, half es nicht. Zum Jahreswechsel wurde ersichtlich, dass die Probleme immer noch bestanden und erst im April 2015 kam der finale Fix für die 840 Evo raus. Für die 840 Basic dauerte es bis Juli 2016(!). Da die meisten IT-Presseberichte bei diesem Bug sich auf "Zelle verliert Ladung und es muss aufgefrischt werden" beschränkten (weil Samsung zu der Zeit auch nicht viel mehr verlautbaren ließ), setzte sich diese Sichtweise eben fest.

Aber so oder so denke ich, wir sind uns einig, dass die Ansteuerung einer Zelle im TLC oder QLC-Modus zuverlässig funktionieren kann, wenn die beteiligten Komponenten und Umstände ordentlich umgesetzt wurden (genug Ladungen in der Zelle um die Niveaus unterscheidbar zu machen und eine ordentlich funktionierende Fehlerkorrektur).
 
Zuletzt bearbeitet:

Robo32

Fleet Admiral
Dabei seit
Sep. 2006
Beiträge
15.945
#19
Auch wenn das alles korrekt ist, für den Anwender ist es schon ein Bug wenn SLDPC überhaupt anspringen muss da das immer in verminderter Leistung resultiert... - mit QLC-SSDs wird es in jedem Fall auch mit SLDPC schwieriger werden die Daten noch auszulesen, daher wird es noch wichtiger werden dass es möglichst nicht dazu kommt.
Wie erfolgreich das den Herstellern gelingt wird die Zukunft zeigen wobei ich persönlich nicht unbedingt auf die Gen1 setzen würde.
 

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
47.031
#20
die Vorgehensweise des Soft-Decoders (SLDPC) kannst du als Hersteller ja beeinflussen. SLDPC ist ja nichts, was du einmal ausführst und dann hast du ein Ergebnis, sondern es kann ein mehrstufiger Prozess sein. Die unterschiedlichen Thresholds sind ja unterschiedlich wahrscheinlich und du fährst zu erst diejenigen an, die du als am wahrscheinlichsten ansiehst.
SLDPC ist immer ein mehrstufiger Prozess bei dem eben mit unterschiedlichen Thresholds ausgelesen wird um die optimale Thresholds zu finden, daher dauert es eben auch so lange und dies macht man eben auch nur, wenn es nötig ist weil das Auslesen mit den erwarteten Thresholds eben nicht funktioniert hat, es also zu viele Bitfehler gab.
Keiner hat hier behauptet, dass das Verwenden von SLDPC selbst der Bug war.
In diesem Thread nicht, aber anderen Orts war dies oft der Fall.
Aber bei einer nicht optimalen Anwendung von SLDPC werden unnötig viele soft-Anläufe pro letztlich erfolgreichem Lesevorgang notwendig.
Sicherlich, aber wer kann sagen welches die optimale Anwendung ist? Wenn man den Schritte zu groß macht, verpasst man ggf. den optimalen Threshold und macht man sie zu klein, dauert es eben länger. Man sollte aber auch nicht vergessen, dass die 840 damals rund vor der ersten SSD mit TLC der Konkurrenz erscheinen ist, der Ultra II deren Marvell 88SS9187 Controller noch nicht einmal LDPC unterstützt, sondern die haben damals eben massiv OP betrieben.
HLDPC und SDLPC wird letztlich in allen Produkten eingesetzt, ohne dass es zu vergleichbarem schlechtem Verhalten kommt.
Eben nicht, der Controller der in der Ultra II steckt, unterstützt eben kein LDPC und es gab meine ich am Anfang auch noch mehr TLC SSDs bei denen dies der Fall war.
Erstens gibt es 840 keine Basic, dies ist eine Aussattungsvariante, nämlich im Gegensatz zu den Kits eben die SSD ohne Zubehör, die 840 heißt nur 840 ohne Namenszusatz und zweitens sollte man nicht vergessen, dass es bei der 840 mit ihren 21nm NANDs auch viel länger gedauert hat als bei ihrer Nachfolgerin 840 Evo mit den 19nm TLC NANDs, bis das Problem überhaupt auftrat. Damit ist es doch wohl auch nicht verwunderlich, dass alleine die Evaluierung des Bugfixes entsprechend länger gedauert hat.
 
Top