News Intel/Micron: Nachfolger von MLC- und SLC-Chips

Ich wollte mir nie eine SSD mit MLC kaufen, und nun habe ich schon 2 davon.

Wenn TLC SSD-Preise halbiert, wird der hardwaresüchtige Konsument mit wenig Geld in der Tasche schon danach greifen und die Nachteile in Kauf nehmen.

Die Blöduser kaufen ja auch alle Notebooks mit Spiegeldisplay.
 
Wenn TLC SSD-Preise halbiert, wird der hardwaresüchtige Konsument mit wenig Geld in der Tasche schon danach greifen und die Nachteile in Kauf nehmen.
Wer sagt dir denn, dass die TLC-SSD's so schlecht sind?
Das wurde von den MLC's auch gesagt und nun hat jeder solch eine, da unter normalen Umständen keiner an deren Lebensgrenze rankommen wird und schnell genug sind sie auch.
Warum nicht von den TLC's überraschen lassen?

Die Blöduser kaufen ja auch alle Notebooks mit Spiegeldisplay.
Genau und eben diese "Blöduser" können genau einschätzen, ob sie damit klar kommen und ihnen das genügt.

Blöd finde ich die Leute, die über andere urteilen, nur weil die sich keine 1k€ Notebooks leisten können.
OMG denk doch mal nach was du schreibst.
 
Koplsc schrieb:
Wer sagt dir denn, dass die TLC-SSD's so schlecht sind?
Das wurde von den MLC's auch gesagt und nun hat jeder solch eine, da unter normalen Umständen keiner an deren Lebensgrenze rankommen wird und schnell genug sind

Ich glaube eher das es sich um eine reine Preissache handelt, das man sich für MLC-SSDs entscheidet und nicht für SLCs. ;)
 
"Die Blöduser kaufen ja auch alle Notebooks mit Spiegeldisplay. " BlaueBlutBlase, hat hast Du voll recht, ich sehe auch keinen Vorteil in diesen blöden Spiegeldisplays sondern nur Nachteile mit denen man mehr oder weniger leben kann, sofern man sein Notebook als Deshtopersatz verwendet.

Ansonsten habe ich selten so einen Blödsinn gelesen wie den hier:
jedoch müssen beim überschreiben einer MLC 2 Bits geändert werden, selbst wenn es eigentlich nur nötig ist 1 Bit zu ändern, deshalb dauert das Schreiben bei einer MLC SSD meist doppelt oder dreimal so lange wie bei einer SLC SSD. Außerdem ist deswegen auch die Haltbarkeit von MLC geringer als die von SLC.
jared hat ja schon halbwegs dargestellt, wie sich das wirklich verhält. Da werden nicht irgendwo drei Zellen im Gate einzeln gesetzt, da müssen 8 Ladungszustände unterschieden werden, 4 bei MLC (bzw DLC, also 2bit Zelllen) und eben nur 2 bei SLC. Man "zählt" also die Elektronen im Gate und entschiedet dann, welcher der möglichen Zustände vorhanden ist.
Stelllt euch eine Reihe von Pötten vor in denen Reiskörner die Elektronen darstellen und die jeweile auf einem drehbaren Brett genagelt sind. Dreht man sie also alle miteinander um, so löscht man die Daten der Reihe, flasht also die Zellen. Viele Reihen hintereinander ergeben eueren Speicherbaustein. Bei SLC ist es jetzt einfach, ob 1 oder 0 entscheidet halt, ob ein Pott Reis enthält. Wollt ihr den Zustand des Pottes also ändern, greift in den Reissack und packt Reis rein. Geht schnell und man sieht auch deutlich, ob der Pott leer oder Reis drinnne ist.
Bei MLC wird es schon schwerer, da muß man jetzt eine bestimmt Menge definieren, an der man die Zwischenzustände zwischen leer und ganz voll festmacht. Um 4 Zustände zu definieren kann ich also sagen: leer, ein Drittel gefüllt, zwei drittel gefüllt. voll. Stellt euch jetzt vor, Ihr wollt diesen Pott mit einem bestimmten Wert beschreiben, so ist klar, daß das schon viel länger dauert als vorher, denn jetzt muß die Menge Reis auch noch stimmen, die dort hinein kommt.
Zur Haltbrarkeit ist es nun so, daß die Gate im NAND irgendwann eben auch nicht 100%ig von Elektronen geleert werden können, da bleiben einfach mal ein paar zurück, die nicht mehr abfliessen. So wie Reiskörner, die mit der Zeit am Pott kleben bleiben. Bei SLC kann ich jetzt sagen, wenn da etwas Reis am Rand klebt, ist der für mich immer noch leer. Bei MLC wird das aber schwere, da der anhaftende Reis, welcher beim letzten Umdrehen (Flashen) drinne geblieben ist, die bestimmung der Menge nacher natürlich erschwert. Wenn ich nun ein Drittel eingefüllt habe, der Pott durch die Anhafung aber halb voll ist. Welcher Zustand ist das dann?
Normalerweise wäre das jetzt der Moment, wo ein Reservepott herhalten muß.
Hoffentlich ist damit auch klar geworden, daß die Größe des Pottes (Strukturbreite des Chips) natürlich eine Rolle spielt (größer ist besser), aber eben auch die interne Steuerung des NAND, also die Geschwindigkeit der Auswertung (auszählen der Reisinnhalts) und natürlich die Fähigkeit bei Befüllen die genau Menge möglichst schnell zu bestimmen und die verbliebenen Elektronen (anhaftende Reiskörner) zu kompensieren.

Hoffentlich ist jetzt klar, daß MLC nicht zweimal pro Zelle beschrieben werden und SLC nur einmal und SLC dadurch 10 mal so viele Flashzyklen überstehen. Außerdem sollte klar werden, daß die Präzision, mit der der NAND Baustein selbst diese Vorgänge durchführt natürlich einen großen Einfluss hat. Man hat die Zyklen von MLC heute schon kräftig steigern können und deshalb ist man ja auch erst in der Lage überhaupt 8 statt 4 Zustände unterscheiden zu können.
 
Oh je Reiskörner.
Haltbarkeit: MLC muss mehr Elektronen halten können. Die Oxidgates (googln) werden bei mehr Elektronen auch deutlich mehr beansprucht. Mehr nicht. Das Geheimnis des Nand liegt in den Oxidgates begraben. Insbesondere der Schreibvorgang läßt die Oxidgates altern.
MLC ist also doppelt gefährdet: Mehr Ladung und in Relation zur Speicherkapazität gegenüber SLC häufigerer Schreibvorgang, da sich die Daten auf weniger Speicherzellen verteilen.
Wer sich mit der Materie beschäftigt, der weiß, dass nicht nur Controllerfehler den MLCs den Tod gebracht haben. Es gibt genügend Fälle, in dem die SSD kaputtgeschrieben wurde.
Einzig die besseren Wear Leveling Algorhythmen verhindern heute Schlimmeres.
MLCs altern auch deutlich schneller bei Nichtbenutzung. Vorausssichtlicher Datenverlust neuerer Schätzungen bei rund 10 Jahren.

Die Schreibgeschwindigkeit ist in der Theorie sogar höher bei MLC und TLC.
Mehr Daten pro Schreibzyklus, indirekte Komprimierung; sequentielle Schreibvorgänge sollten deutlich profitieren.
Einzig der Controller und die ECC Funktionen mitsamt dem Wear Leveling bremsen hier aus.
Der Vorgang des Schreibens ansich ist demnach identisch.
Die Schreibgeschwindigkeit ist aber indirekt davon abhängig, wieviel Blöcke bei einem Erasevorgang (der durchaus seine Zeit dauert, z.T. im Sekundenbereich) zum Zeitpunkt des eigentlichen Schreibens eben gelöscht werden müssen.
Leider kann eine SSD nur gesamte Blöcke löschen, dass sind oft mehrere Megabyte bei einigen SSDs sogar an die 500 MB. Dieser Faktor potenziert sich bei TLC nochmals deutlich. Hat man also wenig freie Blöcke, müssen selbst für kleinste Datenmengen, Erasevorgänge gestartet werden.
Nicht das Schreiben dauert, sondern das Löschen. Bei TLC wird man hier auf noch mehr Probleme stossen, den Löschvorgang vom eigentlichen Schreibvorgang zu trennen wiederum gesehen auf die Relation zur Speicherkapazität. Der Controller ist auch mehr belastet mit Wearleveling und Co. Dies kann, muss aber nicht zu Performanceeinbußen führen.

Hoffentlich seht ihr nun endlich ein, dass TLC nicht besser werden kann und hört auf mit dem Geschwätz "ich kenne keinen, dessen SSD kaputtgeschrieben wurde".
Befasst euch mit den physikalischen Tatsachen. Nur da die Controller mit zig mathematischen Finessen und Fehlerkorrekturen, gewisse Faktoren minimieren, kann man dies nicht ins unendliche Treiben. Man kann der Physik kein Schnippchen schlagen.

Bevor der Einwand kommt, man könne doch bessere Oxidgates entwickeln. Daran arbeitet man, aber die Erfolge sind doch recht bescheiden. Angaben in diversen Fachpublikationen sind auch recht übertrieben (gewesen). Man weiß nie, was kommt, aber meine Meinung ist, die NANDs sind wissenschaftlich so gut wie ausgeluscht.

p.s. die Geschichte, die Holt beschrieben hat, mit dem Inhalt, welcher Zustand hat eine Zelle, ist zwar ein tatsächliches Problem, aber nur ein Problem der Oxidgates. Sollten sich drei Elektronen in einer Zelle befinden, dann hat man 3 eV, Punktumtum. Sollte ein Elektron aus dem Zelle entkommen, ist es sehr wahrscheinlich , dass das Gate und damit die Speicherzelle hin ist. Das kommt bei TLC häufiger vor. D.H. ECC kommt somit auch häufiger zum Tragen. Für heutige Sensoren ist es aber kein Problem, 3 eV von 2 eV zu Unterscheiden. Der Lesevorgang wird dadurch nur unwesentlich gebremst und durch die erhöhte Datendichte (mehr Bits pro Zelle) z.T. mehr als nur kompensiert. Der Vorgang beim Schreiben wird demnach auch nur unwesentlich gebremst, solange keine defekten Zellen vorhanden sind. Bei defekten Zellen müssen gesamte Blöcke neu geschrieben werden. Auch hier gilt wieder, dass Szenario kommt bei MLC und TLC häufiger vor.
 
Zuletzt bearbeitet:
Hoffentlich seht ihr nun endlich ein, dass TLC nicht besser werden kann und hört auf mit dem Geschwätz "ich kenne keinen, dessen SSD kaputtgeschrieben wurde".
Wo gibt es denn da einen Zusammenhang?
ScoutX arbeitest du bei Intel oder Micron oder woher willst du wissen, dass TLC so schlecht werden wird?
Das kann niemand sagen und ob ich Personen kenne, deren SSD's kaputtgeschrieben wurde, kannst sicher auch nicht du beurteilen, ich kenne KEINEN!!!

Mal sehen was da auf uns zu kommt.
 
Wenn man die physikalischen Hintergründe betrachtet (wie es ScoutX gemacht hat) sieht man dass MLC (und TLC umso mehr) fehleranfälliger sind wie SLC.
D.h. nicht dass MLC und TLC unbrauchbar sind, sondern nur dass sie fehleranfälliger sind.
Ob sie gut genug für eine SSD sind, ist dann eine andere Frage.
 
@ScoutX

Ich hoffe mal ich lehne mich nicht zu weiter aus dem Fenster, ABER:
Das Löschen dauert überhaupt nicht lange. Das Problem, das du ansprichst, ist das altbekannte Problem mit dem Read-Erase-Write-Zyklus. Nicht zum löschen geflaggte Pages aus einem Block in den Cache lesen (Dauer: Mittel), den gesamten Block löschen (Dauer: sehr schnell), gecachte Pages + neue Pages schreiben (Dauer: sehr lang).
Beim schreiben müssen die einzelnen Pages/Zellen ja einzeln mit der entsprechenden Spannung versorgt werden, beim Erasen reicht es eine gewisse Spannung über den ganzen Block zu legen und fertig.
Und welche SSD hat bitte 500MB-Blöcke? Die sind im dreistelligen kB, maximal unteren MB-Bereich - zumindest bei Consumer SSDs.


Und auch hier mag ich etwas überlesen haben, aber keine behauptet hier, dass TLC besser wird. Die Frage ist, ob es gut genug ist. Genauso wie die Frage vor 2 Jahren bei MLC gestellt wurde. Und stellt euch vor: die MLC-Chips wurden von der Haltbarkeit her schlechter, nicht besser. Und trotzdem wurden sie zuerst verteufelt und nun in Massen verwendet.

Ich wiederhole mich: keiner behauptet TLC sei besser, oder MLC sei besser als SLC. Du magst auch recht haben, dass MLC-SSDs durchaus totgeschrieben werden können - aber nicht von einem CONSUMER, um den es bei MLC, und erst Recht bei TLC geht.


Davon abgesehen ist MLC nicht gleich MLC. IMFT hat z.B. längst MLC vorgestellt, welcher mit über 40'000 Erasecycles spezifiziert wird. Deshalb ist es auch etwas sinnlos MLC bzw. TLC und dessen Eignung als Speicher bei SSDs zu sprechen, wenn man nicht genau weiss, wie genau die Spezifikationen lauten.
 
Zuletzt bearbeitet:
TLC halbiert gar nichts. TLC ermöglich ~20% mehr speicherplatz bei gleicher größe zu MLC. lest den text!

so berauschend klingt das jetzt nicht. ich hätte eher etwas mit erheblich längerer lebensdauer und höherer performance etc. erwartet und kein derbe verschlechterung.

edit
http://www.golem.de/1008/77281.html
hier steht es viel schöner und detailierter.

edit2
es werden massen an speicher als sicherheit verwendet. das ist meilenweit davon entfernt wirklich robust zu sein, wenn ich mal salopp 20% von eigentlichen speicher das lebensdauererweiterung einplane.

edit3
solche tolle produkte mit 40k erasecycles werden dann aber in flugrekordern und anderen produkten eingesetzt, weil sie für den normalen markt viel zu teuer sind und hier nicht mithalten können. siehe slc.
 
Zuletzt bearbeitet:
Die ganze Diskussion um die Theorie bzw die Schwächen der Technik ist ja ganz nett aber interessiert es mich als User am ende welche schwächen die Technik theoretisch hat oder welche Mechanismen da eingebaut sind um diese auszubügeln?

Wenn die mit TLC eine SSD auf den Markt bringen die keine relevanten Performancenachteile hat und dafür günstiger bzw größer ist dann wird die auch vom Markt angenommen. Es interessiert mich doch nicht ob die nun wohl in xx Jahren kaputt sein wird, nach ein paar Jahren wird sie doch eh wieder ausgetauscht, oder nutzt von euch irgendwer 12 Jahre alte HDDs?
 
=Floi= schrieb:
edit2
es werden massen an speicher als sicherheit verwendet. das ist meilenweit davon entfernt wirklich robust zu sein, wenn ich mal salopp 20% von eigentlichen speicher das lebensdauererweiterung einplane.

Das ist bei jeder SSD der Fall. Fängt bei 7% an und hört bei 15%+ auf.


solche tolle produkte mit 40k erasecycles werden dann aber in flugrekordern und anderen produkten eingesetzt, weil sie für den normalen markt viel zu teuer sind und hier nicht mithalten können. siehe slc.

Darum ging's nicht...


@NoD.sunrise

Meine Rede...schlussendlich zählt, was das Gesamtpaket leistet. Mit ECC, Wear Leveling und all dem weiteren Kram. Was die Einzelteile theoretisch leisten können interessiert den Konsumenten schlussendlich nicht gross.
Ich glaube zwar nicht, dass TLC-SSDs zu Beginn wirklich "gut" sein werden, aber sie werden billig sein. Das halbe Forum heult ja rum wegen zu hohen Preisen, mit TLC könnte man einen weiteren Kompromiss eingehen. Nur wird dann das Geheule wegen schlechterer Performance ebenso gross sein ;)
 
Zuletzt bearbeitet:
Na und, dann schrumpfen die SSDs eben bei starkem Gebrauch, ist doch nicht so, dass die dann ausfallen, die erkennen doch interne Defekte und sperren die Entsprechenden Sektoren, ist doch kein Drama!
 
Okay, dir ist also egal, wenn Platz schwindet. Schön, mir nicht.

Und ausserdem: doch, sie fallen aus, da dank Wearleveling alle Zellen möglichst gleichmässig abgenutzt werden. Ist ein gewisser Punkt erreicht, geht's sehr schnell bis zum Defekt.
Es geht dann nicht um einzelne Sektoren wie man's bei HDDs kennt sondern um die gesamte SSD.
 
Mit Löschen meinte ich
wieviel Blöcke bei einem Erasevorgang (der durchaus seine Zeit dauert, z.T. im Sekundenbereich) zum Zeitpunkt des eigentlichen Schreibens
= Read Erase Write. Gegensatz zum Schreiben ohne vorheriges Löschen.

500 MB sind durchaus drin. Fusion IO und Co. mit Terabyte SSDs haben z.T. enorm große Blöcke.
 
Es ist ja aber wieder die Logik des Controllers, die eben versuchen muß die Erase Zyklen zu minimieren und möglicht selten bei einem Write auch ein Erase durchzuführen. Der User / Hersteller können dies durch Trim und das Freilassen eines Teils der Kapazität der NANDs unterstützen.
Blöcke liegen auf den NANDs im oberen kB Bereich und wenn man 16 NANDs parallel betreibt multipliziert sich das entsprechend, kommt also in den MB Bereich, aber 500MB halt ich doch für etwas hoch gegriffen. Einmal müßte der Controller diese lesen, im Zweifelsfall im Cache zwischenspeichern und dann zusammen mit den neuen Daten bzw. verändert in einen anderen Block schreiben, was bei 250MB/s lesen/schreiben alleine 4s ausmachen würde. Das Erase des alten Blocks wird dann erst später gemacht, sobald dieser wieder benötigt wird oder der Controller idle ist. Ersters passiert eben, wenn die SSD sehr voll ist und wenig Reserven hat, weshalb dann ja auch die Performance leidet.
Das ist ja auch genau der Punkt, wo TRIM ansetzt: Das Filesystem setzt und ein Bit welches aussagt, diese Datei ist gelöscht. Der Controller weiß erstmal nicht, welche Blöcke er jetzt eigentlich flashen könnte, über TRIM sagt das Betriebssystem ihm genau das.
 
Zurück
Oben