News Flash-Speicher: BiCS4-QLC-NAND erreicht 1,33 Terabit pro Chip

Moep89 schrieb:
rgendwann sind SSDs zwar billig, aber reines Glücksspiel bei der Zuverlässigkeit.
Werfe nicht Haltbarkeit und Zuverlässigkeit durcheinander, dies sind unterschiedliche Dinge. Die Zuverlässigket betrifft Ausfälle innerhalb der geplanten Nutzungsdauer und TBW.
andi_sco schrieb:
Und selbst wenn die Haltbarkeit geringfügig geringer ausfällt, merkt es der User überhaupt?
Eben und da obliegt es dem User eben zu wissen wie viel Haltbarkeit er für seine SSD braucht und in den Unternehmen kann man dies meist auch sehr gut enschätzen, während die meisten Heimanwender total überschätzen wie viele Daten sie pro Jahr wirklich auf ihre SSD schreiben.
rockwell1080 schrieb:
sieht so Fortschritt aus?
Dir ist aber schon klar das HD Tune für SSD total ungeeignet ist? Der Error Scan berücksichtig auch die Antwortzeit, wenn aber, was gerade bei Systemlaufwerken unvermeidbar ist, dann andere Zugriffe erfolgen und die Anfragen von HD Tune daher erst später beantwortet werden, dann gibt es eine roten Punkt obwohl alles bestens ist.

Poste doch bitte mal den Screenshot von CrystalDiskInfo für die SSD, ziehe aber bitte das Fenster soweit auf, dass alle Attribute und auch die Rohwerte vollständig sichtbar sind.
 
  • Gefällt mir
Reaktionen: .Snoopy.
Steff456 schrieb:
Sieht man ja an den Samsung SSDs, dass dort die Garantie sogar wieder verlängert wurde bei den neueren Modellen.

Was bringt mir die Garantie, wenn sich Hersteller nach 3 Jahren quer stellen oder meine Daten weg sind?
Wenn ich eine SSD rein für Datenspeicherung verwende, möchte ich auch 100%ige Zuverlässigkeit.
Klar, die gibt es nirgends. Auch bei Helium HDD´s draue ich nicht ganz.

Ich hoffe, dass die Qualität in Zukunft stimmt.
 
Zuletzt bearbeitet:
@Holt: Dann läuft der Sektorencheck langsamer... Da wird kein roter Block angegeben wenn ne normale Antwortzeit wegen einer Laufwerksauslastung entsteht - das hatte ich damals noch nicht mal mit Festplatten geschafft, so krasse Verzögerungen zu erzeugen - es sei denn, sie war kaputt. Und SSDs erzeugen selbst bei voller Auslastung nicht so hohe Antwortzeiten wie ne normal ausgelastete Festplatte - es sei denn, sie sind kaputt.

@Topic: Den QLC-Kram können die behalten. Gewinnmaximierung ohne Nutzen für den Kunden. Die Einsparungen stecken sich die Hersteller selber in die Tasche und geben garantiert nicht mal einen Cent an den Kunden weiter. Die Laufwerke werden im Schreiben nur noch langsamer (schon TLC-Flash ist ohne SLC-Cache richtig langsam, besonders in den billigen SSDs wo es aufs P/L-Verhältnis ankommt) und weniger haltbar...
 
Zuletzt bearbeitet:
Holt schrieb:
Dir ist aber schon klar das HD Tune für SSD total ungeeignet ist?

nein das wusste ich nicht. Dennoch hat mir das Ding in letzter Zeit viele Probleme bereitet. Windows 7 wollte mehrmals das ich wegen eines schwerwiegenden, unbekannten Fehlers den PC sofort herunterfahre. Der Win Media Player ist auch mehrmals einfach eingefroren und sogar der Win Explorer. Auch öfters: Radeonhost.exe
Dann hab ich mir die SMART Werte angeguckt und tada jede Menge(?) kaputte Sektoren.
Leider habe ich schon länger kein BU gemacht mit Acronis - wollte es jetzt dann wieder machen mit Ergebnis:
Kopiervorgang abgebrochen: CRC Fehler bei Sektor irgendwo. (der Sektor für Sektor Vorgang bricht noch eher ab)
Habe dann versucht von Hand alles zu retten was zu retten ist, was auch geklappt hat, aber einige Dateien konnte Win7 nicht kopieren wegen Lesefehlern.
Dann habe ich gelesen dass Win7 Datenträger auf defekte Sektoren überprüfen und wiederherstellen kann.
Dabei wird auch gezeigt welche Daten sich auf diesen Sektoren befinden und tatsächlich habe ich etliche Systemdateien gesehen, unter anderem für den Media Player und den Radeon Treiber.
Dann noch sfc /scannow ablaufen lassen. Wieder etliche fehlerhafte Systemdateien gefunden und repariert, bis auf zwei die ich von Hand ersetzen musste von einer anderen Win7 Installation, da die Kopien von diesen beiden auch hinüber waren! Mal sehen ob es jetzt erstmal bei 168 kaputten Sektoren bleibt.

crucmx300.png
 
Halleluja tausch die Platte aus...die Lesefehlerrate kann zwar auch durch ein defektes SATA-Kabel entstehen aber die Einträge "Wiederzugewiesene Sektoren", "Schreibfehlerrate" und "Gemeldete nicht korrigierbare Fehler" ergeben doch ein eindeutiges Bild.
Selbst bei meiner uralten 2TB und fast zu Tode beschriebenen Datenplatte gibt es nur Lesefehler und sonst nichts weiter schwerwiegendes...und dennoch habe ich mir wegen "Geräuschen" (vermutlich der Kopf) eine neue zugelegt. Die alte Platte fahre ich bis zum Tod, den Luxus hast du leider nicht.
 
Pure Existenz schrieb:
oder meine Daten weg sind?
Dagegen helfen nur Backups, zumal nicht nur HW Ausfälle zu Datenverlust führen können. Wer Daten hat die er nicht verlieren möchte, muss davon ordentliche Backups haben, egal wo er diese abgespeichert hat, denn auch RAIDs ersetzen keine Backups!
Pure Existenz schrieb:
möchte ich auch 100%ige Zuverlässigkeit.
Die gibt es nicht, jede Hardware kann jederzeit mal ausfallen, auch jeder HDD oder jede SSD und auch das Netzteil kann plötzlich ausfallen und dabei alle Laufwerke killen.
iGameKudan schrieb:
Dann läuft der Sektorencheck langsamer...
Das sowieso, aber das es dann keine roten Punkte gibt, kenne ich auch anderes.
rockwell1080 schrieb:
Mal sehen ob es jetzt erstmal bei 168 kaputten Sektoren bleibt.
Nach gerade mal 21 P/E Zyklen sind schon 168 ausrangierte NAND Blöcke sowie 3 Schreib-/Programmfehler eine ganze Menge. Von den 591 Rohlesefehlern konnte RAIN (eine Art internes RAID 5) auch nur 182 korrigieren. Der Zustand dieser SSD ist ungewöhnlich schlecht.
Ergänzung ()

Tim-O schrieb:
die Lesefehlerrate kann zwar auch durch ein defektes SATA-Kabel entstehen
Nein, können sie nicht und es gab auch keine Probleme mit dem SATA Datenkabel, wie der Rohwert vom Attribut C7 zeigt, denn der ist noch immer 0.
 
  • Gefällt mir
Reaktionen: Unbekannt89 und smart-
Stimmt, das hatte ich falsch in Erinnerung. Ich habe damals das Sata-Kabel wegen Abstürzen ausgetauscht und seitdem läuft die Platte wieder halbwegs rund. Bis auf die 992 UltraDMA-CRC-Fehler und hohe Lesefehlerrate.
Bei den anderen Platten ist beides auf 0, weswegen ich von einem schleichenden Tod ausgehe ;).
 
Hayda Ministral schrieb:
Wenn Du wirklich wichtige Daten auf nur einem Datenträger ablegst ist Dir nicht mehr zu helfen. Wenn Du diese Daten redundant auf mehreren Trägern ablegst reduzierst Du die Bedeutung der Zuverlässigkeit des einzelnen Trägers. Gleichzeitig legen auch die Hersteller ihre Daten möglichst redundant auf dem Flash-Speicher (bzw. im Idealfall auf mehreren) ab.

Aber was anderes.... x TBit pro Chip ist natürlich beeindruckend. Der Vergleich mit "nur y Tbit" der Konkurrenz ist aber doch sinnfrei solange man nicht die Fläche des Die nennt. Oder ist die standardisiert und damit vergleichbar?

Warum so agressiv???

Ich weise nur auf eines hin:
Je mehr Bits ich pro Speicherzelle realisiere, desto unsicherer/fehleranfälliger/korrekturbedürftiger wird das Ganze. Für viele Anwendung ist es glatt wurscht, für andere eben nicht.

.
 
Tim-O schrieb:
Halleluja tausch die Platte aus...
Holt schrieb:
Der Zustand dieser SSD ist ungewöhnlich schlecht.

hey aber die Crucial Software sagt sie wäre gut! ...
Laut chkdsk befinden sich 2428KB auf defekten Sektoren. Bei einer Überprüfung vor einer Woche waren es aber 16KB weniger...
Und an diesen Daten scheitert wohl dann Acronis. Jedenfalls ist jetzt keine Systemdatei mehr betroffen.
 
iGameKudan schrieb:
Die Laufwerke werden im Schreiben nur noch langsamer (schon TLC-Flash ist ohne SLC-Cache richtig langsam, besonders in den billigen SSDs wo es aufs P/L-Verhältnis ankommt) und weniger haltbar...
Ja, ich ärgere mich auch immer, wenn meine 850 EVO nur noch 500 MB/s anstatt 550 schreibt, wenn der Cache voll ist.

Natürlich wird qlc langsamer sein. Aber die Controller werden auch immer besser und mit nem gescheiten caching ist die performance gut. Man schaue sich mal die aktuelle Generation NVMe SSDs an. Alles TLC und die Performance ist super. Hatte auch kaum einer gedacht, als die ersten TLC Krücken wie die bx200 rauskamen.
Niemand wird die in schreibintensiven Szenarien einsetzen, aber man muss sich mal von dem Gedanken lösen, jeder bräuchte immer das technisch Beste. Viele nehmen dann lieber den Preisvorteil mit.
 
  • Gefällt mir
Reaktionen: andi_sco
rockwell1080 schrieb:
Hier meine neue Crucial MX300 SSD:
sieht so Fortschritt aus?

Öhm ich weiß nicht so recht was bei dir passiert ist :
Meine Crucial MX300 525 GB im M2 Format ( Programme / Cache ) nach 9 Monaten:

mx300525m2.PNG


Meine Mushkin Triactor 480GB 2.5" SATA ( System Drive ) nach 2 1/2 Jahren:
mushkintriactor480.PNG


Also da wird wohl irgendwas bei dir Defekt sein... Montags Gerät oder halt Produktionsfehler ... Ich würd die wenn das ne neue Ist austauschen lassen.
 
Tim-O schrieb:
Bis auf die 992 UltraDMA-CRC-Fehler und hohe Lesefehlerrate.
Bei den anderen Platten ist beides auf 0, weswegen ich von einem schleichenden Tod ausgehe
Die UltraDMA CRC Fehler (also Kommunikaitonsfehler zwischen dem SATA Host Controller und dem Controller der Platte) werden in aller Regel über die Lebenszeit des Laufwerks gezählt, der Zählerstand fällt also nie. Daher reicht es, wenn der nach dem Beheben des Problems eben nicht mehr steigt, denn dann kommen ja keine weiteren Fehler hinzu, es gibt dann also keine neuen Kommunkationsfehler. Was die Lesefehler angeht, so hängt dies von der Platte ab, bei Seagate HDDs sind die Rohwerte der Attribute Seek Error Rate, Raw Read Error Rate und Hardware ECC Recovered nicht einfache Zählerstände der Fehler, sondern enthalten die Fehlerzähler nur in den 2 höchsten Bytes (die linken 4 Stellen bei hexadezimaler Anzeige der Rohwert in CrystalDiskInfo) und die rechten 8 Stellen (4 Byte) sind der Zähler der Vorgänge. Bei einigen wenigen SSDs ist wohl auch so ähnlich, zumindest habe ich bei einige mit Sandforce schon mal so gesehen und ich meine irgendwo bei irgendeiner von Kingston war es auch so dokumentiert. Poste man den Screenshot mit den ganzen Werten, dann sollte man erkennen wie es um die Platte steht.
Fred_EM schrieb:
Je mehr Bits ich pro Speicherzelle realisiere, desto unsicherer/fehleranfälliger/korrekturbedürftiger wird das Ganze.
Das mag auf der Ebene einzelner Zellen ja auch stimmen, aber man liest ja nie einzelne Zellen direkt aus, sondern hat in einer SSD, einem Stick oder eine Speicherkarte immer noch einen Controller und der hat immer eine ECC, denn Bitfehler sind bei Flash wie auch bei HDDs einfach normal und die höhere Wahrscheinlichkeit eines solchen Bitfehlers kann man dann mit einer entsprechend stärkeren ECC auch kompensieren, so dass die SSD selbst am Ende eben keine höhere Fehlerrate aufweist. Außerdem kommen Bitfehler bei NANDs erst ab einem bestimmten Alter und sind anderes als bei HDDs eben nicht linear über die Nutzungsdauer verteilt.
rockwell1080 schrieb:
aber die Crucial Software sagt sie wäre gut!
Das ist ja auch kein Wunder, die SW der Herstelle ist für deren Garantie relevant und da spart es eben Kosten, wenn man ein Auge zudrückt. Die hat ja auch NAND Reserven, wie E4 verrät sind noch 1085 Reserveblöcke verfügbar, obwohl also schon 168 ausgefallen sind, entsprechen sind, wie der Aktuelle Wert von Attribut 05 verrät, noch etwa 85% der Reserven verfügbar und der Grenzwert von 10 besagt, dass Crucial er erst als kritisch einschätzt wenn nur noch 10% der Reserve verfügbar sind.

Wie kritisch das ist, hängt davon ab wie schnell weitere Blöcke ausfallen, unangenehm ist es aber trotzdem, zumal es eben mit Datenkorruption verbunden ist. Bei Crucial SSDs haben ich sowas aber auch schon vorher mal gesehen, die sind eben meist billiger aber offenbar bzgl. der FW und der Qualitätskontroller der NANDs nicht so gut wie es Samsung ist, denn bei deren SSDs, die noch weiter verbreitet sein dürften, kann ich mich nicht an solche Fälle erinnern. Dabei hat die sogar RAIN, also eine Art RAID 5 über die NAND Blöcke und damit dürfte dies eigentlich nicht passieren, denn auch der Ausfall eines Blocks sollte eigentlich keinen Datenverlust zur Folge haben. Offenbar ist da zuweilen mehr als ein Block des RAIN Verbundes betroffen gewesen, daher weshalb eben nur ein Teil der Fehler durch RAIN korrigiert werden konnten.
rockwell1080 schrieb:
Laut chkdsk befinden sich 2428KB auf defekten Sektoren. Bei einer Überprüfung vor einer Woche waren es aber 16KB weniger...
Waren denn vor einer Woche auch schon 168 Blöcke ausgefallen? Wenn ein NAND Block ausfällt, kann dies natürlich viele Sektoren betreffen.
rockwell1080 schrieb:
Und an diesen Daten scheitert wohl dann Acronis.
Die SSD dürfte dann einen Lesefehler melden und dann brechen die meisten Backup- und auch Klone Tools ab, sofern nicht entsprechende Einstellungen vorhanden und aktiviert sind.
 
  • Gefällt mir
Reaktionen: massaker
In solchen threads merkt man mal wieder, wie verwöhnt wir doch sind. hunderte stunden an videos in DVD qualität passen quasi in eine briefmarke, und trotzdem wird gejammert. ;-)
 
  • Gefällt mir
Reaktionen: MuhKalb
Holt schrieb:
...
Eben und da obliegt es dem User eben zu wissen wie viel Haltbarkeit er für seine SSD braucht und in den Unternehmen kann man dies meist auch sehr gut enschätzen, während die meisten Heimanwender total überschätzen wie viele Daten sie pro Jahr wirklich auf ihre SSD schreiben.

...

Im EEE PC hatte ich die 64GB SSD (kein eMMC) praktisch gebraten, als der Rechner im Sommer mit 80 Grad C lief (lag 10h Non Stop auf einem Getriebe und teilweise auch in der Sonne)! Und das war auch ein Billig Modell, trotzdem zeigte die nach drei Jahren noch alles im Grünen Bereich an.
 
Mehr Wärme ist für NAND im Betrieb ja auch gut und nicht schlecht, denn dadurch wird die Isolierschicht der Zellen durchlässiger und leidet daher weniger bei den Programmier- und Löschzyklen. Hohe Temperaturen bei der Lagerung führen dann zu schnellerem Datenverlust, aber nach dem Ausschalten sollte die Temperatur der SSD ja rasch fallen.
 
@rockwell1080
Das ist schon heftig, wenn ich sehe das meine Samsung SSD fast um Faktor 10 mehr im Betrieb/Geschrieben hat und bisher keine Probleme macht. Ich würde die SSD durch eine neue ersetzen, denn so oft kann man kein Backup machen um laufende Dateiänderungen immer zu sichern, wenn man nicht gerade ein RAID laufen hat.

@Holt
Danke für den Tipp mit dem Tool, das kannte ich auch noch nicht, und gut zu sehen das eine meiner alten HDDs ein Problem hat.

1532168994823.png
 
Hey wisst ihr eigentlich warum man mit einer QLC SSD nur ein drittel mehr Speicherkapazität erreicht? Dieser Wert sollte sich doch mit jedem Bit mehr verdoppeln. QLC SSDs sollten damit eigentlich 100% mehr Speicherkapazität aufweisen.

SLC (1 Bit):

0
1

MLC (2 Bit):

0
1
10
11

TLC (3 Bit):

0
1
10
11
100
101
110
111

QLC (4 Bit):

0
1
10
11
100
101
110
111
1000
1001
1010
1011
1100
1101
1110
1111
 
QLC hat 4 Bit im Gegensatz zu TLC mit 3 Bit. Somit hat QLC 1/3 mehr als TLC.
 
Zurück
Oben