Modus schrieb:
Eine SSD steht doch im Ruf eine verschleißbedingte, kürzere Lebensdauer zu haben.
Das ist doch unsinn, bei guten SSDs ist die Haltbarkeit für Heimanwender überhaupt kein Thema. Schau Dir mal im
Dauerschreibtest auf xtremesystems.org an, wie viele TB die SSDs da geschrieben haben und wenn Du dann ins Verhältnis zu den 5 bis 10TB setzt, die man gewöhnlich im Jahr so schreibt, dann halten die NANDs der SSDs länger als die Mechanik der HDDs. HDDs leben ja bekanntlich auch nicht ewig und vor allem die Mechanik zur Positionierung der Köpfe unterliegt auch einem Verschleiß und zwar umso mehr, je mehr die Platte genutzt wird, das bedenkt aber niemand.
Modus schrieb:
Eine physische Trennung zwischen neu installierbaren Programmen (Betriebssystem etc. auf SSD) und Nutzerdaten (normale HDD) macht doch alleine deshalb schon Sinn - oder sehe ich da was falsch ?
So ist. Diesen ganzen Cachinggeschichten sind unsinnig, das ist einfach mal entstanden, als SSDs noch sehr teuer und in der Kapazität sehr beschränkt waren, aber die SSD Entwicklung hat das schon heute überholt. Sowas macht allenfalls noch in den alten Notebooks Sinn, in die man wirklich nur ein 2.5" Laufwerk einbauen kann sich aber keine ausreichend große SSD leisten möchte. Nur selbst da bezahlt man dann den Preis in Form einer deutlich höheren Idle Leistungsaufnahme als bei eienr guten SSD oder bei einer HDD ohne SSD Cache und natürlich immer noch viel weniger Performance als bei einer SSD.
Modus schrieb:
Da ich noch keine SSD hatte, frage ich mich, gibts eine Frühwarnung für den baldigen Tod einer SSD oder machts einfach irgendwann "nixmehr" ?
Die gibt es bei guten SSD in den S.M.A.R.T. Werten in Form einer Restlebensanzeige (Media Wear Indicator), aber leider sterben so einige SSDs (gerade bestimmte Serien wie die mit den Sandforce Controllern, vor allem der ersten Generation und etliche Modelle von OCZ) eben gerne spontan, ohne jede Vorankündigung. Da ist dann aber wohl weniger das NAND schuld, obwohl NANDs von schlechter Qualität dazu führen können, als ein anderer Fehler z.B. in der FW des Controllers. Wer eine gute SSD eines renomierten Herstellers nimmt, der hat aber bei einer SSD ein geringeres Ausfallrisiko als ein einer HDD und ein Backup aller wichtigen Daten auf einer anderen Platte (die möglichst in einem anderen Gehäuse stecken sollte, z.B. einem externen USB-Gehäuse) sollte man sowieso immer haben.
Mal als Beispiel für die Haltbarkeit der NAND: Die Samsung 840 120GB hat TLC NANDs und für die garantiert Samsung 1000 P/E Zyklen (für die MLC der 840 Pro sind es 3000). Im
Test haben die TLC 3556 Zyklen geschafft, die 1000 sollten also auch bei Berücksichtigung der Serienstreuung kein Problem sein. Wenn man plant die SSD 5 Jahre zu nutzen, was schon eine lange Zeit ist, so könnte man jedes Jahr 200 P/E Zyklen verbrauchen, also alle 2 Tage einen. Bei einer Write Ampification von 2 könnte man das täglich ¼ der Kapazität auf die SSD schreiben, bei einer 120er also 30GB. Das schafft kaum ein Heimanwender!
Bei den Cachinglösungen sieht es aber anders aus, da wird ja laufend der Inhalt des Caches aktualisiert, also sowohl beim Lesen als auch beim Schreiben. Damit werde auf die paar GB enorm viele Daten geschrieben und deshalb wird da auch SLC verbaut, nur sind eben 4GB oder 8GB immer noch sehr wenig. Selbst wenn die NANDs die bei SLC üblichen 100.000 P/E Zyklen ertragen, so ist die Write Amplification bei so wenig NANDs extrem hoch, weil das ja auch immer recht voll sein muss, denn es ist ja so wenig vorhanden und die Zugriffe darauf tendenziell immer Random und nicht wirklich sequentiell sind. Man hat schnell mal mittlere 2-stellige Werte und dann kann man z.B. nur noch das 2000 fache der Kapazität in die NANDs schreiben, also nur noch 16TB bei 8GB NAND. Dafür zählen dann aber nicht mehr nur die Schreibzugriffe sondern eben auch die Lesezugriffe, weil die ja auch eine Änderung vom Inhalt des Caches bewirken.