[Sammelthread] Kaufberatung und Fragen zu SSD

Ich habe in verschiedenen Rechnern seit Jahren SSDs im Einsatz, von Crucial, Samsung, Intel und SanDisk, und die haben alle etliche Abstürze erlebt, entweder per Reset, wenn mal nichts mehr ging, oder wegen eines Stromausfalls oder auch am USB-Adapter. Selbst die berüchtigten Intel 320 und Crucial M4 (davon hatte ich mehrere) haben das alles klaglos überstanden. Vielleicht Einzelfälle, aber meines Erachtens wird da etwas überbewertet, was im professionellen Umfeld eine Rolle spielen mag, für den Privatanwender aber nicht. Wenn du wirklich Wert drauf legst, dann kaufe eine Enterprise-SSD und gut. Gibt ja auch Leute, die mit ihrem Bugatti nur die 2km zum nächsten Golfplatz fahren ...
 
Meistens überstehen die SSDs einen unerwarteten Spannungsabfall problemlos, die Wahrscheinlichkeit das nach einem unerwarteten Spannungsabfall nicht mehr gehen, also gebrickt sind, ist wirklich nicht sehr hoch. Aber eben nur mit einer Full-Power-Loss Protection wirklich 0, wobei aber auch damit ausgestattete Enterprise SSDs schon mal ausfallen können, dann aber aus anderen Gründen. Bei den kleinen Lösungen der Crucial SSDs gab es aber hier und in anderen Foren auch schon vereinzelt Fälle und da bei denen die alte Power-Cycle Wiederbelebung funktioniert hat, kann man eben doch sehr klar davon ausgehen, dass eben die Mappingstabelle korrupt war und damit die Stützkondensatoren bzw. deren Ladung eben nicht gereicht haben wirklich diese und die anderen Data-at-rest noch in die NANDs zu schreiben. Daher ist das eben ein Features welches real keinen Vorteil bringt und daher auch nicht bei der Kaufentscheidung als Pluspunkt gewertet werden sollte, zumal es offenbar auch für die deutlich höhere Idle Leistungsaufnahme der SSDs sorgt.
 
Ich weiss nicht, ob man das so abschreiben kann. Es geht ja nicht nur darum, dass es komplett gebrickt sein kann, sondern auch dass Daten, die schon im NAND stehen, kaputt gehen können. Zumindest habe ich mehrfach davon gelesen, dass das geschehen kann. Und die "billigeren" Data-at-Rest Client-Lösungen würden zumindest das verhindern - was also immer noch besser als diejenigen SSDs, die nicht einmal diese Vorsorgemaßnahme drinnen haben.

Das Vorletzte was man braucht (nach dem Bricken), ist, dass das Betriebssystem kaputt ist, nur weil mal ein kurzer Aussetzer war. Also ich finde, dem sollte sich jeder bewusst sein, der eine SSD kauft, und nicht leichtfertig abschreiben. Auch ein Heimcomputer sollte das einem Wert sein. Bei anandtech oder hardwarecanucks wird der Stromausfallschutz auch immer öfter Bestandteil der Tests. Offensichtlich handelt es sich also um etwas, was nicht so abwegig ist.
 
Es passiert aber im Alltag bei vielen SSDs die keine Stützkondensatoren haben einfach nicht. Das kann der Hersteller eben mit geschickter FW Programmierung auch umgehen, wenn er wie bei einem Journaling Filesystem arbeitet. Korrupte Daten sind viel wahrscheinlicher ein Problem des RAMs des Rechners als von der SSD und dort sind es fast immer FW Bugs gewesen die dazu geführt haben oder Bugs der Treiber.

Das nach einem Aussetzer das Filesystem kaputt ist, kann bei jeder SSD passieren, auch wenn NTFS da sehr robust ist, die Daten die noch im Schreibcache von Windows stehen, kann keine SSD noch in die NANDs schreiben, weil diese eben einfach noch gar nicht zu ihr übertragen wurden und wenn das wichtige Metadaten des Filesystems sind, dann kann selbst NTFS in ganz unglücklichen Fällen korrupt werden. Dafür gibt es dann aber das Backup was man immer anzulegen hat, damit man keinen Datenverlust erleidet, egal welche SSD man verwendet.

Wo wird bei anandtech und hardwarecanucks ein Stromausfallschutz getestet? Das ist mir dort noch nie aufgefallen und kann auch gar nicht sinnvoll getestet werden.
 
Das es bei einem spontanen Aussetzer das Dateisystem zerlegt kann einem auch bei einer HDD passieren... (und ist mir auch schon passiert) hast du die auch Akkugepuffert? Hier kommen wir in einen Bereich wo die Leute nur noch glauben die SSDs wären unsicherer als HDDs weil ihnen mit letzteren einfach nur noch nichts passiert ist (oder sie es schon wieder verdrängt haben). Mit einer guten SSD passiert da aber genauso wenig (und schlechte HDDs gabs auch schon, die "Deathstars" haben ihren Namen nicht umsonst ;-)

Von seinen wichtigen Daten sollte man eh ein Backup haben und wenn einen die Neuinstallation im seltenen Falle eines Problems zu aufwändig wird sollte man das ganze OS sichern.
 
Es gab eben anfangs auch durchaus mies SSDs die noch mieser als die schlimmsten HDDs waren, wie die OCZ Octane S2 und OCZ Petrol, aber auch die ganzen mit den Sandforce Controllern waren lange nicht wirklich gut und erst mit der Generation und den späten FW Versionen bzw. der Intel FW brauchbar. Das hat dem Image von SSDs leider sehr geschadet, weil eben viele nicht zwischen den Modellen und Herstellern differenzieren, sondern alle SSDs in einen Topf werfen, dabei waren dort die Unterschiede zwischen den Produkten größer als bei den HDDs und sind auch immer noch.
 
Wie soll eine gute Programmierung der Firmware nützen, wenn der Strom weg ist? Wenn kein Strom mehr da ist, kann die Firmware exakt gar nichts mehr machen. Allerdings kann ich mir vorstellen, dass bei einem Stützkondensator noch Notmaßnahmen getroffen werden. Aber wenn da natürlich gespart wird...

Holt schrieb:
die Daten die noch im Schreibcache von Windows stehen, kann keine SSD noch in die NANDs schreiben, weil diese eben einfach noch gar nicht zu ihr übertragen wurden und wenn das wichtige Metadaten des Filesystems sind, dann kann selbst NTFS in ganz unglücklichen Fällen korrupt werden.

Dass die Daten im Schreibcache verschwinden, ist zu verschmerzen. Es sind aber diese "unglückliche" Fälle, die weniger zu verschmerzen sind: dass eben auch Metadaten und bereits bestehende "persistente" Daten korrupt werden können. Und eben genau das soll auch die "einfache PLP" Client-Lösung verhindern. Ehrlich gesagt würde ich sowas standardmäßig bei jeder SSD erwarten, alles andere ist unverantwortlich. So ein Kaltstart kommt jetzt auch nicht so selten vor.

@Anandtech & Hardwarecanucks: entschuldige, ich hätte erwähnen sollten, es wird im Test "erwähnt", aber nicht explizit getestet. (bei Hardwarecanucks z.B. meist auf der 1. Seite der SSD Tests bzw. bei der Beschreibung des Controllers). Das Fehlen einer PLP wird halt als nachteilig erwähnt.

Wo ich das grad erwähne... ehrlich gesagt wäre mir lieb, wenn irgendeine Technikseite das tatsächlich mal testen könnte. Einfach mal brutal 100x den Stecker ziehen und schauen welche SSD danach herumspinnt. Das würde mich wirklich mal interessieren.

Der letzte Test, der SSDs auf Stromausfall getestet hat, war wohl dieser hier. Da wurde tausende mal ein- und ausgeschalten, mit und ohne Datenübertragungen. Da hat die PLP durchaus Positives bewirkt. Leider wurden nur SSDs getestet die heute kaum noch aktuell sind. So einen Test wünschte ich mir aber für heutige Mainstream SSDs.
Ergänzung ()

Jesterfox schrieb:
Das es bei einem spontanen Aussetzer das Dateisystem zerlegt kann einem auch bei einer HDD passieren... (und ist mir auch schon passiert) hast du die auch Akkugepuffert? Hier kommen wir in einen Bereich wo die Leute nur noch glauben die SSDs wären unsicherer als HDDs weil ihnen mit letzteren einfach nur noch nichts passiert ist (oder sie es schon wieder verdrängt haben).

Da sehe ich einen Unterschied. Wenn ich einen Computer mit HDD vom Strom ziehe, passiert in der Regel nichts. Der Lese/Schreibkopf bleibt in der Bewegung stehen und wird beim Neustart einfach wieder "zurückgespult". Alle bislang persistenten Daten bleiben erhalten.

Wenn ich einen Computer mit SSD vom Strom ziehe, kann ich haufenweise Artikel finden, bei denen auch "persistente" Daten korrupt werden (u.a. Teile des Betriebssystems, oder gar die SSD gebrickt wird).
Als HDD-User erwarte ich mir einfach zumindest eine ähnliche Sicherheit für SSDs bei Stromausfall. Genau deswegen finde ich das Fehlen eines solchen PLP Schutzes bei SSDs als skandalös.
Ergänzung ()

Wenn ich mir es auch als zu laienmäßig vorstelle:

Bei der HDD sind die Daten als Vertiefunden/Erhöhungen in der Magnetplatte vorhanden. Die Magnetplatte wird aber nie direkt berührt. Wenn Strom weg ist, passiert nicht viel, weil der Lesekopf einfach stehenbleibt. Im Grunde ist hier eine explizite Trennung von Daten und Strom vorhanden.

Bei einer SSD sind die Daten jedoch nur als elektrostatische Ladungen vorhanden. Das ist keine explizite Trennung von Daten und Strom. Folglich kann auch alles was irgendwie unkontrolliert reinkommt oder einen Mangel an Strom erleidet, unsachgemäße Ladungsverteilungen verursachen bzw. bereits vorhandene Ladungen "zerschießen" (im wahrsten Sinne des Wortes). Wie sonst sollen auch "persistente" Daten plötzlich korrupt werden?

Genau deswegen sehe ich die Power-Loss-Protection als verpflichtend an - weil diese noch eine gewisse Strom-Datentrennung erreicht, und damit die Gesamtintegrität sichert.
 
Zuletzt bearbeitet:
franzerich schrieb:
Wie soll eine gute Programmierung der Firmware nützen, wenn der Strom weg ist?
Das würde ich nicht sagen, es gibt viele Techniken die man anwenden kann, genau wie es auch bei den Filesystemen eben solche Technologien gibt die das eine gegen solche Ausfälle robuster als das andere machen.
franzerich schrieb:
Wenn kein Strom mehr da ist, kann die Firmware exakt gar nichts mehr machen.
Dann kann sie nichts mehr machen, aber sie kann vorher vorgesorgt haben und z.B. bei der Idle-GC oder dem Umkopieren von Daten aus dem Pseudo-TLC Schreibcache die alten Daten solange erhalten und auch in der Mappingtabelle (auch Flash Translation Layer (FTL) genannt) die im NAND steht verlinkt lassen, bis die neuen vollständig geschrieben wurden und dort auch nur NANDs nehmen, bei denen die Low-Page vorher leer war und erst wenn das erfolgt ist das Mapping auf neuen NAND Adressen ändern und die alten Daten löschen. Fällt dabei die Spannungsversorgung aus, passiert den Daten gar nichts.

Vermutlich kennst Du VMS nicht, dort hat jede Datei am Ende noch eine Versionsnummer, also Dateiname.Typ;Version und wenn man Datei.txt geöffnet hat, bekam man immer die neuste Version, also z.B. Datei.txt;5. Hat man sie gespeichert, wurde die Datei.txt;5 nicht überschrieben, sondern Datei.txt;6 angelegt und es konnte weiter auf Datei.txt;5 zugegriffen werden, solange man nicht aufgeräumt hat, ging als beim Schreiben von Datei.txt;6 etwas schief, war zumindest der Stand von vorher noch vorhanden. Sowas in der Art kann man auch bei der FW einer SSD implementieren und dann ändert es zwar nichts daran das die Datei.txt;6 verloren ist wenn beim Schreiben der Daten ein Spannungsverlust eintritt, wohl aber den Folgen die dieses hat.
franzerich schrieb:
Allerdings kann ich mir vorstellen, dass bei einem Stützkondensator noch Notmaßnahmen getroffen werden. Aber wenn da natürlich gespart wird...
Klar wird da bei den Consumer SSD gespart. So sieht die Platine einer Micron M500DC Enterprise SSD mit Full-Power-Loss Protection aus:



Das sind Tantal Kondensatoren mit einer weitaus größeren Kapazität als denen auf der Consumer SSD, wie hier der m500:



Bei der MX200 sieht man sie hier schön und auch, dass nicht einmal alle bestückt wurden:



Bei der OEM Version M600 sind es schon lächerlich wenige, hier im Vergleich der M500DC (links), MX100 (mitte) und M600 (rechts):



Die MX300 hat schon wieder mehr Kondensatoren verbaut, deren NANDs sind aber auch viel langsamer zu beschreiben, die braucht also auch mehr:



franzerich schrieb:
Dass die Daten im Schreibcache verschwinden, ist zu verschmerzen.
Da wäre ich mir nicht so sicher, die können zwar nicht zum Bricken der SSD führen, aber zu korrupten Dateien und sogar einem korrupten Filesystem.
franzerich schrieb:
Es sind aber diese "unglückliche" Fälle, die weniger zu verschmerzen sind: dass eben auch Metadaten und bereits bestehende "persistente" Daten korrupt werden können.
Praktisch kommt es nicht vor, dass alte Daten korrupt werden, deshalb blockieren die Controller dann ja auch, eben um kein Risiko einzugehen das korrupte Daten ausgelesen werden. Aber wenn man Datenkorruption wirklich bekämpfen will, sollte man wie gesagt beim RAM im Rechner anfangen, da das Risiko das die Daten schon dort durch gekippte Bits korrupt geworden sind, viel höher ist. Wer da kein ECC RAM (mit passendem Board und CPU) einsetzt, der braucht sich um den Rest auch keine Gedanken zu machen.
franzerich schrieb:
Ehrlich gesagt würde ich sowas standardmäßig bei jeder SSD erwarten, alles andere ist unverantwortlich. So ein Kaltstart kommt jetzt auch nicht so selten vor.
Es kommt aber extrem selten vor, dass es Probleme deswegen mit der SSD gibt, die muss man schon gerade dann massiv beschreiben und dann wiederholt während des Schreibvorgangs hart ausschalten um Probleme zu provozieren. Es gab da mal irgendwo einen Test wo das untersucht wurde und die musste sich da echt anstrengen um dann wirklich die SSDs ohne Stützkondensatoren zum Bricken zu bekommen oder überhaupt zu Datenverlust. Nur passiert das eben im Alltag fast nie und leider auch zuweilen bei den Crucial SSD die Stützkondensatoren haben, die bringen daher also keine 100%ige Sicherheit und damit keinen Vorteil, wenn man mehr Sicherheit will, dann muss man zu entsprechender Enterprise HW greifen, also eben zu einer Intel 730 oder 750, wenn man trotzdem HW für private Endkunden möchte.

Es ist generell so, dass Consumer HW vor allem billig sein muss und nur so gut, dass es meistens bei den meisten Leuten fehlerfrei läuft und dieses Ziel erreichen die meisten Consumer SSDs ohne die Stützkondensatoren so gut wie die mit den einfachen Stützkondensatoren und daher ist es auch nicht unverantwortlich darauf zu verzichten. Wenn Du es als ein wichtiges Feature einschätzt, dann kaufe eine SSD die welche hat und am Besten eine mit einer Full-Power-Loss Protection. Kaputtgehen kann die aber auch, ein Backup erspart es auch nicht, die kosten am Ende also einfach nur mehr und man hat sich vielleicht Ärger erspart, wird aber nie erfahren ob es wirklich so war.

franzerich schrieb:
Das Fehlen einer PLP wird halt als nachteilig erwähnt.
Es wurde auch lange das Fehlen einer SSD Toolbox als nachteilig erwähnt, inzwischen bietet ja praktisch jeder SSD Hersteller sowas an, aber nützlich sind Dinger trotzdem kaum bis gar nicht und manche Funktionen wie die OS "Optimierungen" oder diese RAM Caches sogar unsinnig bis kontraproduktiv. Meiner Meinung nach wird der Wert der Stützkondensatoren überschätzt, eben weil die Erfahrung aus den Foren gezeigt hat, dass diese doch nicht zu 100% Prozent wirksam sind, selbst um nur die Data-at-rest zu schützen. Sonst hätte es keine Fälle von Crucial SSD mit Stützkondensatoren geben dürfen, die über die Power-Cycle Methode wiederbelebt werden konnten, aber die gibt es und das belegt, dass eine korrupte Mappingtabelle die Ursache des Problems war und die hätte zu den Data-at-rest gehört die noch mit der Ladung der Kondensatoren hätte zurückgeschrieben werden sollen. Die Mappingtabelle ist ja das, was hauptsächlich das Cache RAM belegt, weshalb die SSD auch i.d.R. umso mehr Cache haben, je größer deren Kapazität ist.

franzerich schrieb:
wäre mir lieb, wenn irgendeine Technikseite das tatsächlich mal testen könnte. Einfach mal brutal 100x den Stecker ziehen und schauen welche SSD danach herumspinnt. Das würde mich wirklich mal interessieren.
Das wäre immer noch Zufall und wenn man nicht auch gleichzeitig massiv darauf schreibt, wird bei kaum einer SSD überhaupt etwas passieren.

Es gibt hier so einen Test, leider nur mit SSD von 2009 bis 2012 und leider werden mal wieder Ross und Reiter nicht genannt, aber dort sieht man immerhin, dass die Power-Loss-Protection alleine nichts bewirkt und eine ganze Menge Versuche erfolgt sind um Fehler zu provozieren:

power_loss_test-png.570172


"”P” indicates presence of some power-loss protection (e.g. a super capacitor)."

Außerdem wurden dort nur die SSD hart abgeschaltet, der Rechner lief weiter und schickte die ganze Zeit Schreibbefehle, also eine Situation bei einem realen Spannungsabfall nur dann eintreten könnte, wenn es einen Fehler bei der Spannungsversorgung nur der SSD geben würde und keinen Absturz, denn dabei hat die SSD ja noch Spannung vom Netzteil und bekommt mit Sicherheit keine Befehle mehr, weil das OS sich aufgehängt hat oder Spannungsabfall. Auch dort haben die Netzteile meist auf der 5V Schiene länger Spannung als auf den 12V an denen die Spannungswandler der CPU hängen und außerdem arbeiten die SSD Controller alle mit 3,3V, die 2.5" SSDs wandeln also intern immer die 5V auf 3.3V und haben daher auch alle dafür ein paar Glättungskondensatoren die auch für paar ms die Spannung aufrecht halten.

Wichtiger ist aber zu sehen, dass nur die SSDs #6 und #10 keine Fehler hatte, während aber auch die SSDs #7 und #15 zwar auch eine Power-Loss Protection haben, aber eben trotzdem Fehler zeigen. Auch gibt es gewaltige Unterschiede zwischen den SSDs die keine Power-Loss-Protection haben, so war SSD #1 unbrauchbar gebrickt (die ist vom gleichen Hersteller A wie #6 und #10 die keine Fehler gezeigt haben) und SSD #3 hat auch alle Daten verloren, während bei SSD #2 nach zehnmal so vielen Versuchen nur folgende Fehler hatte: "Each serialization
error implies at least one write was dropped or misordered." Das passierte auch der einen HDD, logisch, denn auch eine HDD bekommt bei einer Unterbrechung der Spannungsversorgung ein Problem, wenn gerade ein Sektor geschrieben wird, aber dies nicht komplett zusammen mit dessen ECC erfolgen kann.
franzerich schrieb:
Der letzte Test, der SSDs auf Stromausfall getestet hat, war wohl dieser hier. Da wurde tausende mal ein- und ausgeschalten, mit und ohne Datenübertragungen. Da hat die PLP durchaus Positives bewirkt. Leider wurden nur SSDs getestet die heute kaum noch aktuell sind. So einen Test wünschte ich mir aber für heutige Mainstream SSDs.
Der Test war schon bei der Auswahl der SSD und dann in dem Fazit nur Intel zu empfehlen, extrem unseriös, da nur von Intel SSDs mit Stützkondensatoren verwendet wurden, mit der DC S3500 auch noch eine mit der Full-Power-Loss Protection, während man von den anderen Herstellern von Crucial die damals schon alte m4 statt der damals aktuellen m500 mit Stützkondensatoren genommen hat und im Grund wäre die Micron M500DC der passende Gegner für die DC S3500 gewesen. Aber hätte man die und dazu eine Samsung PM/SM863 oder deren Vorgänger der SM/PM Reihe genommen die auch alle Stützkondensatoren haben und diese gegen eine Intel ohne wie die 510, 520 etc. oder 330, 335 antreten lassen, so wäre das Fazit eben genau umgekehrt gewesen: Kaufe blos keine Intel SSD, nur wäre es dann ebenso unseriöse gewesen.

franzerich schrieb:
Da sehe ich einen Unterschied. Wenn ich einen Computer mit HDD vom Strom ziehe, passiert in der Regel nichts. Der Lese/Schreibkopf bleibt in der Bewegung stehen
Nein, die Köpfe werden sofort Notgeparkt, die sollte nicht auf der Platte bleiben, wenn diese zum Stehen kommt und es kann dann sehr wohl einen schwebenden Sektor geben und wenn gerade wichtige Metadaten des Filesystems überschrieben wurden, kann es im schlimmsten Fall auch den total Datenverlust geben. Meist passiert das aber nicht und es ist allenfalls die Datei defekt die gerade geschrieben wurde, aber das ist bei SSDs ganz genauso.

franzerich schrieb:
Wenn ich einen Computer mit SSD vom Strom ziehe, kann ich haufenweise Artikel finden, bei denen auch "persistente" Daten korrupt werden (u.a. Teile des Betriebssystems, oder gar die SSD gebrickt wird).
Das kann passieren, die HDDs wird dann zwar nicht gebrickt werden, aber das ist bei SSDs auch extrem selten. Hat man korrupte Dateien sind die meisten User schnell dabei diese auf die SSD zu schieben, aber es kann auch vom Filesystem kommen oder einfach durch RAM Fehler vorher passiert sein.
franzerich schrieb:
Als HDD-User erwarte ich mir einfach zumindest eine ähnliche Sicherheit für SSDs bei Stromausfall. Genau deswegen finde ich das Fehlen eines solchen PLP Schutzes bei SSDs als skandalös.
Dann kaufe Dir eine SSD die das hat, aber 99% der User von SSD die es nicht haben, werden trotzdem nie ein Problem bekommen und wie gesagt ist alleine das Vorhandensein von Stützkondensatoren eben noch keine Versicherung dagegen, es muss auch korrekt implementiert sein und ob das da bei der konkreten SSD auch ist, weiß man eben vorher nicht. Man wird allenfalls merken wenn es das nicht ist und selbst dann bleibt offen, woher die Datenkorruption wirklich kam, es muss nicht die SSD sein, auch wenn es so scheint. Ohne ECC RAM und passendes System kann schon das RAM des Rechners die Ursache sein, oder der Puffer des SATA Host Controllers oder die internen Datenpfade der SSD, die sind auch nicht bei allen gegen Bitfehler abgesichert, bei ordentlichen Enterprise SATA/SAS Controller und Enterprise HDD/SSD aber schon. Der C236M Chipsatz von Intel hat z.B. ECC für den Puffer des SATA Host Controllers, hat der Z170 den auch?

Power_loss_test.png
Ergänzung ()

franzerich schrieb:
Bei der HDD sind die Daten als Vertiefunden/Erhöhungen in der Magnetplatte vorhanden.
Nein, so ist es bei CDs, aber bei HDDs wird die Oberfläche der Scheiben ummagentisiert.
franzerich schrieb:
Die Magnetplatte wird aber nie direkt berührt.
Das stimmt so schon länger nicht mehr, heutige Datendichten erfordern Abstände im Teilkonktaktbereich und dazu werden die Enden der Köpfe erwärmt um die Abstände soweit zu senken, dass die magnetischen Kräfte noch ausreichend sind um die immer kleiner werdenden Bereiche mit den dafür auch immer kleiner werdenden Köpfen vor allem beim Schreiben noch ummagnetisieren zu können. Daher haben HDDs heute auch nur noch ein beschränktes Datenvolumen und damit ein Workload Rating, was aber anderes als bei SSDs die gelesenen Datenvolumen mit enthält.
franzerich schrieb:
Wenn Strom weg ist, passiert nicht viel, weil der Lesekopf einfach stehenbleibt.
Obwohl die Köpfe im Teilkontaktbetrieb sind, werden sie sofort bei einem Spannungsabfall geparkt und dafür wird auch die Bewegungsenergie der Platter genutzt. Außerdem steht hinter jedem Sektor auch immer eine ECC, weil Bitfehler beim Lesen von HDDs normal sind und diese sonst nicht erkannt und (meistens) korrigiert werden könnten. Wurden nun ein Teil der Daten (plus ECC) geschrieben, passt diese ECC eben hinterher nicht zu den Daten und man hat einen schwebenden Sektor.
franzerich schrieb:
Das ist keine explizite Trennung von Daten und Strom.
Keine Ahnung was Du mit dieser "expliziten Trennung von Daten und Strom" meinst, aber die Informationen werden in Form einer elektrischen Ladung, also von Elektronen, gespeichert die von einer Isolierschicht in einer Zelle festgehalten werden. Ob das nun Spannung anliegt oder nichts, ist der Ladung in den Zellen erstmal genauso egal wie der Magnetisierung der Scheiben einer HDD.
franzerich schrieb:
Folglich kann auch alles was irgendwie unkontrolliert reinkommt oder einen Mangel an Strom erleidet, unsachgemäße Ladungsverteilungen verursachen bzw. bereits vorhandene Ladungen "zerschießen"
Nein, nichts davon kann passieren, außer es gibt einen Blitzschlag oder sowas. Das Problem der NANDs ist ein anderes, nämlich deren Organisation in Pages und Blöcke. Es kann immer nur eine Page komplett gelesen oder beschrieben werden und hinter jeder Page steht wie bei einem Sektor eine HDD immer eine ECC, dafür haben die NAND dort extra mehr Kapazität die gar nicht erwähnt und bei deren Größe angegeben wird. Die Pages heutiger NANDs sind 8k oder 16k, also größer als die 4k Sektoren moderner HDDs.

Nur können NAND Zellen nicht einfach überschrieben werden, es geht pro Zelle nur in eine Richtung, man kann nur Elektronen einbringen aber keine mehr entnehmen und zurücksetzen, also Entnehmen von Elektronen und damit Löschen der Informationen geht NANDs nur blockweise und so ein Block umfasst eben 256, 512 oder auch schon mal 1024 Pages. Damit man nicht all diese Pages immer erst lesen, löschen und deren Inhalt neu schreiben muss, werden eben auch anderes als bei HDDs die Daten nicht in der Reihenfolge der Adressen abgelegt wie sie der Host anspricht, sondern irgendwo und der Controller verwaltet eine Tabelle (meist in Form einer Baumstruktur) wo er sich merkt, wo die Daten für welche Adresse (LBA) nun im NAND stehen, also die Mappingtabelle oder auch Flash Translation Layer (FTL) genannt. Die erlaubt es auch die Daten so über die einzelnen NAND Dies zu verteilen, dass die SSD überhaupt er so schnell wird, denn ein NAND Die ist gar nicht so performant und man muss auch eine Weile warten bis die angeforderten Daten dort wirklich zur Verfügung stehen.

Daher halten die Controller, von einigen ganz billigen die ohne auskommen müssen und eben auch keine tolle Performance haben, eben diese Mappingtabelle im Cache RAM, dafür dient der Cache einer SSD hauptsächlich und nicht so sehr um Userdaten dort anzulegen. Das wird vor allem beim Schreiben gemacht, damit man dann mehrere Daten auf einmal schrieben kann, wenn eine Page z.B. 16k groß ist, dann wird man nicht mit nur 4k Daten füllen wollen, dann wartet man auf weitere 12k um die Page mit einmal komplett zu füllen statt 4 Pages nur zu je einem Viertel zu füllen und danach die Daten umkopieren zu müssen. Gleichzeitig ändert sich dann auch der Inhalt in der Mappingtabelle und man will auch diese Informationen, es sind ja auch nicht viele, dann nicht jedesmal ins NAND schreiben, nur riskiert man eben Datenverlust, wenn die Kopie der Mappingtabelle im NAND nicht der im RAM entspricht und da kommt dann eben davon ab die FW das handhabt.

Dazu kommt bei MLC (und auch TLC) das Problem der Low-Page Corruption, denn die Bits der NANDs werden i.d.R. nacheinander geschrieben, erst wird ein Bit in die Zellen einer Page geschrieben, dann das zweite Bit in den Zellen der Page und wird dabei die Spannung unterbrochen, könne die Informationen der ersten Bits verfälscht sein. Nun hängt es wieder am Controller, wenn der aufpasst und da nur die Daten rein schreibt die auch zusammen bzw. zuletzt geschrieben wurden, also wahrscheinlich zu einer Datei gehören oder zumindest eben kurz vor dem Spannungsabfall geschrieben wurden, dann gehen alte Dateien die schon vor längerer Zeit geschrieben wurden, deswegen auch niemals kaputt. Nur kann man dann nicht so einen Pseudo-SLC Schreibmodus wie ihn OCZ, Toshiba und nun auch Mcrion/Crucial bei der MX200 und MX300 verwendet, nicht realisieren. Die nutzen nämlich im Gegensatz zu den festen Pseudo-SLC Schreibcaches wie sie bei TLC SSD üblich sind und wo die dafür reservierten Zellen nur immer mit einem Bit beschrieben werden, den ganzen normalen NAND Bereich um im Pseudo-SLC Modus alle freien NAND Pages erstmal mit einem Bit zu beschreiben, weil das Schreiben des ersten Bits schneller geht als das Schreiben des zweiten (oder gar dritten) Bits. Damit liegen dann aber auch in der Low Page Daten die vor längerer Zeit geschrieben wurden und dann korrupt werden können, weshalb es konsequent ist solchen SSDs auch Stützkondensatoren zu gönnen, was OCZ erst mit der Vector 180 gemacht hat, obwohl sie diese Technik schon viel früher eingeführt haben und diese ohne die Stützkondensatoren wirklich recht verantwortungslos ist.

Klar sind Stützkondensatoren ein Vorteil, vor allem wenn sie korrekt implementiert sind, was laut der Studie an den SSDs von Hersteller A der Fall war, bei Hersteller E aber eben nicht. Wenn die SSD ohne aber nur einfach einen Snapshot der Daten zeigt wie sie kurz vor dem Spannungsabfall waren und dabei ein paar der ganz kurz vorher erfolgten Änderungen weg sind, sehe ich da auch kein Problem drin, denn genau das bewirkt ja auch das Journaling des Filesystems, auch da gehen die letzten Änderungen vor dem Ausfall verloren, aber man bekommt dann wenigstens ein konsistentes Filesystem mit einem etwas älteren Stand und genauso funktionieren Backups oder die Systemwiederherstellung von Windows.

franzerich schrieb:
Wie sonst sollen auch "persistente" Daten plötzlich korrupt werden?
S.o, die Technik ist etwas anderes und vor allem viel komplexer als Du es Dir vorstellst. Die Daten selbst werden auch nur bei der Low-Page Korruption wirklich beeinflusst, aber es ist ja schon schlimm genug, wenn die Mappingtabelle korrupt wird, denn dann kann der Controller schon nicht mehr die korrekten Daten liefern die der Host lesen möchte.

franzerich schrieb:
Genau deswegen sehe ich die Power-Loss-Protection als verpflichtend an - weil diese noch eine gewisse Strom-Datentrennung erreicht, und damit die Gesamtintegrität sichert.
Wie gesagt verstehe ich nichts was Du mit dieser Strom-Datentrennung meinst und denken Du bist da auch aufgrund von total falschen Vorstellungen der wahren Ursachen von Datenkorruption bei unerwarteten Spannungsabfällen drauf gekommen.

Stützkondensatoren sind sicher vorteilhaft, sonst hätten Enterprise SSDs sie nicht. Aber nicht jede Implementierung scheint auch ihren Zweck zu erfüllen und bei den Crucial SSD damit gibt es eben leider auch vereinzelt Fälle wo sie nicht funktioniert haben, während andere SSD im Alltag nicht weniger zuverlässig arbeiten, obwohl sie keine Stützkondensatoren haben. Daher kann ich darin kein Argument für die SSDs von Crucial sehen. Jede SSD kann ausfallen, die Wahrscheinlichkeit ist bei den guten SSDs aber so gering, dass es für den Heimanwender der eine, zwei oder drei hat, aber keine Rolle spielt ob die nun bei 0,3, 0,5 oder 1% liegt, Backups sind zum Schutz vor Datenverlust immer Pflicht. Auch weil eben nicht nur HW-Ausfälle zu Datenverlust führen können, so sollen sich z.B. Verschlüsselungsviren nicht wirklich von den Stützkondensatoren einer SSD aufhalten lassen. Wer wirklich gesteigerten Wert auf Datenintegrität legt, der sollte sowieso zu Enterprise HW greifen, da Consumer HW gar nicht den Anspruch erhebt hier einen besonderen Schutz zu bieten.
 
Hallo Leute,

ich habe mir vor kurzem einen neuen PC zusammengestellt.
i7 6700K
2x 8GB Geil DDR4-3000 MHZ
512 GB Samsung m2 SSD NVME
Asus Z170i Pro Gaming
AMD RX 480

Da ich mir dann einige Steam Spiele gekauft habe, musste ich feststellen das nur noch 90GB Frei sind. Deswegen bräuchte ich noch ne neue mit rund 1TB Speicher.

Ich habe aktuell noch ein eBay Paypal Gutschein bis zum 23.07.16 und könnte so 15€ Sparen. Nach rumschauen auf eBay ist mir folgendes Angebot ins Auge geschossen -> http://www.ebay.de/itm/OCZ-Trion-10...771805?hash=item3ac2d3ecdd:g:knMAAOSwRH5XKFOJ

mit 15€ Gutschein wäre ich bei 194,99.

Kann man die OCZ Trion 100 als reine Steam Spieleablage empfehlen oder sollte ich mir doch lieber eine 850 EVO mit 1TB holen da ich ich mit größeren Performanceeinbußen rechnen muss?

Vielen Dank im Voraus!
 
Auch wenn mittlerweile die CHips von Toshiba kommen ich würde mir keine OCZ kaufen. Ich hab erst letze Woche zwei 500 GB 850 Evos gekauft und muss sagen die sind nach wie vor super und einfach die Empfehlung.

Am ende musst du wissen ob du ~75 € mehr ausgeben willst. Die Samsung bietet halt 2 Jahre mehr Garantie als die OCZ.
 
Die 850 Evo ist die bessere SSD, aber die kostet eben auch einiges mehr, als 1TB listet Geizhals sie ab 270€ und ob man bei der Nutzung für Games wirklich einen solchen Vorteil hat das sich der Mehrpreis damit rechtfertigen lässt, muss wirklich bezweifelt werden. Denn es spielt dabei weder die Schreib- noch die Leseperformance wirklich eine große Rolle. da die Daten eben meist komprimiert abgelegt sind und daher schon beim Entpacken die CPU sehr gefordert ist. Werden die Spiele aus dem Internet geladen oder von einer HDD wiederhergestellt, so dürfte selbst die Schreibrate der Trion 100 noch locker reichen und so oft sollte das ja auch nicht passieren.
 
Zuletzt bearbeitet:
Holt schrieb:
Ausführlicher Text

Oke, danke für die ausführliche Information. Hut ab vor soviel Fachwissen :D
Ich glaube nun begriffen zu haben, warum du gemeint hast, dass mit guter Firmware die SSD genauso zuverlässig ist, wie die Lösung von Crucial, die den Stützkondensator braucht, um überhaupt erst auf dasselbe Zuverlässigkeitsniveau zu kommen. Da wird eine Notwendigkeitsmaßnahme als "Feature" angepriesen :freak:
Muss man auch mal erst wissen... Insofern kann ich jetzt doch beruhigt zu den anderen hier empfohlenen Platten zugreifen.
 
Zuletzt bearbeitet:
Hallo,

ich bin Win7 User und bin damit zufrieden. Möchte aber noch den Win10 Angebot umsonst mitnehmen, da ich Win8 Lizenz habe. Dabei möchte ich keine Gefahr eingehen und Win10 auf separaten kleinen SSD installieren. Also Win7 SSD soll nicht angetastet werden.
Früher gab es immer schlechte und gute SSDs abhängig von dem Chip der darauf verbaut ist. ICh bin schon lange nicht up today, daher nur eine Frage: die Kingston SSDNow UV400 120GB taugt sie für OS Installation? ICh brauche keine Rekorde, nur vernünftig arbeitende SSD, so wie meine jetzige Samsung SSD 840

Grüße, Big ^^
 
@BigNapoleon

Auch für dich gilt das gleiche wie ich schon an Kouta geschrieben habe. Willst du etwas haben was zuverlässig ist und eine gute Garantie hat? Kauf die 850 Evo. Desweitern würde ich eine 120/128 GB SSD aus einem Grund nicht mehr kaufen. Der Preis - die Kleinen sind einfach viel zu teuer. Siehe die 850 Evo mit 120 GB (66,99) und mit 250 GB (83 €). Das ist ein Unterschied von 16 € für 50% mehr.
 
BigNapoleon schrieb:
Früher gab es immer schlechte und gute SSDs abhängig von dem Chip der darauf verbaut ist.
Die gibt es immer noch und daher empfehle ich immer noch SSDs von den Herstellern mit eigener NAND Fertigung zu kaufen.
BigNapoleon schrieb:
Dafür taugen wird sie, aber das UV stet für Ultra Value und Kingston hat selbst schon angekündigt wie bei der V300 die NANDs zu ersetzen, je nach Marktlage:
Die Ausfallraten der Kingston SSDs bei Hardware.fr sind aber trotzdem sehr gut, die NANDs scheinen also wenigstens die dort betrachteten maximal 18 Monate bei den Heimanwendern gut zu überstehen, wie lange man dann aber Ende daran Freude hat, kann heute noch nicht vorhersehen.
 
Guten Abend zusammen,

ich habe mich nun auch mal angemeldet, da ich selbst Hilfe benötige. Bin schon seit langer Zeit heimlicher Mitleser, aber bin leider kein Computerprofi.. :freak:

Und zwar benötige ich eine SSD für meinen PC. Viele schwärmen davon, deshalb ist es für mich mittlerweile eigentlich auch ein Muss.

Meine Ansprüche sind hierbei eigentlich recht gering. Möchte eben nur etwas Tempo rein bringen und möchte hier aber nicht all zu viel Geld für ausgeben.. 120GB sollten für mich erstmal komplett ausreichen, da ich nur Win7 darauf installieren möchte und die paar wichtigsten Programme.

Mein System sieht so aus:
AMD Radeon HD 7790, 1GB
AMD FX-6300
MSI 970A-G43, AMD Sockel AM3+ ATX, DDR3
8GB RAM
Cougar A 400 Watt
Seagate Barracuda 7200 1TB

Was würdet ihr mir hier denn am besten empfehlen? Möchte hier jetzt auch nicht einfach die nächst billigste SSD kaufen..

Ich danke euch schon einmal! :)
 
Hallo,

Samsung 850Evo, zweitbeste Sata-SSD

Aber bitte mindestens 250Gb kaufen, die 120GB Modelle sind im Vergleich zu den 250Gb deutlich schlechter. Außerdem ist der Aufpreis gering.
 
Ich hätte eine kleine Frage bezüglich PCIe SSDs, da ich mit dem Gedanken spiele mir eine solche zuzulegen. Leider hat mein Mainboard keinen M.2 Slot. Meine Überlegung wäre also eine Samsung 950 Pro 256GB in Kombination mit einem PCIe - M.2 Adapter im PCIe 2.0 x4 Slot zu nutzen.

Mein Board hat laut Datenblatt 1 x PCIe 3.0 x16 und 1 x PCIe 2.0 x4, dazu noch zwei alte PCI Slots. Der Punkt den ich nicht ganz verstehe ist die Lane Aufteilung. Bleibt die Lane Aufteilung bei x16 und bei x4, wenn in beiden Slots etwas betrieben wird oder switcht Slot 1 dann auf PCIe 3.0 x8 ?

System findet sich in der Signatur.
 
Zurück
Oben