SSD Preistalfahrt wie lange noch?

Unterliegen die NANDs und Controller von SSDs nicht auch starken Schwankungen bzgl. der Wärme und damit Wärmeausdehnung, die die Lötstellen belasten?
 
Kalte Lötstellen sind eigentlich nur mehr sehr selten eine Fehlerquelle. Moderne Schwalllötverfahren, zum Teil auch unter Schutzgas dürfen recht solide sein.

Bei der Wärmeausdehnung spielt ja auch die Bauteilgrösse eine Rolle und die Anzahl der Kontaktpunkte, und der Temp.Bereich einer SSD von normal Raumtemperatur (20-25 Grad) Betriebstemp 30-40 Grad und max. 50-70 Grad dürfte da kaum Auswirkungen haben.

Viel schlimmer sind Kontaktstellen, die mechanischen Belastungen wie früher Hochspannungstrafos im TV ausgesetzt sind, da gabs des öfteren kalte Lötstellen.
 
Komisch nur, dass gerade Grakas immer wieder erfolgreich durch "Aufbacken" reanimiert werden konnten, wenn auch meist nur für eine begrenzte Zeit, aber es deutet dann sehr klar auf eine kalte Lötstelle als Ursache des Ausfalls hin.
 
Welche Chip Temp erreicht ein Graka Chip und welche ein Flash Chip?

Sind auf einer GraKa eventuell DC/DC Wandler?

Verursachen die Lüfter auf einer GraKa Vibrationen ?

Kann das hohe Gewicht der GraKa inkl. Kühlkörper mechanische Spannungen am PCB erzeugen?

Macht es Sinn, eine Komponente die unter Last schon auch mal 1 kWh verheizt, mit einer anderen Komponente die unter Volllast etwa 1 - 5 Watt zieht zu vergleichen?
 
Zuletzt bearbeitet:
Es geht weniger um die NAND Chips als mehr um den Controller und ja, auch SSDs haben DC/DC Wandler, denn die 2.5" SSDs werden normalerweise immer mit 5V versorgt, die Controller (und die mSATA/M.2) aber mit 3,3V, (einige Controller auch nur noch mit 2,5V), die NANDs arbeiten üblicherweise mit so 1,6 bis 1,8V ( die wandelt der Controller) und brauchen dann so um die 20V beim Schreiben und Löschen. Es sind da also genug Teile verbaut die man auch auf Grakas und Mainboards findet und auch wenn sie bei SSD nur mit ein paar Watt beansprucht werden, so sind sie ja auch viel schwächer dimensioniert und oft gar nicht gekühlt.

Wie lange die bei welchen SSDs jeweils durchhalten, weiß ich nicht. Aber es gibt mehr Komponenten auf einer SDD als alleine die NANDs die irgendwann zu deren Ausfall führen können und man sollte nicht nur die sich aus der Geschwindigkeit des Verbrauchs der P/E Zyklen der NANDs ergebende Lebenserwartung im Blick haben, sondern auch deren tatsächliches Alter.
 
Holt schrieb:
Es sind da also genug Teile verbaut die man auch auf Grakas und Mainboards findet und auch wenn sie bei SSD nur mit ein paar Watt beansprucht werden, so sind sie ja auch viel schwächer dimensioniert und oft gar nicht gekühlt.

Dies liegt in der Verantwortung des Konstrukteurs und auch des Kaufmanns - wie eigentlich bei allen Dingen. Solide Konstruktion und richtig bemessene Bauteile, die idealerweise auch von guter Qualität sind, erhöhen zumindest die durchschnittliche Lebensdauer und reduzieren die Ausfallwahrscheinlichkeit eines Produkts.

Aber bei der Produktion schleichen sich auch immer wieder Billigkomponenten oder Produktionsfehler ein, wie vor einigen Jahren, als bei Flatscreens eine ganze Serie von schlechten/falsch dimensionierten Kondensatoren im Schaltnetzteil verbaut wurde, die nach gut 2 Jahren serienweise ausfielen. Da hilft nur eine entsprechende Qualitätskontrolle in der Teilebeschaffung und Fertigung.

Nachtrag: Diese ewige Bedenken wegen der P/E Cycles habe ich eigentlich nie verstanden. Die sinnlose Angst eine SSD "kaputtzuschreiben" kommt meiner Meinung nach. noch sehr stark aus der Anfangszeit als zB OCZ mit dem Sandforce Controller immer wieder den Anwendern sagte, man solle nicht zu viel Benchmarken, da dann relativ schnell die Performance einbricht. Zum anderen kommen die unbegründeten Bedenken meist aus dem Nichtwissen, wie viele bzw. eher wie wenig Daten im realen Betrieb eigentlich wirklich geschrieben werden.

Bei guten aktuellen SSDs die mit mehreren 100 TBW Garantie Leistung verkauft werden, sollten eigentlich bei üblicher Anwendung für Jahrzehnte ausreichend sein. Ob die HW solange durchhält sollte auch keine Frage sein, dafür wurde das Backup erfunden.


2. Nachtrag - da gerade wieder gelesen - Serienfehler mit Datenverlust und Ausfall der SSD

https://winfuture.de/news,106041.html
 
Zuletzt bearbeitet:
juenger schrieb:
Diese ewige Bedenken wegen der P/E Cycles habe ich eigentlich nie verstanden.
Die habe ich auch nie nachvollziehen können, aber alle möglichen Ratgeber mit Tipps zur Vermeidung von Schreibzugriffen auf die SSD, die man angeblich zum Schonen der NANDs brauchen würde, konnten damit gut an den Mann gebracht werden. Dabei war der Umsprung der Vermeidung von Schreibzugriffen gar nicht die NANDs zu schonen, sondern weil die ersten SSD Controller nur bessere USB Stick Controller waren und wie es diesen heute noch üblich ist, gerade zu kurzen zufälligen Schreibzugriffen eine unterirdische Performance brachten (zusammen mit einer extrem hohen Write Amplification). Beim Schreiben waren HDDs schnell und der damals recht verbreitere JM602 konnte sich bei Schreibzugriffen schon mal 2s Bedenkzeit nehmen, da würde ich auch Schreibzugriffe möglichst vermeiden, damit der Rechner nicht dauernd einfriert. Nachdem mit dem ersten Intel, dem Indilinx Barefoot und dem ersten Sandforce dann aber die modernen SSD Controller erschienen sind, war das Thema eigentlich durch, die konnten dann bei 4K QD1 Schreibend statt nicht einmal 1MB/s dann 50 bis 100MB/s erreichen, mehr als in der gleichen Disziplin lesend.

Statt die Ratgeber einzustampfen wurden sie dann recycelt und das Schonen der NANDs zum Ziel erklärt, was nicht wenige blind übernommen haben ohne überhaupt die Notwendigkeit zu hinterfragen.
juenger schrieb:
als zB OCZ mit dem Sandforce Controller immer wieder den Anwendern sagte, man solle nicht zu viel Benchmarken, da dann relativ schnell die Performance einbricht.
Was aber aber einer Eigenart des Sandforce lag, die man eigentlich nur als Designfehler erklären kann. Der Sandforce hat zur angeblichen Schonung der NANDs die Blöcke immer erst gelöscht, wenn auch gerade ein Schreibvorgang in Gange war, nicht wie andere schon im Idle. Obendrein hat seine Idle-GC auch nicht den ganzen RAM Bereich aufgeräumt, sondern nur einige GB, angeblich so viel wie als Spare Area ab Wert vorhanden war. Wieso dies die NANDs schonen soll, wurde nie erklärt und ich kann mir bis heute keinen sinnvollen Grund für dieses Vorgehen vorstellen.

Daher hatten SSD mit dem Sandforce Controller nur im Neuzustand, wenn es also noch leere NAND Pages gab die direkt beschreibbar waren ohne die Blöcke vorher zu löschen, die volle Schreibperformance, danach fiel diese um ein Viertel bis ein Drittel (je nach verbautem NAND) ab, was dann als Normalzustand bezeichnet wurde und nur mit einem Secure Erase konnte man wieder die vollen Schreibrate bekommen, weshalb sich bis Heute der Mythus hält man würde nur damit die besten Performance zurückbekommen.

Da aber eben auch nur ein Teil dessen aufgeräumt wurde was gerade bei einer SSD mit TRIM möglich wäre, brauch die Schreibraten dann nach einigen GB weiter ein und die Idle-GC war sehr lahm, während bei anderen SSDs mit TRIM nach recht kurzer Zeit (einige Dutzend Sekunden bis wenige Minuten) die volle Schreibrate (Pseudo-SLC Schreibcaches gab es damals noch nicht) für die ganze freie Kapazität wieder zur Verfügung stand, dauerte es beim Sandforce gerne Stunden. Bei wiederholtem Benchen wären die Kunden dann schnell mit diesen negativen Eigenarten des Controllers konfrontiert worden, also hatte man ihnen geraten dies zu lassen, zumal bei den SSDs von OCZ auch noch das Durawrite aktiviert war, welches die Schreibraten wenn zu viel auf die SSD geschrieben wurde und sonst die Gefahr bestanden hätte, die NANDs vor dem Ende der Garantie zu verschleißen, denn bei der Qualität der verbauten NANDs war OCZ ja nicht sehr wählerisch.

Die Sandforce hatte übrigens auch keinen DRAM Cache, aber offenbar recht viel internes RAM, aber bei größeren Kapazitäten oberhalb ich meine 256GB vielen die IOPS beim Benchen über 85% des Adressraumes mit IOMeter dann trotz dessen Datenkompression deutlich ab. Da war dann doch der Effekt zu sehen das eben immer wieder Teile der Mappingtabelle nachgeladen werden müssen, wenn Zugriffe über einen großen Adressraum erfolgen.
juenger schrieb:
Zum anderen kommen die unbegründeten Bedenken meist aus dem Nichtwissen, wie viele bzw. eher wie wenig Daten im realen Betrieb eigentlich wirklich geschrieben werden.
Eben, man hat damals bei den meisten Users die ihre S.M.A.R.T. Werte gepostet haben, so etwa 2 bis 3TB/Jahr an Schreibvolumen gesehen, selten mal mehr als 10TB/Jahr. Wenn man bedenkt das es damals oft 60 bis 128GB große SSDs waren, so dürften die heute längst als zu klein ausrangiert worden sein und selbst wenn heute eine 500GB doppelt oder dreimal so viel im Jahr schrieben muss weil die Datenvolumen gestiegen sind, so wird damit auch keine eine ordentlich SSD kaputtgeschrieben bekommen.
juenger schrieb:
mit mehreren 100 TBW Garantie Leistung verkauft werden
Die Bezeichnung finde ich irreführend, denn die TBW werden ja eben nicht garantiert, sondern sie beschränken eben die Garantie nur zusätzlich, was OCZ damals bei denen mit Sandforce über das Durawrite gemacht hat, denn die Einschränkungen der Garantie über die TBW waren damals noch nicht üblich. Wenn eine SSD nun aber 100TB TBW hat und 5 Jahre Garantie, so wird man nach 6 Jahren dann in Röhre schauen wenn diese kaputt ist, aber eben noch keine 100TB geschrieben hat. Wären die TBW wirklich garantiert, dann müsste es aber anderes sein, von daher kann ich die TBW eben nicht als eine garantierte Leistung ansehen und würde sie so nicht bezeichnen.
 
Für viele Anwendungen sind imho 60 oder 120GB Storage immer noch weit ausreichend. Nicht jeder Anwender braucht TB um Medien-Dateien oder Games zu speichern. Der ganz normale Office, Surf oder Schulungs PC - was soll da viel drauf. Sicher, die Preisgestaltung liegt heute klar bei 250+ GB Laufwerken, aber da bleibt oft viel Platz leer.

Auch durch NAS, Fileserver, Streaming oder Cloud Storage ist in vielen Anwendungsfällen gar nicht mehr so viel local Storage notwendig.

Das mit den Werbeangaben der TBW sehe ich ähnlich wie bei Kraftfahrzeugen - bis zu 5 Jahre oder 50.000 km
Das heißt ja nicht das der Wagen bei 50.001 km Laufleistung stehen bleibt und kaputt ist. Früher war aber so etwas ähnliches wie TBW gebräuchlich, als man die durchschnittliche Tages-Write Menge von 20 - 30 GB/Tag als Maßstab nahm. Heute sind es eben TBW.
 
120 oder gar 60GB sind für eine Windowsinstallation nicht üppig und als dies noch die üblichen Kapazitäten waren, da gab es hier laufen Thread mit der Frage wo der Platz geblieben ist, weil die SSD plötzlich voll ist. Derartige Thread sind nun so gut wie gar nicht mehr zu finden, seit 250GB auch für Einsteiger die übliche Größe geworden sind. Wenn man sich auskennt, also weiß wie man die Pfade für Installation einstellt und regelmäßig aufräumt, kann man auch jahrelang mit 60GB für sein Windows auskommen, aber die meisten kennen sich damit nicht gut genug aus und haben auch keine Lust ständig aufzuräumen.
Ergänzung ()

juenger schrieb:
Das mit den Werbeangaben der TBW sehe ich ähnlich wie bei Kraftfahrzeugen - bis zu 5 Jahre oder 50.000 km
Richtig, es ist genau das Gleiche.
juenger schrieb:
Das heißt ja nicht das der Wagen bei 50.001 km Laufleistung stehen bleibt und kaputt ist. Früher war aber so etwas ähnliches wie TBW gebräuchlich
Wann gab es das? Die TBW waren früher wie bei Enterprise SSDs angeben und auch dort sind sie entweder auf den Worst Case bezogen (random 4k writes über das volle Laufwerk) oder auf den von der JEDEC genormten Workload für Enterprise SSDs. Bei den meisten Consumer SSDs geben die Hersteller nur die TBW künstlich gering an um die Enterprisenutzer vom Kauf von Consumer SSDs abzuhalten, gerade bei Modellen die auch von der Performance her für schreibintensivere Enterpriseanwendungen her Interessent sind.

Einige Hersteller nutzen aber auch hohe TBW Angaben als Werbung, dann sind solche Aussagen die die TBW mit einem garantierten Schreibvolumen in Verbindung bringen besonders irreführen, denn das sind meist SSDs deren Schreibperformance unter Last so mies ist, dass kein Anwender der eine Anwendung hat bei der diese TBW innerhalb der Garantiedauer (die ist dann meist auffallend kurz) erreichen könnte, die SSDs dafür einsetzen würde. Damit gehen die Hersteller dann gar kein Risiko ein, denn die miese Performance schützt sie davon wirklich kaputtgeschrieben zu werden.
 
Zuletzt bearbeitet:
Klar 60GB sind durchaus knapp, aber mit 120 aufwärts kommt man bei Client Anwendungen gut zurecht.

Holt schrieb:
Wann gab es das? Die TBW waren früher wie bei Enterprise SSDs angeben und auch dort sind sie entweder auf den Worst Case bezogen (random 4k writes über das volle Laufwerk) oder auf den von der JEDEC genormten Workload für Enterprise SSDs. Bei den meisten Consumer SSDs geben die Hersteller nur die TBW künstlich gering an um die Enterprisenutzer vom Kauf von Consumer SSDs abzuhalten, gerade bei Modellen die auch von der Performance her für schreibintensivere Enterpriseanwendungen her Interessent sind.

Das war zu Intel X25 / bzw. Series 320 Zeiten eine Einschränkung der erweiterten 5 Jahres Garantie auf typical Client Workload von 20 GB/Day:

Consumer retail boxes carry the five-year limited warranty based on an average usage model of 20GB of writes per day for five years.

https://www.pcworld.com/article/228332/intel_ups_warranty.html

Ist aber schon lange her.
 
Jaja, die gute alte 320er. Das Limit für Consumerwrites war aber auch sinnvoll, da sich immer wieder Menschen finden die alles was Sie in die Finger kriegen sinnlos "kaputtschreiben".
 
Zurück
Oben