News Intel verlängert Garantie für bestimmte SSDs

@ uNrEL2K: Die Tools, die diese Zeit anzeigen ;) Und meine Erfahrung. Allgemein wird das aber so eingeschätzt. Intel selbst sagt, dass 5 Jahre mit 20 GB Schreiben am Tag garantiert werden (bei der Postville). Da aber niemand 20 GB/Tag ernsthaft schreibt, kann man wohl min. von 10 Jahren ausgehen. 10 GB/Tag sind zwar immer noch relativ viel, aber weitaus realistischer. Aber das alles sind natürlich nur Schätzungen. Wahre Werte dazu wird wohl noch keiner haben. Weils halt noch keine SSD von der Sorte gibt, die so alt ist bis jetzt.
 
Also basieren die Schätzungen alle auf Hochrechnungen und dem Abnutzen des Flashspeichers. Wie lange die anderen Komponenten auf dem PCB halten wird eben nicht miteinbezogen, welche am mindestens genauso wichtig sind, für die Lebensdauer einer SSD. Imo sind die Schätzungen trügerisch. Ich gehe aber davon aus, dass die Lebensdauer = oder >= einer HDD sein kann. Somit habe ich keine Bedenken der Haltbarkeit wegen. Einen Vernünftigen Controller bzw. Firmware vorausgesetzt.
 
@ uNrEL2K:

Nein. Die Random-Writes (7,5 TB für 80er Postvilles, 15 TB für 160er => doppelte Werte für jeweils gleichgroße 320er-Modelle!) werden auch mit einbezogen. Aber richtig: Die SSD kann auch morgen kaputtgehen ;) In diesem unwahrscheinlichen Fall wäre sie dann keine 10 Jahre alt geworden. Allerdings sind das halt Ausnahmefälle. Und ich glaube, dass vor allem eines bei SSDs wichtig ist. Die Nutzungsweise! Also nicht zuballern bis zum Geht-nicht-mehr, wie es einige machen, sondern auch Luft zum Atmen lassen bitte ;) Und immer schön TRIM aktiviert lassen sowie schauen, dass die SSD auch mal "Leerlaufzeiten" hat, also nicht 24/7 den Rechner mit Spielen bedienen oder ähnlichen Workload-Szenarios. Das kann nämlich dazu führen, dass TRIM nicht ausgeführt werden kann. TRIM wird nämlich nur im Idle aktiv.

Ich habe auch keine Bedenken bezüglich der Haltbarkeit. Die Mythen, dass eine Consumer-SSD aber z.b. 150 Jahre halt oder gar noch länger, sollten hiermit aber klar ausgeräumt sein. So lange werden sicherlich nur hochpreisige SLCs halten, wenn überhaupt :)
 
ein auto ist auch nach 100.000 km auf dem tacho ist auch kein neues mehr, da regt sich keiner über die lebensdauer auf. aber gut, der ssd-lebensdauer-mythos wird natürlich nur all zu gerne von den platten-herstellern genutzt, die noch nicht auf dem ssd-zug sind.
 
Was ist den mit der Lebensdauer Abnahme Schreiben pro Zelle?



Wie kann man da die Garantie verlängern? hat man das durch Software Tools in den Griff bekommen?
 
Intel gibt für ihre Chips 5'000 Zyklen an. Die Lebensdauer einer SSD wird nicht nur durch die Lebensdauer der Chips bestimmt - das ist die obere Grenze. Wichtiger sind Ausfallraten und Anfälligkeit des Controllers und deren Firmware.
 
Und welche Rangordnung hat da welcher Controller plus seiner Firmware derzeit? Sind die Intel Controller so gut gegen Sandforce oder Marvell?

Aber die Zyklen scheine ja mit jeder kleineren Fertigung abzunehmen somit werden ja SSDs auch anfälliger besonders wenn wir mal 16nm Chips haben dann :(

Ober wir müssen dann von MLC auf SLC umsteigen die sind ja um weiten robuster noch auch unter 16nm oder 12nm später mal^^
 
Die Intel erweisen sich einfach als am zuverlässigsten. Man liest extrem wenig über Probleme und sowohl die Studie von hardware.fr als auch diejenige von Intel (sofern man dieser trauen kann) untermauern dies. Keine Bugs, kaum Ausfälle. Das kann man von den anderen Herstellern weniger behaupten.

Die Zyklen nehmen stetig ab, das stimmt. Die Kapazität nimmt gleichzeitig aber zu.
 
@Tekpoint

3000 PE-Zyklen bei einer 64GB SSD erlauben, jetzt mal großzügig gerechnet mit einer Write Amplification von 1,5 (Intel gibt zB. 1,1 an; Sandforce 0,5, wobei 0,6-0,8 bei der Verwendung als Systemlaufwerk realistischer sind), 128 TB geschriebener Daten. Ich habe auf meiner System-SSD ca. 4 TB im Jahr hinbekommen (WA 1,5 mit einberechnet). Könnte man noch 31 Jahre so weitermachen. ;)

-> Die Lebensdauer einer SSD wird höchstwahrscheinlich durch ein Versagen einer anderen Komponente auf der SSD, als durch ein Verschleißen des Flashspeichers, limitiert.
 
@ uNrEL2K:

Leider stimmt deine Rechnung nicht ganz. Sind halt alles nur theoretische Werte, oder besser gesagt, würde die SSD das nur mitmachen, wenn diese komplett leer ist. Und zwar ständig!

Du hast nämlich die Garbagecollection vergessen. Diese frisst auch. Sandforce ist da halt anders, aber ich geh jetzt von der normalen Arbeitsweise einer SSD aus mit Garbagecollection, WriteAmplifikation, sowie TRIM eben. Ohne Trim hält eine SSD eben auch nicht so lange, weil mehr Löcher entstehen und dadurch gerade bei Sandforce-basierten SSDs wieder mehr WA nötig ist. Man kann wohl sagen, dass die Kompression der Sandforces ungefähr die fehlende TRIM-Funktion ausgleicht, von der Lebensdauer jetzt gesehen. Das ist aber auch der große Fluch und Segen bei Sandforce-SSDs. Da herrscht ein ständiges Chaos auf den SSDs statt guter Ordnung. Dafür werden manche Daten (nicht alle! Z.b. ständiges Streamen von HD 264 Videos kann nicht/kaum komprimiert werden! Nur mal als Beispiel) komprimiert, was ein paar Zyklen einspart.

Was die 4 TB im Jahr angeht: Hast du mal gemessen, was du durchschnittlich am Tag an GBytes verbrauchst?

Ansonsten an die anderen:

Was die Kapazität einer SSD angeht: Stimmt, die durchschnittliche Größe nimmt mit jeder Verkleinerung zu. Allerdings kann diese "Mehrkapazität" die schwindenden Zyklen nicht annähernd ausgleichen! Das ist ne ähnliche Milchmädchenrechnung wie bei OCZ und seinem "25nm-SSD"-Debakel, wo sie eben einfach mal 5 GB mehr Spare einrechnen und dafür eben mit 5 GB weniger Kapazität ausliefern.

Die Rechnung der Lebensdauer einer SSD ist einfach, aber nicht simpel:

Je größer der freie Platz ist, umso mehr Zellen stehen dauerhaft zur Verfügung, umso weniger TRIM muss gemacht werden, umso weniger GC muss einspringen, um die SSD in Schuss zu halten. Wenn man sogar die SSDs mit verringerter Kapazität formatiert (also den Rest einfach unformatiert lässt), verbessert sich die Lebensdauer nochmal erheblich und die IOPS steigen. Das hat man kürzlich rausgefunden. Es kommt also einfach auf die Nutzungsweise des Users an:

Wieviele GBytes pro Tag schreibt er durchschnittlich? Wieviel Platz in % lässt er auf seiner SSD frei? Wieviele Ersatzzellen hat die SSD? Hat er die SSD normal formatiert, oder hat er zusätzlichen Platz freigelassen (unformatiert)?

Das vergessen viele nämlich: Je voller eine SSD, umso mehr GB an Daten müssen ständig hin- und hergeschoben werden, was eine zusätzliche Belastung für die SSD bedeutet. Und auch eine Verkürzung der maximalen Lebensdauer. Kritisch wird es dann bei 80-90%, ab der Grenze kann dann nichtmal mehr das Wear-Leveling ordentlich arbeiten. Manche SSDs machen zwar auch das problemlos mit, dies geht aber dennoch auf die Lebensdauer.
 
SmartSirius, schau dir nochmal an, was WA bedeutet.

Die Garbage Collection ist bereits in den WA-Wert miteinbezogen. Mehr dazu editiere ich später rein, muss jetzt weg. Was, wie ich glaube, nicht in der WA mit drinne ist: Wear Leveling, das statische WL konkret. Intel gibt einen Wert von 1,04 an. Da ich in meiner Rechnung eh bewusst eine höhere WA als vom Hersteller angegeben genommen habe, sollte die Rechnung aber dennoch realistisch bzw. auf keinen Fall beschönigend sein.

Sandforce ist da halt anders, aber ich geh jetzt von der normalen Arbeitsweise einer SSD aus mit Garbagecollection, WriteAmplifikation, sowie TRIM eben.

Write Amplification ist kein Feature, sondern das Verhältnis von den vom User geschriebenen Daten und der tatsächlich Menge an Daten, die auf den Flashspeicher geschrieben werden.

GC und TRIM sind Techniken, die Sandforce definitv unterstützt, aber eben etwas anders als gewöhnlich. Deshalb gibt es auch das charakteristische Einbrechen der Schreibrate. Der Sandforce-Controller ist auf maximale Schonung/Haltbarkeit des Flashspeichers ausgerichtet. Nachteil ist eben die dauerhaft absinkende Schreibgeschwindigkeit. Grund: Oft werden die durch TRIM als ungültig markierten Daten erst beim Schreiben neuer Daten gelöscht.

Die Kompression tut ihr übriges zur Schonung der Zellen. Aber Youtube (inkompressible Videodaten )belastet eine SF eben stärker, klar.

Was die 4 TB im Jahr angeht: Hast du mal gemessen, was du durchschnittlich am Tag an GBytes verbrauchst?

Nein, das macht SMART für mich. Gibt es da berechtigte Zweifel ob der Genauigkeit dieser Werte?

Wenn man sogar die SSDs mit verringerter Kapazität formatiert (also den Rest einfach unformatiert lässt), verbessert sich die Lebensdauer nochmal erheblich und die IOPS steigen. Das hat man kürzlich rausgefunden.
->richtig wäre: habe ich ;P
 
Zuletzt bearbeitet:
Bis zu welchen Puntk wird man da aber gehen können wenn die Zyklen immer weiter abnehmen und gleichzeitig Kapazität udn somit immer mehr größere Daten gespeichert udn gelöscht werden genutzt wird.

Irgendwann wird doch mal der Punkt kommen wo eine System SSD nicht mehr 31 oder 100 Jahre theoretisch halten wird von Speicherzellen her.
 
Ganz ehrlich ist ne echt informative und interressante Diskussion hier.

Aber wer hat denn noch 5 Jahre alte Speichertechnik im Rechner. Ich weiß gleich werden hier wieder welche schreien ich und ich und ich. Und diese funktioniert auch noch ganz toll und das langsam. Ich wollte damit nur sagen ihr redet hier von 31 Jahren und 100 Jahren. Vor 31 Jahren gabs ab und zu Computer mit irgendwelchen Bändern zum Speichern. Vor hundert Jahren wärst du in die Klappse gekommen oder vllt in manchen Gegenden der USA der Hexerei bezichtigt und verbrannt worden wenn man gesagt hätte es wird mal Datenspeicher geben die ohne Papier auskommen und mit grossen bewegten Bilder wiedergegeben werden.

Was ich sagen will ist, alles schön und gut aber wenn meine beiden OCZ und die neue Intel 5 Jahre halten und ich sie dann immer noch in Betrieb habe und die Schnittestellen dann noch da sind dürfen sie echt kaputtgehen. Warum? Damit ich mir was neues kaufen kann:lol:
 
Zuletzt bearbeitet:
Ja was neues kaufen musst, ist ja von der Industrie so gewollt, aber derzeit können sie schön Garantie geben da sie wissen das die meisten Leute in der zwischen Zeit eh neue Produkt kaufen werden, da ja der Fortschritt schnell ist in der IT Branche.

Mein Gedanken sind da nur, wenn immer mehr Zyklen möglich sind und man aber mehr Daten verwaltet da ja die SSDs größer werden wie lange wird sich das negative und Positive noch ergänzen bis die SSD nur noch 2 oder 3 Jahren halten.
 
@ Tekpoint: Hast du nicht gelesen? Die haben erheblich weniger Zyklen. Derzeit bei billigem 25nm Nand noch ganze 3000 - und diese wenigen Zyklen gleichen sich nicht mal eben durch verdoppelte Kapazität aus, oder zumindest nur in den wenigsten Fällen wie aktuell etwa! Das sind manchmal ganz andere Größenordnungen. Die Kapazität müsste um den Faktor 2-5 steigen, damit sich das wirklich ausgleicht. Warum? Weil ich annehme, dass du auf ner baldigen sagen wir günstigen 512 GB SSD einfach auch mehr draufpacken wirst, oder? Oder machste da 20 GB drauf und damit hat sichs? Nein, wohl kaum ;) Sonst würdeste ja nicht so ne große kaufen. Das ist ja genau das - alles theoretisch. Aber Tausende von mehr Zyklen kann man nicht mit ein paar Zentnern mehr GB wieder wettmachen.

Rechne doch mal aus:

80 GB x 5000 Zyklen = 400000 - oder 400 TB. Theoretisch natürlich. 350 in etwa sollen es wirklich sein, was so ne SSD an reinen sequentiellen Schreibzyklen wirklich aushält!

Und jetzt rechnen wir mal 160 GB x 3000 = 480000 - stimmt. Sind jetzt dann 480 TB oder etwa 400 TB bis sie ausfällt, also noch etwas mehr Zyklen. Aber rein theoretisch!

Es kommt nämlich die winzige Kleinigkeit hinzu, dass Speicher, je kleiner er gefertigt ist (also Speicherchips), fehleranfälliger wird! Dafür müssen immense ECC-Anforderungen erfüllt werden, weshalb man auch immer mehr Ersatzspeicher von der Kapazität abziehen müssen wird! Von den baldigen 512 GB SSD Modellen werden also wahrscheinlich alleine schonmal 50 GB an Spare-Area gedacht sein :D

Das alles ist eben nicht so einfach wie man es gerne hätte. Fakt ist aber: je älter die SSD, umso älter wird sie, vor allem aber, wenn es um MLC-Produkte geht! Da helfen auch Intels Techniken nichts, die Random-Write Werte auf 30 TB anzuheben, weil ich schlicht davon ausgehe, dass kein Mensch jemals solche immensen Schreibmengen an Random-Writes erreichen wird. Das ist alles nur Marketing, damit man auch neuere SSDs kauft :) Solche Werte werden wohl eher für Firmen gedacht sein.

Und gehen wir jetzt mal nen Schritt weiter bei den Zyklen: Die alte G1 hatte noch 10000 garantierte Zyklen! Wenn man also 80 GB x 10000 rechnet, ergibt sich = 800000 = 800 TB! Von denen etwa 700-725 TB als reine Schreibleistung zur Verfügung stehen, der Rest geht als WA oder Trim/Garbage-Collection drauf.

Je weiter man also bei den Zyklen auseinander driftet (und die nächste Verkleinerung mit dann nur noch 2000 garantierten Zyklen (!) steht schon bevor!) - desto kürzer wird die SSD bei gleichem Gebrauch halten. Rechnen wir mal 160 GB x 2000 Zyklen = 320000 = 320 TB = ca. 275 TB Schreibleistung. Bei ner 80 GB SSD wären wir hier nur noch bei 160 TB bzw. ca. 140 TB reiner Schreibleistung!

Rechnen wir mal mit 1000 und 500 nochmal, um bis auf Billig-USB-Stick-Niveau zu gehen:

160 GB x 1000 = 160 TB, bzw. ungefähr 140 TB bis Schreibende. Bei 80 GB wären es sogar nur 80 TB bzw. unfassbar geringe 50-60 TB! Und das bei 1000 Zyklen! Das heißt, hier sollte unterste Fahnenstange sein meiner Meinung nach. Dieser Wert dürfte dann bei etwa 5-8 nm erreicht sein.

Dann geht es noch geringer - 500 Zyklen! Alle Zahlen einfach durch 2 teilen = 40 TB bzw. 30 TB reine Schreibleistung für die 160GB-Variante (das wären ungefähr 5 Jahre), oder ganze 20 TB bzw. 15 TB für eine kleinere 80GB-Variante. Diese SSDs sollten dann wirklich nicht mehr gekauft werden. Da wäre man auch sicherlich schon bei nur noch 3-4 nm angekommen, also am Maximum erstmal.

Dann kommt sicherlich noch das Stacking später hinzu. Dann wären wieder höhere Kapazitäten ohne Verkleinerung möglich, aber - das Negative dabei: jede Zelle wird größer, somit ist die Abnutzung wesentlich schneller! Der Grund: Das Ganze wird langsam zu komplex! Je mehr Zellen in einem Speicherchip, desto mehr Chaos, desto mehr Aufwand, desto komplexer eben. Und das wiederum hat eine rapide Lebenszeitverkürzung zur Folge.

Ich schrieb ja auch: je kleiner die Zellen, desto aufwändiger (überproportionaler Anstieg) der ECC-Prozess. Desto aufwändiger und leistungsfähiger muss die Fehlerbehebung sein!

Aber letztendlich hast du im letzten Satz Recht: Das ist wohl das, auf was es schlussendlich hingeht: Verkürzte Lebensdauer, und du musst alle paar Jahre ne neue kaufen. Und die anderen kommen jetzt wieder mit dem üblichen "Bla", weil denen sonst nichts einfällt! Hallo? Ich habe eben erst ca. knappe 800 Euro für SSD-Speicher ausgegeben, eine größere ist noch geplant. Dann soll erstmal RUHE für 10 Jahre sein. Da werd ich sicherlich nicht in 3 Jahren wieder neue kaufen. Wieso sollte man auch? Neue SSDs sind nur minimals schneller als 1-2 Jahre alte! Das lohnt sich hinten und vorne nicht. Solche Vorteil merkt nämlich der Ottonormalnutzer gar nicht. Insgesamt besitze ich jetzt mehr als 5 SSDs in meinen Rechnern und habe auch über 500 GB SSD-Speicher damit. Dennoch soll nach dem letzten Kauf dann erstmal Schluss sein. Ich sehe es nicht ein, alle paar Jahre ne neue zu kaufen. Das machen andere vielleicht. Bei mir werden nur zuverlässige Dinge gekauft.
 
Tekpoint schrieb:
Ja was neues kaufen musst, ist ja von der Industrie so gewollt, aber derzeit können sie schön Garantie geben da sie wissen das die meisten Leute in der zwischen Zeit eh neue Produkt kaufen werden, da ja der Fortschritt schnell ist in der IT Branche.

Mein Gedanken sind da nur, wenn immer mehr Zyklen möglich sind und man aber mehr Daten verwaltet da ja die SSDs größer werden wie lange wird sich das negative und Positive noch ergänzen bis die SSD nur noch 2 oder 3 Jahren halten.

Das wären dann ca. 250 PE-Zyklen. (64GB SSD, 6TB/Jahr (inklusive WA)
Ob es jemals soweit kommen wird? Bevor wir an diesem Punkt sind, wird bestimmt Speicher mit anderer Technik verbaut.

@ Tekpoint: Hast du nicht gelesen? Die haben erheblich weniger Zyklen. Derzeit bei billigem 25nm Nand noch ganze 3000 -

Diese Polemik trägt nicht gerade dazu bei, die Zweifel an der Haltbarkeit von Flash zu verdrängen. Aktuell haben wir als DesktopUser überhaupt keine Probleme mit der Anzahl der maximal möglichen Schreibzyklen. "3000er-NAND" kommt von Micron, ein Hersteller, der für qualitativ hochwertigen Flash steht, genauso wie Intel. Genau genommen bauen die beiden Hersteller gemeinsam Flash -> IMFT (Intel Micron Flash Technologies)

und diese wenigen Zyklen gleichen sich nicht mal eben durch verdoppelte Kapazität aus, oder zumindest nur in den wenigsten Fällen wie aktuell etwa! Das sind manchmal ganz andere Größenordnungen. Die Kapazität müsste um den Faktor 2-5 steigen, damit sich das wirklich ausgleicht. Warum? Weil ich annehme, dass du auf ner baldigen sagen wir günstigen 512 GB SSD einfach auch mehr draufpacken wirst, oder?

Verallgemeinern ist riskant, aber die meißten Daten werden auf der SSD bleiben und nicht gelöscht und durch neue Daten ersetzt werden. -> Die Writes werden auf einer großen SSD nicht sonderlich zunehmen und somit wären die zukünftige Shrinks auf 1x nm (un die damit einhergehende reduzierung der pe-zkylen) auch nicht weiter schlimm.
 
Zuletzt bearbeitet:
@ uNrEL2K:

Also die Zyklen waren reine Spekulation ;) Es könnten auch viel weniger werden bei 5nm-SSDs, z.b 250 Zyklen oder gar nur noch 100 Zyklen ;) Schonmal daran gedacht? Das ist auch ein Grund, warum ich mir jetzt statt der günstigeren 25nm-SSD von Intel lieber noch ne größere, ausgereifte 160er dazuhole. 25nm ist mir einfach zu riskant, um es mal so zu sagen. Niemand hat bisher langjährige Erfahrungen damit gemacht :)

Ich denke daher wie Tekpoint. Schon bald wird man da an den "Point Zero" stoßen. An den Punkt, an dem SSDs quasi "Wegwerfartikel" werden. Ich mein, in 5nm werden die auch sicherlich nicht mehr viel kosten. Wer weiß? vielleicht gibts dann 1 TB SSD in 5nm zum Preis von 50 Euro? Natürlich nur geschätzt, aber möglich wäre es. Dennoch würde ich mir so eine SSD dann nie zulegen, weil eine Festplatte nunmal min. 5 Jahre in meinem System bleiben soll. Und nicht alle 1-2 Jahre gewechselt wird.
 
SmartSirius schrieb:
@ uNrEL2K:

Also die Zyklen waren reine Spekulation ;) Es könnten auch viel weniger werden bei 5nm-SSDs, z.b 250 Zyklen oder gar nur noch 100 Zyklen ;) Schonmal daran gedacht? Das ist auch ein Grund, warum ich mir jetzt statt der günstigeren 25nm-SSD von Intel lieber noch ne größere, ausgereifte 160er dazuhole. 25nm ist mir einfach zu riskant, um es mal so zu sagen. Niemand hat bisher langjährige Erfahrungen damit gemacht :)

Worauf basieren denn diese Zweifel?
34nm der G2 hielt offiziell 5000 PEs, 25nm 3000 (unter dem Label Micron) bzw. 5000 (Intel).

Dass 3000 eh vollkommen ausreichend ist, sollte doch klar sein. Und dass mehr ECC angewendet werden muss, bedeutet doch nicht, dass der Flash zusätzlich zu den reduzierten PEs, nochmals weniger Aushält.

SmartSirius schrieb:
Ich denke daher wie Tekpoint. Schon bald wird man da an den "Point Zero" stoßen. An den Punkt, an dem SSDs quasi "Wegwerfartikel" werden. Ich mein, in 5nm werden die auch sicherlich nicht mehr viel kosten. Wer weiß? vielleicht gibts dann 1 TB SSD in 5nm zum Preis von 50 Euro? Natürlich nur geschätzt, aber möglich wäre es. Dennoch würde ich mir so eine SSD dann nie zulegen, weil eine Festplatte nunmal min. 5 Jahre in meinem System bleiben soll. Und nicht alle 1-2 Jahre gewechselt wird.

Ich habe keine Glaskugel, geschweige denn viel Wissen bezüglich der Lithografie (irgendwann soll doch Schluss mit den Shrinks sein, ist 5nm überhaupt möglich?). Ich bin mir aber ziemlich sicher, dass Intel niemals irgendwelche "Wegwerfartikel" produzieren wird, die maximal 1-2 Jahre halten. Flash wird eh früher oder später durch bessere Technologien abgelöst.
 
Irgendwie verstehe ich den Sinn dieser Unterhaltung nicht.

"Es könnten auch viel weniger werden bei 5nm-SSDs, z.b 250 Zyklen oder gar nur noch 100 Zyklen Schonmal daran gedacht? Das ist auch ein Grund, warum ich mir jetzt statt der günstigeren 25nm-SSD von Intel lieber noch ne größere, ausgereifte 160er dazuhole. 25nm ist mir einfach zu riskant, um es mal so zu sagen. Niemand hat bisher langjährige Erfahrungen damit gemacht"

Das stimmt. Und je größer sie dann werden, desto mehr wird geschrieben oder? Halt moment, richtig. Selbst WENN die SSD 1000GB fassen WÜRDE, so würde ein normal-User diese niemals ausreizen. Warum? Weil er vielleicht das Ding zwar vollschreibt mit in meinen Augen Sinnlosdaten wie Videos, Musik und Spielen, diese dann auch wunderbar schneller starten, das aber dann nur Leseleistungen sind. Und bei Videobearbeitung sind soviel ich weiss die CPUs noch das Langsamste. Von SSD auf SSD zu wandeln wäre daher auch nicht sinnig. Und zuletzt bin ich noch der Meinung, dass wenn diese 1TB SSD rauskommen würde, eine viel größere Festplatte zu haben ist mit evtl. 5-6TB.

"Dennoch würde ich mir so eine SSD dann nie zulegen, weil eine Festplatte nunmal min. 5 Jahre in meinem System bleiben soll. Und nicht alle 1-2 Jahre gewechselt wird. "

Deine Festplatte halten ALLE 5 Jahre? Garantiert? Und wenn eine ausfällt? Hast du auch eine schöne Datensicherung? Und wenn ja: Warum? Immerhin halten die Dinger doch 5 Jahre, und haben evtl. sogar eine 5 Jahre Herstellergarantie (die dir beim Ausfall gar nichts bringt, weil deine Daten dann einfach weg sind).

Und dann ist es eben nicht mit einer SSD getan, sondern wie momentan üblich mit 2. Eine Daten, eine Sicherung.

Denn die 5 Jahre Herstellergarantie sind so brauchbar wie die MTBF, welche einem nichts bringt wenn die Platte/SSD nach 2 Jahren einfach den Geist aufgibt. Ja, man bekommt zwar eine neue, gleichwertige, aber die Daten sind erstmal futsch.

"Ich bin mir aber ziemlich sicher, dass Intel niemals irgendwelche "Wegwerfartikel" produzieren wird, die maximal 1-2 Jahre halten."

Auch ich glaube das nicht. Es wäre einer der Hersteller, die es sich einfach leisten könnten selbst bei einer höheren Ausfallrate eine solche Garantie zu gewähren. Einfach weil genug Geld dahinter steckt um um die Konkurenz auszubooten.
 
Zurück
Oben