Readspeed degradation 2022 kein Thema mehr ? Von wegen ! MP510 -> 14MB/s ! 980pro auch nicht ohne Probleme...

Salierfähig schrieb:
Was soll daran Pro sein, wenn der Controller nicht seine Arbeit vernünftig verrichtet?
Der Controller, bzw. die FW macht alles richtig. Nur deren Arbeitsweise und die Erwartungen der User hier driften auseinander.

Bei den SSDs gibts einen Zielkonflikt zwischen Geschwindigkeit und Haltbarkeit. Beides möglichst gut geht nicht. Die normale Verhaltensweise ist, dass Daten gelesen werden und wenn die Bitfehlerrate zu hoch ist, dann wird refreshed durch umkopieren der Daten. Das verschleißt die SSD. Daher wird das nicht ohne Grund gemacht. Fehlerkorrektur kostet Zeit, daher wird das Lesen der gleichen Daten über Zeit langsamer ohne das die FW immer was dagegen unternimmt bis die Grenzwerte der Lesefehler überschritten ist.

Die Erwartungshaltung der User ist aber, dass die SSD immer, über alle Daten, möglichst die beworbene Datenrate beibehält. Das ist komplett illusorisch, das schafft keine SSD in allen Lebenslagen.

Neben der Alterung der Daten und die damit einhergehende Fehlerkorrektur gibts bei SSDs auch noch eine große Abhängigkeit davon wie die Daten geschrieben wurden. Und zwar nicht nur beim aktuellen Schreiben sondern auch beim vorherigen Schreiben. Hier gibts von Swissbit eine gute Erklärung dazu.

Das zumindest zu den normalen Abweichungen. Wenn es wirklich extreme Unterschiede gibt wie von OP damals festgestellt, könnte es natürlich schon an einem ungünstig gesetzten Schwellwert für die Bitfehlerrate beim Lesen liegen. Aber an sich brauch niemand Angst haben, dass die Daten nicht mehr lesbar werden durch zu faule FW.
 
  • Gefällt mir
Reaktionen: Banned
Chuuei schrieb:
Bei den SSDs gibts einen Zielkonflikt zwischen Geschwindigkeit und Haltbarkeit.
Intel Postville G2 160GB, 14 Jahre alt:
CrystalDiskInfo_20230920101052.png


Und jetzt machen wir mal eine Worst-Case Rechnung mit einer 1TB SSD:

  • SSD ist komplett vollgeschrieben
  • Daten werden nie verändert
  • automatischer Refresh bei Daten, die länger als ein viertel Jahr unverändert blieben (Taskplaner-Empfehlung von Diskrefresh)

Das macht nach einem Jahr 4TBW, nach 5 Jahren (häufige Garantielaufzeit) 20TBW. Aktuelle 1TB SSDs sind wohl mit 300TBW bis über 1000TBWs bis zur Garantieerlöschung mit dabei.

Und diese Anzahl an TBW für den Refresh ist wie gesagt Worst-Case. Wer verändert denn seine Daten auf seiner SSD nie und schreibt diese komplett voll? Bei normalen System- und Spiele-SSDs passiert das jedenfalls nicht. Da kommt immer mal ein Patch, der was verändert und volle SSDs will man aus Schreibperformancegründen sowieso nicht haben.
 
Zuletzt bearbeitet:
Ich hab meine beiden SSDs inzwischen noch ein paar Mal gescannt. Es ist interessant, wie deutlich die erreichten Werte bei mir zwischen den einzelnen Messungen abweichen.
Irgendwie scheinen wir ja die einzigen (mehr oder weniger) zu sein, die ein Problem sehen. Vielleicht ist ein Tool, welches für SATA SSDs geschrieben wurde nur bedingt für aktuelle NVMEs geeignet. Also letztlich müsste es doch eigentlich schon viel mehr Datenverlust und entsprechende Berichte gegeben haben. Klar, hier sind einige SSD, die sind über weite Bereiche auf zweistellige Raten runter, aber auch viele, bei denen es vllt nicht ganz so eindeutig ist, und wie die Firmware genau funktioniert, dass wissen wir halt nicht. Vllt ist es einfach so, dass die Toleranzen seitens der Hersteller da höher sind, als die von uns geneigten Nerds mit etwas perfektionistischem Herangehen?!
Die Tools, die in diesem Thread verwendet werden (read speed tester, my defrag, diskrefresh) sind jedenfalls absolut uralt und weit vor den aktuelle SSD geschrieben. Wer weiß, was da am Ende wirklich gemessen wird.
Bei den MP510 hier im Thread ist es ja schon beeindruckend, so beeindruckend, dass die doch eigentlich in der freien Wildbahn wie die Fliegen sterben müssten...
 
  • Gefällt mir
Reaktionen: Engaged
qiller schrieb:
Und jetzt machen wir mal eine Worst-Case Rechnung mit einer 1TB SSD:

Ich weiß ehrlich gesagt nicht genau, was du mit deiner Rechnung sagen möchtest.

automatischer Refresh bei Daten, die länger als ein viertel Jahr unverändert blieben
Hier steckt ein grundlegender Denkfehler drin. Eine SSD hat keinerlei durchgehende Zeitbasis. Ob zwischen Ausschalten und Anschalten ein Jahr oder tausend Jahre vergangen sind, ist für die SSD komplett gleichwertig, die hat keinerlei Zeitgeber womit die das feststellen könnte und auch alle gängigen Protokolle wie SATA, NVMe, SCSI, etc. bieten keine Möglichkeit solche Informationen zu kommunizieren. Daher sind sämtliche Ideen die in die Richtung gehen, die SSD könnte doch nach Zeitraum X irgendwelche Aktionen machen, einfach nicht möglich. Die SSD hat kein Konzept davon wie alt Daten sind. Selbst vom Konzept Dateien weiß die SSD nichts, alles sind gleichwertige Daten.

Klar steht es dir frei durch Zusatzsoftware Aktionen anzustoßen(oben dein Beispiel per Taskplaner), aber hier wird ja drüber diskutiert das die FW dumm ist und doch mal gefälligst was selbst machen soll. Und das kann sie anhand von Zeit halt nicht.

Daher hat die FW als Metrik einfach nur, wie schwer ist es die Daten zu lesen, wieviel Fehlerkorrektur ist notwendig. Wird es zu schwierig und damit ein Zeichen die Daten sind zu sehr degradiert, wird refresht. Und danach sind die Daten wieder ruck zuck lesbar. Was anderes kann die FW nicht machen.

Würden die Hersteller den automatischen Refresh viel früher triggern, würden die Laufwerke nicht mal annähernd auf ihre jetzigen TBW Angaben kommen. Aber die TBW spielt eine Rolle bei der Gewährleistung, Datenrate nicht. Daher sind die langsamen Datenraten über die Zeit ein Mittel die versprochenen TBW zu erreichen. Das die Datenrate leidet ist dabei ja komplett egal, weil da rein gar nichts versprochen wird seitens der Hersteller. Die maximalen Datenraten erreicht man einmal Fresh out of the Box und danach eh nie wieder. Mangels Zeit und Rückgabeverträge etc. machen ja auch die allermeisten Testseiten, inklusive Computerbase, quasi keine Tests die zeigen wie sich das Drive im Steady State im späteren Leben mal verhalten würden. Würde sowas aufgezeigt werden, wären Leute hier nicht verwundert über die geringe Lesegeschwindigkeit die hier manche beobachten.
 
  • Gefällt mir
Reaktionen: Banned und massaker
Mich hat das ganze hier letztlich v.a. daran erinnert mal wieder die Bilder des aktuellen Jahres in meine Strato cloud hochzuladen. Ansonsten liegen sie zu Hause auch noch auf harter Platte und einer vllt dann doch nicht so soliden externen Disk von WD. 🙃
 
noway schrieb:
Es ist interessant, wie deutlich die erreichten Werte bei mir zwischen den einzelnen Messungen abweichen.
Das Tool ist prinzipiell nicht schlecht, aber mit Vorsicht zu genießen. Das Alter der Dateien wird eben nur ausgelesen wie in Windows hinterlegt und wenn man da einen wilden Dateimix rumliegen hat können da auch größere Schwankungen zwischen Tests auftreten. Deswegen sollte man schon ins Log schauen und eben nach überschneidungen bei identischen Dateien suchen oder zumindest Vergleichbaren Dateitypen. Zudem kann es tatsächlich passieren das man durch den Read den Controller zum auffrischen animiert.
Einfach so zwei Screenshots vorher/nacher können zwar schon eine Tendenz aufzeigen aber sind eben nichts absolut sicheres.
 
Chuuei schrieb:
Wird es zu schwierig und damit ein Zeichen die Daten sind zu sehr degradiert, wird refresht.
Spielt ja keine Rolle, nach welcher Metrik refreshed wird. Von mir aus auch nach Fehlerrate. Ist vlt sogar noch genauer, da dann auch wirklich nur die Blöcke refreshed werden, die einen gewissen Schwellenwert überschreiten. An der geupdateten 840 Evo sieht man doch auch, dass es geht. Wo liegt jetzt das Problem, diesen Mechanismus auf andere SSDs zu übertragen. Ich mein an der 980Pro sieht man ja, dass selbst Samsung das nicht richtig im Griff hat, obwohl sie wissen, wie sie diese Readspeed Degration unterbinden könnten.

Edit: Hätt ich mal dochn Intel-System mit Optane Phasenwechselspeicher geholt :x
 
Moin,

ich hatte mir das mal durchgelesen und mich auch mal dabei versucht mit meinen SSDs, die häufig eher in Richtung Enterprise-Produkte gehen...

Eine Messung mit dem Speed Tester, dann einmal MyDefrag Data Disk Monthly, danach nochmal den Speed Tester.

Vorher:
2023-09-23 09.09.53 Results for C.png

Nachher:
2023-09-24 16.32.27 Results for C.png
Die Micron hat nicht davon profitiert, aber es hat auch nicht geschadet. Insgesamt eine Nullrunde, den Verschleiß an der SSD hätte ich mir sparen können.

Vorher:
2023-09-23 09.46.43 Results for D.png

Nachher:
2023-09-24 19.28.59 Results for D.png
Hier hat es tatsächlich was gebracht, wobei eine Verlangsamung auf ca. 1700 MB/s mit kaum Dateien die langsamer waren für mich nicht wirklich ein Problem ist. Solange das alles im vierstelligen Bereich bleibt, bin ich glücklich.

Vorher:
2023-09-23 10.46.10 Results for D.png

Nachher:
2023-09-25 18.34.42 Results for D.png
Das ist bestenfalls eine Nullrunde und eher eine Verschlechterung. Kann ich mir sparen.

Vorher:
2023-09-23 13.25.17 Results for D.png

Nachher:
2023-09-27 12.40.17 Results for D.png
Das hat nicht nur die Gesamt-Geschwindigkeit verschlechtert für minimale Verbesserungen bei einigen kleinen Dateien, sondern das hat laut CrystalDiskInfo den 'average block-erase count' um locker 6 oder 7 erhöht.
Auch die geloggten Schreibvorgänge sind um ~10TB gestiegen - obwohl die SSD nur mit 5TB an Daten befüllt ist.
Hier würde ich sagen - eindeutiger Schaden, nie wieder.


Insgesamt sind alle meine SSDs die ich getestet habe irgendwo zwischen 'minimaler Nutzen' bis 'schadet nur'. Das Thema ist damit für mich erstmal abgehakt - hoffentlich muss ich es nicht nochmal für die zuletzt gekaufte Lexar NM790 wieder auskramen.
 
Meine Erfahrung ist, dass es eher einen Zusammenhang mit der Größe der Speicherzellen gibt. MLC-SSDs von anno dazumal sind prinzipbedingt immun, bei den ersten TLC-SSDs wurde es noch einigermaßen im Griff gehalten. Erst die neuesten TLC- und QLC-SSDs mit ihren winzigen Zellen haben besagten Zielkonflikt, der aufgrund der begrenzten Zahl an Schreibvorgängen wohl immer öfter zugunsten der Haltbarkeit entschieden wird. Es sind aber nicht "alle" SSDs gleichermaßen betroffen. WD und Samsung sind hier gute Beispiele. Die 850 Evo und 860 Evo kennen das Problem aus meiner eigenen Erfahrung auch nach Jahren überhaupt nicht, die WD Blue 3D hingegen ist massivst betroffen. Beide nutzen vergleichbare Technologie und entstammen dem gleichen Entwicklungszeitraum. Es geht also sehr wohl, und die Samsungs sind nun nicht gerade bekannt dafür, verfrüht wegen zu hoher Schreiblast zu sterben. Ich bin gerade dabei, meinen Satz 1TB-SSDs (drei SSDs unterschiedlicher Hersteller für ein Original und zwei Backups) durch 2TB zu ersetzen. Samsung und Crucial habe ich schon durch gleichartige Modelle ersetzt, die WD Blue 3D bekommt keinen Ersatz aus gleichem Hause mehr. Mangels Alternativen werde ich wohl zu einer Transcend greifen. Schlechter als die WD kann sie kaum sein, vielleicht aber besser, und ich werde keine SSD kaufen, von der ich schon vorher mit Sicherheit weiß, dass sie schlecht ist.

Und mal ehrlich: Eine Samsung 870 Evo 1TB hat 600TB garantierte Schreiblast in 5 Jahren. Das bedeutet rund 0,3 Drive Writes per Day. Alle sechs Monate mal die komplette SSD zu refreshen, ist nicht mehr als ein Tropfen auf den heißen Stein. Das verbraucht von den 600TB ganze 10TB in fünf Jahren.
 
Zuletzt bearbeitet:
Nope, die erste generation TLC hatte das Problem recht massiv, siehe 840 Evo.
 
  • Gefällt mir
Reaktionen: whtjimbo
War die 2te.

Habe hier beide, die 840 und 840 Evo. Bei der 1ten Generation 840 Basic war ReadSpeedDegeneration um einiges besser als bei der Evo und eigentlich nur messtechnisch wahrnehmbar.

Unterschied:
21nm-TLC-Zellen bei 840 Basic und
19nm-TLC-Zellen bei der 840 Evo

Zeigt wie abhängig die Leserate über einen größeren Zeitraum bei unveränderten Daten von der Zellen-Größe ist. (oder wie viele Elektronen zum Speichern pro Zelle vorhanden sind)

Bzw wie lange es dauert bis die Fehlerkorrektur eingreifen muss, und wie umfangreich die Eingriffe werden bis die Leserate auf ein inakzeptabeles Niveau fällt.
 
Die Basic hat(te) das gleiche Problem und erst später den fix bekommen. Mein Bruder hatte die damals als Systemplatte und das war mehr als offensichtlich dass die nicht rund lief.
 
Chuuei schrieb:
Daher hat die FW als Metrik einfach nur, wie schwer ist es die Daten zu lesen, wieviel Fehlerkorrektur ist notwendig. Wird es zu schwierig und damit ein Zeichen die Daten sind zu sehr degradiert, wird refresht.
Schön wäre es. Wenn die FW sowas in einer entsprechenden Anzahl an gelesenen Zellen feststellt, könnte sie durchaus auf die Idee kommen, alle genutzten Sektoren/Flash-Zellen zu prüfen und, falls nötig, zu refreshen. Genauso könnte sie diese Leseprüfung nach einer gewissen aktiven Zeit selber durchzuführen. Da die SSD ihre Betriebsstunden protokolliert, könnte sie sowas, plus eine gewisse Statistik über die übliche Nutzungszeit einer SSD im Heimbereich, auch als "Zeitgeber" für ihre automatische Prüfung nutzen.

Da das ganze anscheinend alle Flashzellen brtrifft und sich durch ein reines Lesen des Inhaltes keine Änderung ergibt, könnte die FW sogar ein paar Zellen des Overprovisioning nutzen, um die Performance zu ermitteln. Diese werden bis zu einem Refresh nie vom Anwender geschrieben, womit diese Leseprüfung auch bei jedem neuen Anschalten der SSD durchgeführt werden könnte.

Chuuei schrieb:
Würden die Hersteller den automatischen Refresh viel früher triggern,
Die SSD muss nichts automatisch "auf Verdacht" refreshen, sie müsste nur automatisch Lesetestes durchführen und bei Bedarf refreshen. Das ganze dann auch noch auf Ebene der Flashzellen und nicht auf Sektorebene, womit sich u.U. ein erheblich schonenderer Refresh realisieren ließe. Das dann automatisiert über ein paar Reboots hinweg, falls der Computer zu früh wieder herunter gefahren wird.

Mit etwas Willen der Hersteller ließe sich durchaus eine kundenfruendliche, automatische und Ressourcenschonende Lösung implementieren. Da dies aber den Willen der Hersteller voraus setzen, wird das nichts. Die optimieren nur noch auf Benchmarks von Neugeräten und Kostenersparnis.

ThommyDD schrieb:
Alle sechs Monate mal die komplette SSD zu refreshen, ist nicht mehr als ein Tropfen auf den heißen Stein. Das verbraucht von den 600TB ganze 10TB in fünf Jahren.
Wenn die Firmware das automatisch macht, von mir aus. Ich werde niemals irgendwelche TBW Werte meiner SSDs erreichen. Aber sowas manuell planen und duchführen zu müssen, ist, gelinde gesagt, eine Frechheit den Kunden gegnüber.

qiller schrieb:
Das macht nach einem Jahr 4TBW, nach 5 Jahren (häufige Garantielaufzeit) 20TBW. Aktuelle 1TB SSDs sind wohl mit 300TBW bis über 1000TBWs bis zur Garantieerlöschung mit dabei.
Meine Samsung 970 EVO 1TB von Anfang 2019 ist mit 600 TBW angegeben. Selbst., wenn die voll wäre und alle 3 Monate komplett neu geschreiben würde, dann wären das 150 Jahre. Juju, da freuen sich meinen UrUrUrenkel über die historisch wertvolle SSD. Meine genauso alte Intel 660P 2TB (QLC) wurde mit 400 TBW verkauft, Macht also bei 8TB/Jahr Schreibleistung 50 Jahre Refreshzeit.

Sogar eine SATA Crucial m500 960GB wurde 2013 schon mit 72 TBW angegeben. Also nach Deiner Rechnung mit 18 Jahren "Nutzungszeit".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Drahminedum
gymfan schrieb:
Da die SSD ihre Betriebsstunden protokolliert, könnte sie sowas, plus eine gewisse Statistik über die übliche Nutzungszeit einer SSD im Heimbereich, auch als "Zeitgeber" für ihre automatische Prüfung nutzen.
Immer wieder der gleiche Denkfehler :) Die Betriebsstunden sind komplett nutzlos als Metrik. Du kannst die SSD eine Stunde in Betrieb , dann 10 Jahre inaktiv haben und dann noch ne Stunde anmachen und dann hast du 2 Betriebsstunden - und das soll als Entscheidungshilfe genutzt werden ob Zellen, die vor 10 Jahren geschrieben wurden, refresht werden müssten? Zeit fällt quasi komplett raus als Metrik im Consumerbereich wo SSDs immer nur stundenweise aktiv sind.

gymfan schrieb:
Da das ganze anscheinend alle Flashzellen brtrifft und sich durch ein reines Lesen des Inhaltes keine Änderung ergibt, könnte die FW sogar ein paar Zellen des Overprovisioning nutzen, um die Performance zu ermitteln.
Die Flashzellen altern nicht alle gleichartig. Es gibt wie überall Fertigungstoleranzen und bei manchen ist die Isolationsschicht besser oder schlechter ausgeprägt und halten daher besser ihre Ladung oder halt nicht. Und alle Zellen werden nicht gleichartig genutzt. Die Bereiche in denen die FW liegt ist z.B. immer als pSCL konfiguriert bei TLC Zellen, im Gegensatz zu den Nutzdaten die je nachdem vielleicht pSLC sind wenn sie für den pSLC Cache genutzt werden oder TLC oder im Laufe des Lebens auch beides. Man kann vom Zustand einzelner Zellen nicht auf alle schließen.

gymfan schrieb:
Die SSD muss nichts automatisch "auf Verdacht" refreshen, sie müsste nur automatisch Lesetestes durchführen und bei Bedarf refreshen. Das ganze dann auch noch auf Ebene der Flashzellen und nicht auf Sektorebene, womit sich u.U. ein erheblich schonenderer Refresh realisieren ließe.
Dauerhaft Lesen an den gleichen Stellen will man auch nicht - Stichwort Read Disturb. Und das kleinteiligere refreshen das dir vorschwebt - geht nicht. Egal was man sich gerne zusammendenken möchte. rein elektrisch sind alle aktuellen NAND Flashes so aufgebaut, das immer nur ein Lesen einer Page möglich ist und ein Schreiben/Löschen eines Blocks.

gymfan schrieb:
Die optimieren nur noch auf Benchmarks von Neugeräten und Kostenersparnis.
Naja, normale Endkunden lockst du nicht hinterm Ofen hervor wenn du die minimale sustained Datarate angibst die vielleicht mit Glück über 1 GB/s kommt, wenn andere mit dem 10fachen werben. Es würde schon viel helfen wenn Techniktests wie hier (und auch quasi allen anderen Publikationen die sich an den Endkunden richten) die SSDs mal richtig testen würden. Es ist kein Hexenwerk, dauert nur lange durch die hohen Densities und da die Geräte oft Leihgabe sind, ist das halt nicht drin.
 
  • Gefällt mir
Reaktionen: Smartbomb, Banned und massaker
Also mir ists schnuppe, wie die SSD Hersteller das regeln. An der Samsung 840 Evo seh ich jedenfalls, dass es geht und an einer neueren 980 Pro vom selben Hersteller seh ich, dass sie das Problem nicht dauerhaft auf dem Schirm haben. Ich hoffe dieses Thema wird in Zukunft häufiger von der Presse beleuchtet. An einigen Beispielen sieht man ja hier, dass das echt Not tut.
 
qiller schrieb:
Also mir ists schnuppe, wie die SSD Hersteller das regeln.
ganz einfach: wenn dir die SSD zu langsam ist, holst du dir halt eine neue vom idealerweise gleichen Hersteller - weil du ja super zufrieden mit dem erhaltenen bist? ;)
 
  • Gefällt mir
Reaktionen: Smartbomb
Wat soll denn die sarkastische Frage jetzt. Also wenn ich das vorher wüsste, dass eine SSD von diesem Problem hier betroffen ist (sry, kann leider nicht in die Zukunft schauen), nein dann wär ich nicht zufrieden und nein ich würde diesen Hersteller dann erstmal nicht mehr ins Vertrauen ziehen. Ich kann jedenfalls bei meinen älteren Samsung SSDs nicht klagen, nur meine allerneuesten SSDs (870QVO, 980Pro) struggeln halt. Aber wenn ich hier sehe, dass manche 50%+ Einbruch haben, sry aber das Thema sollte auf jedenfall nicht unterm Tisch gekehrt werden.
 
Ich habe aktuell Probleme mit mehreren Kingston KC3000 in meinem Thema Kingston KC3000 ist langsam
, und habe vom Support dazu diese Antwort erhalten:
Unserer SSD Spezialisten haben uns mitgeteilt, dass das von Ihnen beschriebene Verhalten damit zu erklären ist, dass die Zellen, in den existierende Daten gespeichert sind, sich nicht automatisch "aufrischen".

Die Auffrischung erfolgt dadurch, dass der Inhalt der Zellen bewegt, bzw. verändert wird.

Dieser Vorgang erfolgt erst durch das Kopieren und Abspeichern alter Daten in einem neuen Standort auf der SSD, welches wiederrum eine Erhöhung der Transferrate zur Folge hat.

Die neu erstellten Daten sind dann diejenigen welche auf eine andere Festplattte oder Speichermedium transferriert werden können.

Unsere SSD Ingenieure wissen über dieses Verhalten Bescheid und wir hoffen, in Zusammenarbeit mit unsere Komponentenherstellern diese Problematik mit Hilfe eines zukünftigen Firmware-Updates für die SSD lösen zu können.

Vorerst können wir nur empfehlen die zu transferrierenden Daten einmal neu auf die SSD zu kopieren um dann die neu kopierten Daten auf eine Festplatte oder ähnliches Speichermedium zu übertragen.
Das heißt, gerade bei viel genutzter Software wie Spiele usw. muß man immer wieder alle paar Monate komplett neu kopieren, was natürlich die Schreibrate bei 2-4 TB ohne sonstigen Grund vervielfacht.
 
  • Gefällt mir
Reaktionen: Smartbomb und Rickmer
dv1996 schrieb:
muß man immer wieder alle paar Monate komplett neu kopieren, was natürlich die Schreibrate bei 2-4 TB ohne sonstigen Grund vervielfacht.
Das sehe ich nicht als Problem bei Geräten, deren Write-Endurance u.A. auch in DWPD (Drive Writes Per Day) gemessen wird...

Meine am schlechtesten erhaltene SSD ist bei 85% angezeigtem Zustand nach 11 Jahren und 40k Betriebsstunden. Mit MLC dürfte die eh nicht betroffen sein und alle neueren SSDs sind noch bei >90%.

Da hätte ich keine Kopfschmerzen, etwas Lebenserwartung gegen anhaltend hohe Performance zu tauschen.
 
Rickmer schrieb:
Das sehe ich nicht als Problem
Naja, im Idealfall sollte aber nicht der User selbst mühsam dagegen ankämpfen, sondern die Firmware entsprechende automatische Pflege-Routinen beinhalten/durchführen. Alle SSDs scheinen betroffen zu sein, bloß einige sind fleißig am refreshen, wenn die Soll-speeds unter die Hälfte gefallen sind (so in etwa z.B. bei Samsung-SSDs in dem Thread), die anderen dagegen schonen den NAND zu sehr und warten so lange wie möglich um kurz vor Datenverlust endlich zu refreshen - dafür kann man aber mit schönen TBW-Angaben im Datenblatt glänzen! :evillol:
 
Zurück
Oben