News WD Blue 3D NAND: Vereinzelt Leistungsverlust beim Lesen alter Dateien

Also, ich habe schon länger eine 512 GB 3D von sandisk. Die hat komischerweise die FW X6107000. Das ist ja ganz was anderes?
Die hat Gott sei Dank noch keine Ausfallerscheinungen. Die langsamste Datei wurde mit 360 MB/s gemessen.
 
Zuletzt bearbeitet:
Am vergangenen Wochenende habe ich eine vom hier besprochenen Problem betroffene WDS500G2B0A (mit aktueller Firmware) gegen ein Modell eines anderen Herstellers getauscht. Mit der WD-SSD konnte ich jetzt an meinem "Test-PC" ein wenig herumspielen und testen.
Der "Ursprungs-PC" ist ein seit ca. 4 Jahren im werktäglichen Einsatz befindlicher Büro-PC (Ryzen 3 3200G, GA-B450M-S2H, 1x8GB RAM). Der Speicherplatz der SSD ist mit etwa 90GB zu ca. 20% belegt. Aufgefallen ist das Problem bei der Datensicherung, welche ohne ersichtlichen Grund sehr viel mehr Zeit als gewöhnlich brauchte (normal ca. 20min, letzte Datensicherung ca. 100min).
Die folgenden Bilder sind an meinem "Test-PC" entstanden, welcher leider nur einen SATA-2-Controller besitzt (GA-HA65M-D2H-B3, i5-2500, 2x8GB RAM). Die WD-SSD war dabei zusätzlich zur vorhandenen System-SSD (Sandisk X110) eingebaut.

1698740374531.png

1698740393359.png


1698740424945.png

1698740467626.png


Wie man am AS SSD Benchmark sieht, sind frisch geschriebene Daten nicht betroffen.
Nach einem "secure erase" habe ich die Datensicherung (Image) zurückgesichert und den FileBench nochmals mit den gleichen Einstellungen laufen lassen:

1698740830445.png


Die max. erreichte Datenrate von ca. 270 MB/s liegt dabei an der Begrenzung des SATA-2-Controllers.
Fraglich ist jetzt, wo man so eine SSD noch guten Gewissens einsetzen kann. Auf ein Firmwareupdate seitens WD braucht man sicher keinen Gedanken verschwenden, zumal das o.g. Testobjekt kein aktuelles Produkt ist.
 
  • Gefällt mir
Reaktionen: massaker und ThommyDD
WD zukünftig meiden. So mache ich es jedenfalls. Mir kommt keine solche SSD mehr ins Haus. Da hat selbst jede Wundertüte wenigstens noch eine Chance, kein Schrott zu sein. Bei WD weiß ich es dagegen sicher.
 
Wenn der Controller bei wenig genutzten Datenträgern die alternden Zellen nicht oft genug auffrischt kann man das ja ganz einfach mit Diskfresh selber tun. Hätte keine Probleme damit die SSD weiter zu verwenden.
 
  • Gefällt mir
Reaktionen: TomH22
Firle schrieb:
Fraglich ist jetzt, wo man so eine SSD noch guten Gewissens einsetzen kann.
Überall dort, wo es entweder nur wenig stört oder wo das Problem u.U. garnicht erst auftritt, weil die Daten sowieso immer wieder neu geschrieben werden.

Ich habe jedenfalls kein Proble damit meine drei Jahre alte WD Blue 3D 4TB weiter zu nutzen, obwohl sie vermutlich auch davon betroffen ist. Dann werden die Daten halt alle 6-12 Monate mal gerefreshed und die SSD wird es nicht bis zum Erbe meiner Urenkel schaffen. Ich komme jedenfalls nicht auf die Idee, nochmal 240€ für eine 870 EVO 4TB auszugeben und zu hoffen, dass diese dann in 2-3 Jahren keine Probleme haben wird.

ThommyDD schrieb:
WD zukünftig meiden. So mache ich es jedenfalls. Mir kommt keine solche SSD mehr ins Haus. Da hat selbst jede Wundertüte wenigstens noch eine Chance, kein Schrott zu sein. Bei WD weiß ich es dagegen sicher.
Dann darf man halt nur >2 Jahre alte SSDs kaufen von denen noch niemand solche Probleme berichtet hat. Es gibt genügend andere Modelle und Hersteller, die genauso wie einige User im Forum (damit bist nicht Du gemeint) der Meinsung sind, dass eine Firmware sowas nicht automtisch erkennen und beheben könnte (Ideen haben die Hersteller nur, wenn es um Geldersparnis geht).
https://www.computerbase.de/forum/t...mb-s-980pro-auch-nicht-ohne-probleme.2111994/
 
Zuletzt bearbeitet:
Luftgucker schrieb:
Wenn der Controller bei wenig genutzten Datenträgern die alternden Zellen nicht oft genug auffrischt kann man das ja ganz einfach mit Diskfresh selber tun. Hätte keine Probleme damit die SSD weiter zu verwenden.
Hast du mal nen Link zu Diskfresh? Gibts da was neues? Auf deren Seite, Puransoftware, steht, dass die letzte Aktualisierung 2013 war?!

Zehn Jahre altes Tool, das meine Daten einmal komplett liest/schreibt?!

Hatte da letztens auch solche Probleme mit meiner Seagate Firecuda 530 4TB.
 
hasentier schrieb:
Hast du mal nen Link zu Diskfresh? Gibts da was neues?

https://diskfresh.en.lo4d.com/windows

Was soll es da neues geben?

Es wird ein Sektor ausgelesen und dann wieder geschrieben, entweder Partition oder ganzes Laufwerk anwählbar.

Das ist die Möglichkeit für Innovationen überschaubar. ;-)
 
Ich denke inzwischen, dass mehr oder weniger ausgeprägt alle ssds betroffen sind...

Zu Diskfresh, naja man könnte z.B. aktuelle Versionen mit offiziellem Support neuer Betriebssysteme anbieten?
 
noway schrieb:
Zu Diskfresh, naja man könnte z.B. aktuelle Versionen mit offiziellem Support neuer Betriebssysteme anbieten?
Genau, da wollte ich drauf hinweisen. Vielleicht gibt's ja noch ein ähnliches Tool, aber aktueller.
 
Luftgucker schrieb:
Formatieren und Backup einspielen ist der neueste Scheiß. ;)
Hab ich im Endeffekt auch mit meiner Seagate Firecuda 530 4TB so gemacht.
 
  • Gefällt mir
Reaktionen: noway
Hab auch ne 530er (1TB), bisher noch nichts eindeutiges gemessen. In welchem Zeitraum war bei dir der Einbruch und auf wie viel ging es runter?
 
Also meine 530er war ca. 2 Jahre im System, hab mal ein paar Screens da, wo der Einbruch zu sehen ist, die anderen Screens sind nach der Leerung und einmal vollschreiben, aber das System war zum Schluss nicht mehr richtig nutzbar, weil die Zugriffe echt zäh waren. Zum Schluss wurde die SSD selbst beim System Start sporadisch nicht mehr erkannt.

Vor der Leerung:
20230920-090530_W_Seagate_FireCuda_530_ZP40_7VS00MSY_SU6SM005-surface-full.jpg20230920-090545_W_Seagate_FireCuda_530_ZP40_7VS00MSY_SU6SM005-surface-full-st.jpgScreenshot 2023-09-20 080017.png

Nach der Leerung und Vollschreiben:

20230920-095140_R_Seagate_FireCuda_530_ZP40_7VS00MSY_SU6SM005-surface-full-st nach Leerung und...jpg20230920-095212_R_Seagate_FireCuda_530_ZP40_7VS00MSY_SU6SM005-surface-full nach Leerung und Sc...jpgAtto Bench Seagate Firecuda 530 4TB nachh Leerung und Schreibtest Screenshot 2023-09-22 072606.png
 
  • Gefällt mir
Reaktionen: massaker
Bin gerade am durchdrehen mit meinen 2 SATA SSD's die ich zusätzlich seit ca 4 Jahren als erweiterten speicher zu meinen NVME's im PC hängen habe. Auf einer war eine Virtuelle Maschine gespeichert, und irgendwann war die VM nicht mehr zu gebrauchen, bezüglich ladezeiten etc, worauf ich mal zu forschen begann, und als ich die VM auf eine andere Platte kopieren wollte, habe ich die geschwindigkeit bemerkt.

Hab dann etwas herum getestet und schnell gemerkt, dass ich die Daten BEIDER (!) SSD's nicht schneller als 1.5 bis 2.5mb/s lesen kann, neu geschriebene daten allerdings >250mb/s.

Den beitrag hier, habe ich erst jetzt gefunden.

Leider sind auf beiden Festplatten auch große Dateien, womit der SSD Read Speed Tester jeweils beginnt, und das einlesen dieser 25GB datei, würde jeglichen Zeitrahmen sprengen den ich habe, da starte ich lieber direkt mit einem Backup.

Blöderweise, hab ich von ein paar doch wichtigen Daten die drauf sind kein Backup, und ich werde mir jetzt ein Testsystem bauen, dass ~2 Wochen durchlaufen kann, um eine Spiegelung beider SSD's durchzuführen. Fakt ist allerdings dass beide SSD's unabhängig voneinander betroffen sind, und die Daten zum teil seit 2 bis 3 jahren "rumliegen".

Definitiv kein Einzelfall!

PS: Auch ein direktes backup über Linux bringt keinen Geschwindigkeitsvorteil, extern über USB angeschlossen selbstredend auch nicht. Die geschwindigkeit steht, und Diskrefresh würde auch ewig laufen, 1.000.000 sektoren nach ~2minuten, 2.000.000.000 Sektoren hat die platte.



Screenshot 2023-11-25 051133.png
Screenshot 2023-11-25 051210.png
 
Zuletzt bearbeitet:
The.d0xX schrieb:
1.000.000 sektoren nach ~2minuten, 2.000.000.000 Sektoren hat die platte
Das sind dann ganze 4.000 Minuten im Endeffekt, also ca. 67 Stunden oder knapp 3 Tage - hört sich noch "erträglich" an...:(
 
Bei mir sind bisher nur die Samsung 860 Evo SATA-SSDs nicht betroffen von dem Problem (und alte MLC-SSDs natürlich, selbst nach mehreren Jahren ungenutzt im Schrank lesbar wie am ersten Tag). Meine 870er sind noch zu jung für eine Einschätzung. Samsung 980 Pro, WD Blue 3D (extrem!), Crucial MX500 - alle nicht völlig problemlos in der Hinsicht. Nach ein bis zwei Jahren merkliche, teils heftige Einbrüche, trotz regelmäßiger Nutzung. Man sollte folglich jede SSD einmal im Jahr turnusmäßig refreshen. Dann sind die Daten noch nicht so alt, und es dauert nicht ewig lange. Blamabel, dass das die Firmwares nicht selbst hinbekommen.
 
  • Gefällt mir
Reaktionen: Banned und Corpus Delicti
Da ein Refresh auf die Haltbarkeit der Zellen geht, muss die Firmware da ja auch einen Spagat hinbekommen. Wie genau der aussieht, liegt halt bei den Entwicklern.

Von Samsung habe ich in diesem Thread jedenfalls keine kritischen Leseraten wie von WD gesehen:
https://www.computerbase.de/forum/t...mb-s-980pro-auch-nicht-ohne-probleme.2111994/

Wenn es mindestens noch 100 MB/s sind und danach auch wirklich refresht wird, geht das in meinen Augen in Ordnung, wenn auch nicht optimal. Bei WD, wo es dann nur noch wenige MB/s sind: das geht gar nicht.
 
Ein Refresh jährlich beeinträchtigt die Haltbarkeit überhaupt nicht. Zumal, wenn es der Controller selbst macht, er ja nur Zellen refreshen muss, die ohnehin nur einmal beschrieben wurden. Es sind also keine Zellen in ständigen Schreibzugriffen. Im Zuge des Wear Levellings müssten die Daten eh ab und zu umkopiert werden. Offenbar passiert das überhaupt nicht. Mir würde das im Sinne der Haltbarkeit also erst recht Sorgen machen.
 
  • Gefällt mir
Reaktionen: CMPBS
ThommyDD schrieb:
Ein Refresh jährlich beeinträchtigt die Haltbarkeit überhaupt nicht. Zumal, wenn es der Controller selbst macht
Das Controller macht er aber nicht, und wie wir im anderen Thread von User Chuuei belehrt wurden, geht das angeblich nicht, weil die Entwickler bei den Herstellern zu wenig Ideen haben sowas ohne Uhrzeitchip auf der SSD zu erledigen.

ThommyDD schrieb:
Im Zuge des Wear Levellings müssten die Daten eh ab und zu umkopiert werden.
Wear Leveling sorgt nur dafür, dass nicht immer die selben Flash-Zellen neu beschreiben werden. Falls die SSD keinen eigenen Refresh der Zellen macht, gibt es für die einmal beschriebenen Zellen auch kein Wear Leveling.
 
Zurück
Oben