News WD Blue 3D NAND: Vereinzelt Leistungsverlust beim Lesen alter Dateien

1654877426869.png
🤔
 
  • Gefällt mir
Reaktionen: MichaG
EDV-Leiter schrieb:
Hier geht es aber um ein Problem, bei dem die Auslesegeschwindigkeit auf einstellige Werte absinken kann. Damit ist es nicht mit wenigen Stunden sondern eher in richtung mehrere Tage getan.
Mir persönlich ist es erst einmal egal, ob WD Mist gebaut hat oder nicht. Ich will auf die Daten meiner 2 Jahre alten 4TB WD Blue 3D zugreifen bevor mir WD eine Lösung (per Firmware oder sonstwie) bietet.

Die benötigte Zeit zum Testen (oder für ein Backup-Image) hängt extrem davon ab, wie man die SSD nutzt. Wenn man die SSD vor X Jahren vollgeschreiben hat, dann betrifft es u.U. alle Daten. Wenn sie aber kontinuierlich genutzt wird, dann sollte es nur ein paar alte Daten betreffen.

Im Zweifel lässt man das Backup halt über Nacht laufen. Nicht jeder hat nur eine 1-Zimmer Wohnung, wo der laufende PC beim Schlafen stört. Im Worst case (volle 4 TB SSD, die sich im Schnitt nur mit 20 MB/s lesen lässt) sind das halt 58 Stunden. Aber mal ehrlich, sowas wäre einem schon viel früher aufgefallen und nicht erst mit der Meldung hier.

Die einzige Alternative, die mir derzeit einfällt, ist mit dem Testtool die Dateien zu ermittlen, die langsam im Lesen sind (das dauert dann genauso lange wie die Erstellung eines kompletten Backups), nur diese zu sichern, auf der WD Blue 3D zu löschen und neu zu schreiben.

Da sich bei mir nur ein paar wenige Dateien langsam (10 von gut 16000 Dateien mit 90-150 MB/s) lesen lassen, ist mir das erst einmal egal. Ein Backup der Daten gibt es sowieso, falls irgendwann eine Datei nicht mehr lesbar sein sollten. Leider liefert das Tool nur eine einzige Zahl für jede Daten, was bei einer 2TB Datei recht ungenau ist.

EDV-Leiter schrieb:
Insofern kann ich den Workaround von WD nicht ganz ernst nehmen, da nicht wirklich praxistauglich.
Würdest Du ernsthaft ein Firmware-Update ohne Backup einspielen? Ich jedenfalls nicht. Entweder, das Backup gibt es, dann entfällt die Zeit auch mit dem seltsamen Workaround. Oder es es gibt dies nicht, dann íst es jetzt endlich Zeit, eins anzulegen und es dauert halt.
 
Zuletzt bearbeitet:
2022-06-10 18.53.18 Results for D.png
2022-06-10 19.25.33 Results for E.png


Also den Werten links in den Details nach sind meine wohl noch fit. Die zweite sieht auf dem Bild glaube ich schlimmer aus als es ist mit den min 31 MB/s.
Das ist auch eher mein Datengrab, wo einerseits viele kleine Dateien (vollkommen legale Musiksammlung hust) als auch große Klopper liegen (Sicherungskopien diverser Spiele-CDs und Spiele-Installer).
 
  • Gefällt mir
Reaktionen: MichaG
1654885817067.png


Scheint zumindest kein generelles Problem zu sein, Die Streuung ist vermutlich noch normal.
 
  • Gefällt mir
Reaktionen: MichaG
Edit: Hat nichts mit meiner PCIe M.2 SSD zu tun?
Der Name ist aber fast identisch?!
Betrifft also nur SATA?

Bin ein wenig verwirrt, sorry.
 
Zuletzt bearbeitet:
Danke für eure Screenshots! Ehrlich gesagt verwirren mich die Graphen von dem Tool inzwischen selbst. Wofür steht eigentlich die rote Linie? 😅 Aber wenn oben links nichts im einstelligen Bereich steht und unten rechts der Average Speed bei ~500 MB/s (SATA) steht, dann sollte alles passen. Bei den betroffenen sind es ja nur noch ~50 MB/s Average.

@Demolition-Man Es ging primär um die genannten SATA-Modelle, aber Screenshots mit NVMe-Drives sind auch willkommen.
 
  • Gefällt mir
Reaktionen: andi_sco
shirkai schrieb:
Also den Werten links in den Details nach sind meine wohl noch fit.
Was ist fit und was sollte man als "langsam" bezeichnen. Oder besser: wie testet dieses Programm? Für mich sind auch Dateien >20MB, die mit <200 MB/s gelesen werden, auf einer SATA SSD langsam.

Das ganze ist wohl eher ein grobes Schätztool welches nur dann sinnvolle Erkenntnisse liefert, wenn große Dateien extrem langsam lesbar sind. Oder wenn, wie in dem Beispiel aus dem Artikel, quasi die gesamte SSD nahezu unlesbar ist. Sprich wenn man auch bei jedem Zugriff auf beliebige Dateien sofort merkt, dass etwas nicht ok ist.

Ich habe das "Tool" zweimal über meine WD Blue 3D 4TD (zwangsweise SATA da WD die ja nicht als 4TB M.2 Variante bringen will) laufen lassen, und da kann man die Werte schlicht vergessen. Dagegen sind Crystal Disk Mark Werte noch um Welten konsistenter.

Die einzig echte Erkenntnis, die ich aus dem Programm ziehe ist, dass auf meiner Crucial M500 (960GB) weniger Dateien von dem Tool langsam gelesen werden können wie auf meiner WD Blue 3D.
 

Anhänge

  • 2022-06-10 20.26.09 Results for G.png
    2022-06-10 20.26.09 Results for G.png
    30,3 KB · Aufrufe: 202
  • 2022-06-10 17.48.29 Results for G.png
    2022-06-10 17.48.29 Results for G.png
    30,1 KB · Aufrufe: 195
  • Gefällt mir
Reaktionen: MichaG und HolySkillet
Bei mir sind zwei Blue 3D 1TB vom Problem betroffen, Alter der Daten jeweils anderthalb Jahre. Eine der beiden dient als Backup meiner Datenpartition der System-SSD (Samsung 860 Evo), hauptsächlich Dokumente sowie Fotos und Musikdateien, welche sich nach einmaligem Schreiben praktisch nie mehr ändern (auf beiden SSDs und auch beim zweiten Backup auf Crucial MX500 nicht). Die andere beherbergt mein Spielesystem mit der Steam-Bibliothek, deren Daten ebenfalls nach der Installation sich großteils nicht mehr ändern, außer bei Spielen, die immer noch regelmäßig Updates erhalten.

Abhilfe hat bei mir die Verwendung von "badblocks -nvs" in einem Live-Linux gebracht. Das hat sämtliche Daten (im Rohformat) eingelesen und neu geschrieben. Hat sogar mit meinen Verschlüsselten Daten auf den SSDs funktioniert, ohne irgendwas zu zerschießen. Das ist sicher die beste Methode, wenn man sich ein Formatieren, wie von WD vorgeschlagen, aus verständlichen Gründen ersparen will. (Hier macht es sich der Hersteller sehr leicht und wälzt das Problem auf die Kunden ab. Noobs sind so oder so davon überfordert und dürfen sich mit einem unbrauchbaren Spielesystem rumärgern oder alles neu installieren.) Nachteil: Bei meinen 1TB-SSDs hat die Prozedur rund 16 Stunden gedauert, weil die Lesbarkeit der Daten bereits so schlecht war. Möglicherweise geht es schneller, wenn die Daten noch nicht so alt sind. Ich werde den Verlauf über die Zeit mal beobachten. Der Vorgang verbraucht halt jedes Mal einen Schreibzyklus, aber gerade wenn die SSD voller Daten ist, die nie überschrieben werden, verbraucht man ja im täglichen Einsatz kaum Schreibzyklen, so dass das leicht zu verschmerzen ist. Der Aufwand des Ganzen ist aber ein Unding, wenn man bedenkt, dass man ihn bei den Konkurrenzprodukten von Samsung und Crucial nicht hat.

Mir ist inzwischen eingefallen, dass ich noch eine dritte Blue 3D habe (im Nachhinein blöd, so viele gekauft zu haben, waren halt die günstigsten der bisher empfehlenswerten SSDs), eine M.2 mit 500GB. Diese steckt in einem USB-Gehäuse und dient mir nur als Transportmittel zwischen verschiedenen Rechnern, deshalb sind da keine alten Daten drauf. Aber ich werde mal Testdaten ablegen und beobachten, ob das Problem dort nach einiger Zeit genauso auftritt.
 
  • Gefällt mir
Reaktionen: Pulsar77, MichaG, Tanzmusikus und 3 andere
Meine Sandisk SSD ist zu neu das bringt nichts, sorry. Alle Dateien oben links in der Ecke und volles Tempo.
Was ich anbieten kann, ist ein Vergleich mit meiner Samsung. Die macht auch komische Sachen... vielleicht nur defekt.^^

Das bringt mich aber auf Ideen, noch aus HDD Zeiten, daher vielleicht obsolet: Ein Systemlaufwerk neigt eher zu Einbrüchen bei Tests als ein zusätzliches. Die Dateigröße spielt ein Rolle, richtig große Dateien von Games, oder viele winzige Systemdateien führen zu unterschiedlicher Geschwindigkeiten. Aber eher beim Schreiben?
Falls ich Müll schreibe, bitte drauf hinweisen, danke:

Vielleicht sollte man mal alle SSD`s Queerbeet gegentesten...
 

Anhänge

  • 2022-06-10 21.51.20 Results for C.png
    2022-06-10 21.51.20 Results for C.png
    31,2 KB · Aufrufe: 213
  • Gefällt mir
Reaktionen: MichaG
die 4TB hat wohl eine leicht neuere Firmware mit 411040 statt 411030 bei den 1-2TB
die 500er von @Sje2006 hat 415000 als firmware - ist das normal bei den M.2 SATA?
401020 habe ich auch noch gesehen, vermutlich der Vorgänger von 411030 oder ist das die Linie einer möglichen älteren Hardwarerevision?
 
iwie seltsam dieses tool, bei manchen datein zeigt er einen lesespeed von 15000mb/s an, datein mit ca 3gb größe. im schnitt liest meine satassd mit knapp 600mb/s...aja
ich komme auf einen average speed von ca 558mb/s, dateigröße durch zeit
 

Anhänge

  • evo840read.PNG
    evo840read.PNG
    589,4 KB · Aufrufe: 175
  • Gefällt mir
Reaktionen: MichaG
Dabei genügte laut Anwendern bereits eine Formatierung und das anschließende Wiederaufspielen der zuvor gesicherten (!) Daten.
Ist ja jetzt nicht so, dass die neuen Daten genau im gleichen Speicherbereich landen würden.
 
  • Gefällt mir
Reaktionen: Blende Up
Ich hab ne gammelig, alte Evo850 1TB, das ich als temp. Archiv / "Eigene Dateien"-Verzeichniss nutze:
1654898187089.png


Sieht ganz ok aus, irgenwie:

1654898221027.png
 
FR3DI schrieb:
Sollte sich dort etwas "Negatives" ergeben, gehen die direkt in die Tonne!
Na na na, ein bisschen Umweltbewusstsein bitte. Bevor du sie wegschmeißt, kannst du sie auch einfach mir schenken.
Ergänzung ()

RayKrebs schrieb:
Tja, so ist das halt mit SSDs die mehr 3-4Bits in einer Zelle speichern. Das ist dann quasi Analogtechnik und wenn die Zelle altert sinken die Pegel und die ECC muss heftig ausgleichen, das kostet dann Zeit.

Wenn mich nicht alles täuscht war das bei Samsungs 840Evo dann auch der Workaround, das die Daten im Hintergrund neu auf andere Speicherzellen umkopiert wurden.
Das ist kein "Workaround", das macht jede SSD. Und zwar egal ob MLC, TLC oder QLC. Mit der Zeit macht sich die gespeicherte Ladung eben vom Acker, das ist der Lauf der Dinge.

Bei DRAM-Zellen ist die Information in winzigen Kondensatoren gespeichert, deren Ladung so klein ist, dass sie zigtausend mal pro Sekunde aufgefrischt werden muss und bei jedem Lesevorgang muss man dann so einen winzig kleinen Strom richtig messen und die Ladung fließt dabei auch noch ab und muss neu aufgebracht werden.
Und es funktioniert trotzdem.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus und FR3DI
Meine 2TB Sandisk Plus zeigt jetzt keine wirklichen Anzeichen von Schwäche. Die 2TB Sandisk Pro ist gerade noch am durchlaufen und wird später nachgereicht.
Plus:
1654900846136.png


Pro:
1654903554229.png



Edit: Die Plus läuft seit Sommer 2019 in meinem Thinkpad E495 als Datenplatte und ist dementsprechend voll. Die Pro dagegen wurde irgendwann vor ca. 2 Jahren formattiert und dient als externe Festplatte in einem USB-Gehäuse. Davor war sie 3 Jahre in meinem Desktop als Datenplatte. Allgemein zeigen beide Platten keine auffälligkeiten. Die einzige Auffälligkeit ist, das die verbaute 970 Evo im Thinkpad manchmal doch arg langsam ist beim öffnen von Ordnern und Dateien aber das ist irgendein Thinkpad, Windows 10, Ryzen Problem das so noch nie unter Linux vorgekommen ist. (Die davor verbaute SN530 256 GB hatte das gleiche Problem weswegen ich so viel Geld in eine 970 Evo gesteckt habe um danach herauszufinden, dass das Problem weiterhin besteht......)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MichaG
Ui ich habe zwei von den WD Blue 1TB Sata SSD, mit genau dem Fehlerbild, in meiner Grabbelkiste liegen. Dann hol ich die bei Gelegenheit mal wieder raus und schau mir die mal genauer an.

Die waren in einer Workstation verbaut, als Raid1 (Intel Software Raid). Ich hatte die schon abgeschrieben, und ersetzt durch Samsung Pro SSD.

Ergebnisse werden folgen, sehr spannend.

CU
redjack
 
  • Gefällt mir
Reaktionen: MichaG
Zurück
Oben