SSD sehr (!) langsam - ist die defekt?

dvor schrieb:
Die Kombination aus defekten Blöcken und Reserveblöcken regt zum Nachdenken an.
Solange schlechtester Wert und aktueller Wert bei 100 liegen, ist der Smart Wert einwandfrei.
Eine SSD hat vom Werk aus eine Anzahl defekter Blöcke, die nicht den Gesamtzustand beeinträchtigen.
Sonst könnte man jede neue SSD gleich wieder entsorgen, nur weil der Smart den Parameter meldet und eine andere, die ihn nicht meldet, ist deswegen auch nicht besser.
 
  • Gefällt mir
Reaktionen: andi_sco
Sgt.Slaughter schrieb:
Was mir bei dem Bild vom Task Manager auffällt, wieso ist die Auslastung bei 100% ???
wbjc2007 schrieb:
Die Prozessorauslastung ist nur auf dem Bild so hoch, sonst wenn das System ruht , also der Prozessor nix zu tun hat, ist die Auslastung auf der SSD auch seltsam hoch.
Das kann durchaus mehrere Gründe haben. Zum Einen wurde schon erwähnt, dass das System mit 4 GB RAM nur sehr gering bemessen ist, was zum permanenten Zugriff auf die Pagefile führt. Dennoch sollte der Balken der SSD (siehe Bild vom Taskmanager) nicht durchgängig komplett bei 100% liegen - das ist bei dir jedoch der Fall.

Hier ist also vermutlich nicht der zu geringe RAM, sondern eher die Tatsache Schuld, dass die SSD permanent versucht, um die defekten Sektoren herumzuschiffen. Du kannst im Taskmanager unter "Prozesse" ja mal schauen, was genau eine solch hohe Last auf die SSD ausübt - das lässt sich aufsteigend sortieren.

Demon_666 schrieb:
Defekt der SSD sehe ich eher weniger, siehe Erklärung von @Chuuei.
Hast Du mal den Rest deines Systems gecheckt? Wenn das so langsam ist, halte ich eher Kühlung bzw. zu hohe Temps als mögliche (zusätzliche) Ursache.
Das Problem ist, dass man hier auf die Rohwerte schauen muss und nicht auf den Min/Max-Threshold. Der Wert der defekten Blöcke liegt mit 1320 (Dezimalwert) deutlich über dem, was für jede SSD hinzunehmen wäre. Keine meiner 4 SSDs (2x Toshiba TR150 480GB, 1x Samsung 960 Evo 250GB, 1x Sabrent Rocket 1TB) hat auch nur einen einzigen defekten oder realloziierten Sektor (gerade extra mal geprüft) und wenn das so wäre, wären die raus aus dem System.

Die Temperatur scheint zum Zeitpunkt des Screenshots bei wirklich coolen 23° gelegen zu haben, das scheint also kein Problem zu sein.
 
DJMadMax schrieb:
Die Temperatur scheint zum Zeitpunkt des Screenshots bei wirklich coolen 23° gelegen zu haben, das scheint also kein Problem zu sein.
Ich dachte auch eher an throttling der CPU und Co., zumindest um das auszuschließen.
 
wbjc2007 schrieb:
Auf der SSD sind mehr als 200GB frei.
Datenträgeroptimierung usw. ist alles auf Standard....
Ok, hört sich brauchbar an, mach aber trotzdem mal im Explorer -> "Prüfen" und danach "Optimieren" ->manuell nochmal auf "Optimieren", damit die SSD getrimmt wird...dann zuerst 5-10 Minuten warten, CrystalDiskMark durchlaufen lassen und Screenshot hier posten!
wbjc2007 schrieb:
Ja, einen Ersatz habe ich schon parat, mir ging es nur darum, ob ich da nicht irgendwas übersehen hätte oder so.
Ersatz? Was hast Du da? ... Tue Dir einen Gefallen und mach erstmal einen RAM-Upgrade von Deinen 4GB auf mindestens 8, besser gleich 12 oder 16GB. (falls Du 2+2 drin hast, dann mindestens 2+2 oder lieber 4+4 dazu holen, falls 1x4, dann gleich 4+4+4 dazu)
 
DJMadMax schrieb:
Das Problem ist, dass man hier auf die Rohwerte schauen muss und nicht auf den Min/Max-Threshold. Der Wert der defekten Blöcke liegt mit 1320 (Dezimalwert) deutlich über dem, was für jede SSD hinzunehmen wäre.
Wenn SMART korrekt implementiert ist, interessieren die Rohwerte 0. Die verwenden die Hersteller wild wie sie lustig sind. Genau dafür gibt es ja die normalisierten Werte und Thresholds.

Der Grund für dieses System wird bei folgender Frage deutlich: Wieviel Blöcke hat denn die SSD deiner Meinung nach? Ohne die Antwort darauf kann man nämlich gar nicht sagen ob die 1300 viel oder wenig sind. Ohne den genauen Flash zu kennen kann man das auch nicht sagen, aber nehmen wir mal 4MB Erase Block Size. Die nennt z.B. WD in einem White Paper hier. Dann hat man bei 1024 GB 262.144 Blöcke. Da wirken die 1300 schonmal nicht soviel, wären dann nur bissle über 5 GB. Ja, es wird SSDs der Reihe geben die weniger Defekte Blöcke haben. Aber es ist hier trotzdem nur ein Bruchteil des Spare Bereiches und das wirkt sich weder auf die unmittelbare Leistung aus, noch auf die Haltbarkeit der einzelnen Zellen. Daher sind die ab Werk defekten BadBlocke auch erstmal nichts tragisches.

DJMadMax schrieb:
Keine meiner 4 SSDs (2x Toshiba TR150 480GB, 1x Samsung 960 Evo 250GB, 1x Sabrent Rocket 1TB) hat auch nur einen einzigen defekten oder realloziierten Sektor (gerade extra mal geprüft) und wenn das so wäre, wären die raus aus dem System.
Dann kannst du alle deine SSDs entsorgen - es gibt keinen fehlerfreien NANDs. Die Frage ist immer nur wieviel fehlerhafte Blöcke ab Werk vorhanden sind. Selbst sämtlicher SLC NAND hat ab Werk defekte Blöcke. Siehe z.B. eine Technote zum Thema Bad Blocks hier von Swissbit, einem Hersteller industrieller SSDs. Dort wird erklärt wie diese zustanden kommen, der Unterschied von Factory Bad Blocks und Grown Bad Blocks und warum beide nicht direkt was über Qualität aussagen. Das die SanDisk hier überhaupt absolute Werte für die Factory Bad Blocks mit rausgibt ist erstaunlich, das machen nämlich die wenigsten Hersteller und bei NVMe SSDs kann man das gleich komplett vergessen, weil es in der SMART Log Page keinen Eintrag dafür gibt.

Wie schon gesagt, die SSD des OP hat keinen einzigen Bad Block der zur Laufzeit hinzugekommen ist und durch einen Reserveblock ersetzt wurde. Da sieht alles fein aus. Das einzige was seltsam ist, ist das Attribut 0xBB. Das sind UECC Fehler. Normalerweise sind diese aber verursacht durch fehlerhaften Flash - nur hier nicht - das würde nämlich zur Laufzeit ausrangierte Blöcke nach sich ziehen die wir hier nicht haben. Da UECC Fehler aber SSD intern sind und nicht auf der Übertragungsstrecke zwischen Host und SSD, könnte es eventuell direkt der Controller sein.

Wächst denn der absolute Wert im Attribut 0xBB weiter an bei Benutzung?
 
  • Gefällt mir
Reaktionen: Brati23, cruse und DJMadMax
@Chuuei
Vielen Dank für die Lektüre, das war tatsächlich sehr aufschlussreich - und zugleich überraschend.

Dass NAND hier so viel problematischer ist als andere uns bekannte ICs - wobei es hier schon interessant wäre, ob ähnliche Probleme auch in z.B. CPUs und GPUs bestehen. Ohne hier Details vom Hersteller selbst oder gar die exakte Funktionsweise eines kompletten Rechenkerns zu kennen, wird das aber vermutlich ein Geheimnis bleiben.

Aber von z.B. RAM-Modulen ist mir diesbezüglich nichts bekannt.

Auch interessant:
Ja, das Problem bei SSDs / NAND-Speicher scheint konstruktionsbedingt, erleidet aber ärgerlicherweise genau das selbe Schicksal, das auch traditionelle Festplatten mit Magnet-Platter praktisch seit deren Markteinführung vor gut 60 Jahren.

Dass man aber, anstatt das Problem selbst anzugehen, lieber mit firmwareseitigen Workarounds arbeitet, welche auf lange Sicht immer den Tod des Datenträgers bedeuten würden, ist mir dann doch ein gewaltiger Dorn im Auge.

Dennoch gilt hier seitens des Threaderstellers zu klären, wieso er eine dauerhafte 100%-Auslastung auf der SSD vorweisen kann, das würde mich brennend interessieren.
 
Sgt.Slaughter schrieb:
Ich bin kein Mega Fachmann, aber hier gilt es doch erstmal zu lokalisieren,
Sehe ich genauso.
Kann natürlich auch wieder so ein Optimierungstool sein, was den Rechner "schneller" machen will.
 
Bard schrieb:
Wie voll ist die SSD und wieso werden bei dir C: und E: als ein Laufwerk zusammengefasst?

Bei SSDs gilt in der Regel: Wenn es schnell bleiben soll, maximal ~80% vom Speicherplatz belegen.
Aber das gilt doch nur für die Schreibrate die Leserate bleibt doch auch bei ner randvollen SSD schnell..oder nicht?
 
Persönliche Anekdote:
Ich habe letztens meine SATA SSD an einen anderen Steckplatz des Mainboards angeschlossen.
Einen Tag drauf wurde sie total langsam. Ich konnte nichtmal mp3s abspielen ohne übelste Ruckeleien.
Ich dachte schon, die SSD wäre hinüber (wobei das eigentlich nicht sein konnte, ich hatte noch nichtmal 1/3 der TBW).

Es stellte sich dann heraus, dass ich irgendwie beim Schließen des Gehäuses am SATA-Kabel geruckelt hatte. Der Stecker saß auf jeden Fall nicht hunderprozentig bei der SSD drin.
Ich hab den Stecker nochmal gut drangedrückt und die SSD lief wieder rund.

Deswegen mein Tip: Gehäuse aufmachen und überprüfen, ob der Anschluss richtig fest drinsteckt.
 
  • Gefällt mir
Reaktionen: Hoellenhorst und conglom-o
StockholmSyndr. schrieb:
Deswegen mein Tip: Gehäuse aufmachen und überprüfen, ob der Anschluss richtig fest drinsteckt.
Das ist natürlich nie verkehrt, aber dann würde ich erwarten, dass der Rohwert für C7 "CRC Error Count" nicht mehr 0 ist.
 
gegen die hohen Werte von A9 spricht AA, scheinbar defekt ab Werk
Gegen die absurd hohen Werte von BB sprechen die Werte von AA/AB die keine Probleme beim Löschen oder programmieren aufzeigen
 
Gibt es die Möglichkeit, eine andere SSD anzuschließen, da ein Test-Windows drauf zu hauen und zu schauen wie sich das verhält?

Ich habe für solche Zwecke eine alte OCZ Vertex 2 120GB (Baujahr 2010) im Regal liegen...

Chuuei schrieb:
Weiß nicht ob die Sandisk hier TLC oder QLC einsetzt

dvor schrieb:
Beim Erscheinen 2018 war das eine 2D TLC. Vermutlich verbauen die heute noch das gleiche?
Die 240/480/960 GB Versionen sind TLC, die 1TB und 2TB Sandisk Plus sind QLC, das war mal 'ne News

Amiga500 schrieb:
Aber das gilt doch nur für die Schreibrate die Leserate bleibt doch auch bei ner randvollen SSD schnell..oder nicht?
Oder nicht. Auch SSDs mit schwindender Lese-Performance gibt es.
Kommt alles auf den Controller an.
 
@Rickmer wie das bei der Sandisk ist weiss ich nicht , bei ner MX500 sollte das aber nicht auftreten?
 
Zurück
Oben