Samsung SSD 850 EVO Leistungsabfall (wie zuvor bei 840 EVO?)

Ostfriese

Forenkasper
Registriert
Dez. 2001
Beiträge
2.383
Moin.

Wir haben hier zwei absolut identische PCs von 2014 (siehe meine Signatur).

Beide wurden zeitgleich im Dezember 2016 mit jeweils einer 1TB Samsung 850 EVO SSD ausgerüstet.

In der angefügten Screenshot-Collage kann man erkennen, dass eine der beiden SSDs vom scheinbar ähnlichen Leistungsabfall betroffen ist, wie es schon zuvor die 840er EVO war, von der wir zwei 500GB Modelle hatten/haben.

Kann das sein oder liegt der Fehler eventuell woanders?

Das Phänomen habe ich vor etwa drei Monaten entdeckt und es hat sich nie wieder gebessert.
Davor waren beide SSDs leistungsmäßig immer ähnlich.

Wie schon gesagt, beide PCs sind 100% identisch in Sachen Alter, Hardware, Treiber und Betriebssystem.

Auf beiden SSDs sind 93,15 GB für das Over Provisioning permanent frei gelassen (ob Sinn oder Unsinn muss ja jeder selber wissen ;)), während dann von der zur Verfügung bleibenden Kapazität immer zwischen 5 und 150GB frei sind.

Schaut euch bitte mal das Bild an und sagt mir eventuell, was ihr davon haltet.

Danke für jede Idee im Voraus!

EVO850er.jpg
 
Prüfe doch bitte mal, an welchem SATA-Port die SSDs am jeweiligen Mainboard angeschlossen sind.
Würde mich hier nicht wundern, wenn die SSD mit den geringeren Werten an einem der grauen Ports hängt.
 
Sind beide an SATA3 Port 0 am Mobo angeschlossen, sollte also nicht daran liegen.
Auch das verwendete Kabel ist identisch.

Port 6/7 würde über einen Marvell 88SE9172 Chip angesteuert werden, kann mir aber nicht vorstellen, dass der da was flotter/besser macht. Oder doch?

PS: Es ist ja nicht so, dass die SSD im Alltag Probleme macht oder sich langsamer "anfühlt", dennoch ist das alles ziemlich merkwürdig, zumal das Phänomen ja nicht bei beiden SSDs auftritt, obwohl sie in etwa gleich genutzt wurden/werden.
Ergänzung ()

aurum schrieb:
Kann ich bestätigen.

Interessant.

Also hat Samsung da möglicherweise wieder irgendwas nicht im Griff, wie schon beim Vorgängermodell, auch wenn der Leistungseinbruch bei der 840er schon deutlicher ausgeprägt war, auch nach dem "Reparatur"-Update.
 
Zuletzt bearbeitet:
Hat sich erledigt.
 
Zuletzt bearbeitet:
Das Benchmarkergebnis hängt auch von der Hintergrundlast ab. Trim funktioniert?
Nach anderthalbjähriger Nutzung könnte auch die Filesystem Fragmentierung nicht unerheblich sein und die Read-Performance beeinträchtigen. Defragmentieren mit bspw. MyDefrag (Flash-Speicher/SSD-Mode) würde diesen Mangel beseitigen.
 
Es liegt definitiv an der SSD. Ich habe mal DiskFresh laufen lassen. Das Ergebnis spricht für sich .... Die 85ß EVO hat offensichtlich auch Probleme.
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    268,8 KB · Aufrufe: 530
DiskFresh scheint einfach alle Sektoren zu lesen und neu zu schreiben, was sich auf die Aufteilung der Daten über die NAND Dies auswirkt, also das was man auch als Schattenfilesystem bezeichnet. Die SSD Controller verteilen die Daten so über die NANDs wie sie geschrieben werden, weshalb solche Low-Level Tests wie HD Tach eben auch sinnfrei sind, da hier eben nicht dateiweis gelesen wird, sondern eben Low-Level Zugriffe auf aufeinander folgende Adressen erfolgen, ohne jeglichen Zusammenhang der darauf liegenden Dateien zu berücksichtigen.

Während dies bei HDDs optimal ist, da die Sektoren von aufeinanderfolgenden Adressen ja auch nebeneinander liegen, ist es bei einer SSDs total ungünstig, da es gerade in Bereichen wo viele kleine Dateien stehen, dann leicht passieren kann das diese ungünstig über die NAND Dies verteilt stehen, es also anderes als bei HDDs eben nicht möglich ist aufeinanderfolgende LBAs auch mit optimaler Performance zu Lesen. Das dies nun bei aurum doch wieder geht, liegt daran das die SSD nun wie nach dem Klonen eben linear und nicht dateiweise beibeschrieben wurde, womit das Schattenfilesystem nun nicht mehr vorhanden ist.

Schaut euch mal den Thread "MX100 schon defekt?" an, da habe ich im Post #53 auch erklärt, warum diese Low-Level Benchmarks wie HD Tune und HD Tach eben nicht dazu taugt festzustellen ob der Bug vorhanden ist und warum diese oft viel niedrigere Werte liefern, selbst eben SSDs mit MLC NAND wo die die Low Density Parity Check (LDPC) Fehlerkorrektur gar nicht vorhanden ist, denn die erfordert mehrfaches Auslesen der Daten und ist daher für die schlechten Leseraten z.B. bei der 840 Evo verantwortlich gewesen. Dies umgehen die Hersteller eben durch regelmäßige Refreshes, die nicht erst nötig sind seit es TLC gibt, sondern die schon immer nötig waren und z.B. bei älteren SSDs mit dem Sandforce SF-2281 sieht man auch öfter eine sehr hohe Write Amplification aufgrund dieser Refreshes.

Wenn man die Leserate mit alten Dateien prüfen will, dann bencht man mit dem File Bench Tool von Blublah (Quelle).
 
  • Gefällt mir
Reaktionen: aurum
Zurück
Oben