News 840 Evo SSD schwächelt bei „alten“ Daten

Blublah schrieb:
Ja, das gibt es auch, dass die Geschwindigkeit von gleich alten Daten unterschiedlich schnell abnimmt.

So hab es nochmal durchlaufen lassen:

trnmrsdv.jpg


Gleiche Dateien wie vorhins und diesmal gibt es keinen Einbruch der Leserate. Beides mal wurde die komplette Partition ausgewählt (knapp 68GB gelesen). Gibt es dafür eine Erklärung?
 
Übrigens werden bereits 4 Wochen alte Daten auch bei etwas höheren Temperaturen deutlich langsamer ausgelesen:
30 Grad (SMART RAW): 840 EVO z 1MB stat 09 19 540GB 32temp 100GB stats nice.png
52 Grad (SMART RAW): 840 EVO z 1MB stat 09 19 540GB 52temp 100GB stats nice.png

Grafikerklärung: Jeder Kreis steht für eine Datei und die Grösse des Kreis hängt von der Grösse der Datei ab.
Links sind die neueren Dateien, rechts die älteren (maximal 4 Wochen alt).



Matzegr schrieb:
Gleiche Dateien wie vorhins und diesmal gibt es keinen Einbruch der Leserate. Beides mal wurde die komplette Partition ausgewählt (knapp 68GB gelesen). Gibt es dafür eine Erklärung?
Falls es eine Systempartition ist, könnte es sein, dass Betriebssystemzugriffe dazwsichengekommen sind.

Andere Einflüsse sind:
- Power Konfiguration: Für beste Konsistenz nur mit 'High Performance' testen
- Hardware Cache auf der SSD
- Software Caches (Windows caching wird per Flags für das Testprogramm deaktiviert)

Mir ist auch aufgefallen, dass die EVO allgemein viel inkonsistentere Ergebnisse liefert als z.B. meine Samsung 830 oder Vertex 3. Ich konnte feststellen, dass selbst die SSD Temperatur eine Rolle spielt bei der EVO (siehe oben).
 
Zuletzt bearbeitet:
@ andr_gin: Wenn dies ein Skandal sein soll, dann weiss ich nicht wie die richtigen Probleme benannt werden sollen.

Business und EVO passt für mich nicht zusammen.
 
obi68 schrieb:
Nun übertreib mal nicht! +/- 20 MB/s ... nicht der Rede wert.

+/- 20 MB/s ... wenns denn so wäre ... ich hab den Fehler gerade nachgestellt aus nem alten Game Ordner 4 große Dateien a 1,5GB mit dem Total Commander auf ne 830 kopiert der Speed lief im Schnitt mit 20-30 mb/s und ist teilweise bis auf 10 MB/s runtergebrochen. Dann die Dateien auf der Evo gelöscht von der 830 zurück verschoben auf die EVO (was mit ca. 380 MB/s ging) und dann noch mal von der Evo auf die 830 kopiert was dann flott mit 370-380 MB/s ging also so wie es sein sollte.

Da hat sich ja Samsung nen tolles Ding geleistet und ich ahne schon, dass wenn ein Firmwareupdate kommt und das Performance Problem löst, sicher die Langlebigkeit leidet.

Ist das Problem was wir jetzt haben eigentlich ein Reklamationsgrund? ich hab hier ne 1TB Evo welche damals noch gut 480 € gekostet hat und das wurmt mich jetzt doch schon ein wenig :( Danke Samsung
 
Naja, ein Firmware Update, dass die Zellen in Abständen von ca. einer Woche refresht sollte das Problem lösen. Einen großartigen Einfluss auf die Haltbarkeit hat das dann auch nicht.
Das Problem wird eher sein alle SSDs mit Updates zu versorgen...
 
Hallo Micha,

velen Dank für die Nachricht.
Immerhin arbeitet Samsung an einem Firmware Update.
Das werde ich auch einspielen, aber erst ein paar Tage nach der Veröffentlichung.

Gruß, JoeCool
 
Lol mir ist so-was gar nicht aufgefallen... und ich merke ehrlich gesagt immer noch nichts davon und ich habe Daten die schon über halbes Jahr auf der Platte liegen^^ muss ich mal testen.
 
Hallo32 schrieb:
Dann erhitze die SSD doch einmal richtig:

52 (von 32) Grad hat mir gereicht. Sollte mal jemand anderer testen um die Messungen zu bestätigen. Hatte die SSD dazu in einen dicken Handschuh gesteckt :)

Bevor ich das mit der Temperatur getestet habe hatte ich herumgerätselt wieso die Ergebnisse der EVO so stark schwankten (bzw. runtergingen), von einem Lese-Benchmark Lauf zum nächsten. Die 830 und Vertex 3 bleiben da viel konstanter.

Aber durch das Lesen steigt auch die Temperatur.
 
Zuletzt bearbeitet:
Wie lange braucht so ein Lauf bei dir und hast du die Möglichkeit die Smart Werte während des Laufs, wenn dieser lang genug sein sollte, aufzuzeichnen?

Habe hier keine Evo zum Testen.
 
Blublah schrieb:
2) puransoftware DiskFresh, das liest+schreibt alle Sektoren neu (FileBench macht das Dateiweise).

Gibt es zu dem Vorschlag Erfahrungswerte?

Vielleicht kann das hier mal einer mit einer "langsamen" SSD probieren.

Was ist wenn ich mal die Platte komplett neu formatiere und alles neu rüberkopiere? Läuft dann meine SSD wieder mit maximaler Geschwindigkeit oder sind diese Sektoren/Zylinder oder was weiß ich was unwiederruflich zerstört bzw beschädigt?

Probier mal das Tool im Quote und berichte ob es was bringt.
Vorher ein Backup machen sollte was schief gehen.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
aspro schrieb:
Hmm seit 1 Jahr ist die auf dem Markt und erst jetzt fällt das auf? Also entweder sind nur neuere SSDs betroffen oder es zeigt, dass SSDs mittlerweile so schnell sind, dass es dem normalen User gar nicht auffällt, wenn teilweise nur ein viertel der maximalen Leistung erreicht wird.
Die Vorgängergeneration 840 ist sogar Seid Ende 2012 auf dem Markt, so krass wie manche es hier aufbauschen, scheint das den meisten Users nie aufgefallen zu sein.

Simanova schrieb:
Hab die 250GB Variante drin und konnte keine Leistungseinbußen im täglichen Betrieb feststellen.
So dürfte es den meisten Usern gehen, daher ist das Problem auch weniger dramatisch, als es manche hier nun hinstellen. Es gab bei vielen anderen SSDs weitaus schlimmere Bugs in der FW.

Postman schrieb:
Leider ist Samsung nicht sehr aktiv in Sachen Firmware, da hat die Konkurrenz oftmals schon schneller nachgesteuert.
Was heißt nicht sehr aktiv? Es gab bei den meisten SSDs von Samsung bisher einfach wenige Probleme und daher waren auch nur wenige FW-Updates nötig. Das sehe ich nicht als Nachteil, im Gegenteil.

JuggernautX schrieb:
weil hier auch schon oft darüber diskutiert wurde und einige User dafür matig gemacht wurden, weil sie sich erdreistet haben, solche HDD-Tool zu benutzen!
HD Tune und HD Tach sind nicht geeignet für SSDs, da zeigen auch die teils total unterschiedlichen Ergebnisse der beiden Benchmarks auf der gleichen SSD. Low-Level Benchmarks funktionieren eben nur bei HDDs weil HDDs LBAs fest auf Kopf, Zylinder und Sektor umrechnen und diese dann einfach auslesen. SSDs aber mappen die LBAs auf immer wieder wechselnde Speicherbereiche. Da kann nichts ausgelesen werden, wenn eine LBA noch nie beschrieben oder getrimmt wurde und damit nicht gemappt ist, der Controller liefert dann einfach irgendwas zurück. Obendrein wird mit der Standardeinstellung immer nur alle paar MB mit 64k Zugriffen gemessen, aber 64k sind zu wenig für eine SSD um die maximalen seq. Leseraten auch nur annähernd zu erreichen. Außerdem führen SSDs ein Schattenfilesystem und verteilt die Daten entsprechend so zusammenhängend, wie sie geschrieben wurden. Bei einem Low-Level Benchmarks funktioniert das nicht, weil da die LBAs eben direkt und damit zusammenhanglos gelesen werden.
Der Lesebenchmark stimmt bestenfals halbwegs, wenn die SSD vollständig sequentiell beschrieben wurde, sonst kommt dann genau so ein Müll heraus wie bei diesem Test einer Intel X-25V bei awardfabrik.de:

hd_tach_8mb.png


bzw.

hd_tune_bench_read.png


Die getestete SSD kann gar keine 200MB/s oder gar mehr lesen, die Kurven zeigen nur da die reale Geschwindigkeit halbwegs richtig an, wo der Speicher auch wirklich belegt ist. So schnell kann die lesen, wenn man auch wirklich Daten zum Lesen hineingeschrieben hat:

crystal_disk.png


Wenn man also eine SSDs mit so einem Low-Level Benchmark testen will, muss man sie auch sequentielle komplett beschreiben, sonst kommt Müll raus. Der Zacken nach unten bei HW Tune bei etwas mehr als 4GB kommt vermutlich daher, dass dort kleine Dateien stehen, die einzeln geschrieben wurden und die SSD Controller verteilen die Daten ja so, wie sie geschrieben werden. Werden viele kleine Dateien geschrieben, so müssen sie nicht gut verteilt sein, sondern können durchaus alle im gleichen NAND Die stehen. Liest so ein Low-Level Benchmark dann einfach alle LBAs aus auf denen diese Dateien stehen, kommt eine geringer Geschwindigkeit raus als wenn er einen Bereich ausliest, der zu einer großen sequentiell geschriebenen Datei gehört.

JuggernautX schrieb:
...und immer wieder konnte man lesen, dass dafür spezielle Tools existieren wie z.b. AS SSD Benchmark
Die taugen aber nicht um diesen Fehler aufzuspüren, weil die eben die Dateien direkt schreiben und dann gleich wieder einlesen, die haben also keine Zeit von dem Bug betroffen zu sein.


Blublah schrieb:
Teste mal mit FileBench, das wurde extra entwickelt um diesen Fehler zu testen:
Anhang anzeigen 442375
Genau das Tool sollte man dafür verwenden, das liest Dateien so wie sie geschrieben wurden und keine Bereiche die gar nicht beschrieben worden sind oder LBAs die zu ganz verschiedenen Dateien gehören.

Fr34k8885 schrieb:
hier noch weitere Ergebnisse

1x 830 als Systemplatte
10-png.442382
Auch hier sieht man bei der 830er wie unsinnig das Benchen mit den Low-Level Benchmarks ist.

haha schrieb:
Es gab schon vor 3 Monaten jemanden, der von dem Problem im Preisvergleich berichtete:
http://geizhals.de/?sr=977944,-1

Es wundert mich deshalb, dass Samsung erst jetzt was dagegen tut.
Wegen irgendwelche schlechten Kritiken mit wenig konkreten und nicht nachvollziehbaren schlechten Werten? Da steht
Bei belegten LBAs kann man bei 4k Lesend bestenfalls 40MB/s erreichen, 70MB/s gibt es allenfalls bei unbelegten LBAs, wo ja nichts aus dem NAND gelesen wird. Aufgrund so eines Beitrags wird sicher kein Hersteller aktiv, ganz sicher nicht. Erst die Ergebnisse mit dem FileBench dürfte Samsung dazu gebracht haben sich mit dem Thema zu befassen, denn auch die Ergebnisse mit HD Tune und HD Tach dürfte nicht als relevant eingestuft worden sein, ich würde es jedenfalls nicht tun.

Blublah schrieb:
Ja, über das Problem wurde schon an unterschiedlichen Stellen immer mal wieder berichtet. Aber auch weil die normalen Benchmarkprogramme es nicht zeigen glaubten die meisten Leute wohl, dass es an etwas anderem als der SSD liegt.
So ist es, denn es gibt sehr viele Gründe warum die Leseraten schlecht sein können, bis zu den Virenfindern, die zuweilen auch stark bremsen.

Warhead schrieb:
interessant dazu ist nur der as ssd bench, wo auf den ersten blick alles io erscheint, abgesehen von der fehlenden zugriffszeit:
Das liegt aber nicht an der SSD sondern denn Rechten des Programms auf das Physikalische Laufwerk direkt zuzugreifen. Virenfinder und andere Sicherheitsprogramme verbieten sowas oft, da auch Viren sowas gerne machen um sich vor Virenfindern zu verstecken. Vermutlich dürfte AS-SSD dabei auch versehentlich unbeschriebene LBAs lesen wollen und das ist immer etwas suspekt. Der Fehler kommt bei AS-SSD auf viele Systemen vor.

Das liegt also nicht an der SSD und hat nichts mit dem Bug zu tun.
Warhead schrieb:
PS: der vollständigkeit halber:
Vergleich das mal mit Deinem Ergebnis von HD Tach, da waren die Werte oberhalb von 300GB noch viel schlechter.

Athlonscout schrieb:
OK, du liegst richtig. Scheint Toshiba TLC verbaut zu sein. Ich wußte bisher nicht, dass Toshiba TLC schon marktreif hat.
Doch, das ist ja nun in der Ultra II erschienen. Samsung NANDs gibt es meines Wissen gar nicht mehr in anderen SSDs, das scheint Samsung alles selbst zu verbauen.

thanatur schrieb:
die 3 Bit werden ja auch nur durch 3 verschiedene spannungen erreicht
Nicht 3 sondern 8, die zu unterscheidenen Ladungsniveaus sind immer 2^bpc, bei bpc für Bit per Cell steht.
thanatur schrieb:
wenn da die isolation nicht sehr gut ist(elektronenmigration/ spg sich zu nah am grenzwert befindet), können sich solche probleme ergeben?!
thanatur schrieb:
Die SSD sollten die Daten laut der JEDEC JESD 218 12 Monate bei 30°C halten, bis sie die spzifizierten P/E Zyklen erreicht haben. Daher wäre so ein Ladungsverlust nach nur wenigen Monaten zu hoch, obwohl der Ladungsverlust bei höheren Temperaturen beschleunigt wird.

Wenn es das ist, könnte die Ultra II durchaus ein ähnliches Problem haben.
thanatur schrieb:
könnte das auch ein großes 3D-NAND problem werden?
Gute Frage, aber die Zellen sind ja bei Samsung V-NANDs sehr groß, womit das Problem weniger stark ausgeprägt sein sollte. Bei den 1xnm NANDs werden ja nur noch einige Dutzend Elektronen pro Zelle gespeichert, da machen dann wenige Elektronen den Unterschied zwischen zwei Ladungszuständen aus.

andr_gin schrieb:
Wenn die Zellen wirklich schon nach ein paar Wochen/Monaten schwieriger auslesbar sind, ist das ein riesiger Skandal. Wie sieht denn das dann nach 3-5 Jahren aus?
Bei 30°C braucht eine Consumer SSD die Daten im ausgeschalteten Zustand nur 12 Monate zu halten, 3 bis 5 Jahren garantiert Dir also keiner. Im Betrieb sieht das anders aus, aber die 840er gibt es seid Ende 2012 und bisher hat es noch keine (massenhaften) Berichte gegeben, dass dort alte Daten nicht mehr gelesen werden konnten und alten Daten wären z.B. die Partitionstabelle oder ein Großteil des installieren Windows, welche dann also nicht mehr booten könnte. Also nicht gleich künstlich aufregen.
andr_gin schrieb:
Wenn die Zellen wirklich die Spannung verlieren, heißt das, dass in naher Zukunft alle SSDs Lesefehler haben werden.
Wieso? Bisher zeigt sich das jedenfalls nicht. Vielleicht refresht die FW ja die Zellen schon heute, nur eben erst später, so dass die Daten zwar schon langsam gelesen werden, aber eben noch sicher gelesen werden können und erst wenn das kritisch wird, werden sie dann umkopiert.

Matzegr schrieb:
Gleiche Dateien wie vorhins und diesmal gibt es keinen Einbruch der Leserate. Beides mal wurde die komplette Partition ausgewählt (knapp 68GB gelesen). Gibt es dafür eine Erklärung?
Wenn nicht etwas anderes den Benchmark gestört hat (Zugriffe von anderen Programme oder Windows auf die SSD während des Benchmarks), dann könnte es genau das sein, was ich eben beschrieben habe: Der Controller prüft ob die Lesbarkeit nahe am Limit liegt und wenn das der Fall ist, kopiert der die Daten intern um. Man sollte nicht vergessen, dass ja auch das Auslesen der Daten aus dem NANDs die Ladung schwächt und daher nach einer bestimmen Anzahl an Auslesevorgängen die Daten erneuert werden müssen.

Blublah schrieb:
Andere Einflüsse sind:
- Power Konfiguration: Für beste Konsistenz nur mit 'High Performance' testen
- Hardware Cache auf der SSD
- Software Caches (Windows caching wird per Flags für das Testprogramm deaktiviert)
So groß ist der Cache der SSD nicht und wenn die Daten aus dem SW Cache von Windows kommen würde, wären die Leseraten vermutlich ungleich höher.

Blublah schrieb:
Ich konnte feststellen, dass selbst die SSD Temperatur eine Rolle spielt bei der EVO (siehe oben).
Liegt womöglich an der thermischen Throttelung, die haben die älteren SSDs ja nicht.

obi68 schrieb:
Business und EVO passt für mich nicht zusammen.
Wieso nicht? Samsung ist nach Intel die Nummer zwei auf dem Enterprise SSD Markt. Die meisten Entscheidungsträger in der IT sehen das also anders also Du.
 
Holt schrieb:
Bei 30°C braucht eine Consumer SSD die Daten im ausgeschalteten Zustand nur 12 Monate zu halten, 3 bis 5 Jahren garantiert Dir also keiner.

Hast Du für diese Aussage auch Belege?

Aber bitte nicht einfach die JEDEC JESD 218 hier reinkopieren, wenn die 840/840 EVO keine entsprechende Konformität besitzt, Danke.


Ergänzung: Könnte sich vielleicht auch jemand aus der Fachredaktion mal mit diesem Thema vertraut machen, denn wenn die Haltbarkeit einer SSD auf 12 Monate begrenzt wäre, sollte man dies durchaus den Anwendern in einem entsprechenden Beitrag näher bringen. Dies wäre dann eine mehr als wichtige Information, bevor es zu massenhaften Datenverlust kommt.
 
Zuletzt bearbeitet: (Nur 12 Monate Haltbarkeit)
Verwechsele doch nicht die Haltbarkeit der SSD mit der Zeit die die Daten im ausgeschalteten Zustand erhalten bleiben sollten, das sind doch ganz unterschiedliche Dinger und wenn die Evo nur 12 Monate "haltbar" wäre, müssten die ersten Exemplare ja schon längst reihenweise ausfallen. Also bitte mal ein wenig nachdenken und nicht immer alles ganz wild durcheinander werfen :freak:
 
Mist, bin auch betroffen (indirekt)....hab im 2.Rechner wegen "Wenignutzung" extra ne günstigere EVO verbaut...bum voll ins Fettnäpfchen (Schäden höher weil weniger Nutzung...), dachte schon warum plötzlich die Backups länger dauern, man denkt sich ja erstmal nix dabei.

Tja, das kratzt jetzt an Samsungs Ruf muss ich sagen, war mit den 830ern so zufrieden. Doch mal wieder nen Blick zu anderen Herstellern werfen.
 
Zuletzt bearbeitet:
OK, ist das nun ein Problem was grundsätzlich alle SSDs betrifft oder ausschließlich die EVOs?
Man hört ja immer wieder von einbrechender Leistung nach einigen Monaten oder so. Ich selbst habe leider noch keine SSD, aber sowas wäre bei einem Kauf zu berücksichtigen!
 
DonBruno schrieb:
OK, ist das nun ein Problem was grundsätzlich alle SSDs betrifft oder ausschließlich die EVOs?

Dass Daten die einige Wochen bis Monate alt sind immer langsamer gelesen werden ist ein Problem das bisher nur bei der EVO und der 840 nicht EVO (in geringerem Mass) beobachtet wurde.

Ein anderes, allgemeineres Phänomen ist dass oft die Schreibgeschwindigkeit mit zunehmender Füllung der SSD etwas nachlässt. Dies ist aber gewissermassen normal.
 
Zurück
Oben