840 evo 1 TB ist lahm auf "alten" Daten

Blublah schrieb:
Nein, sollte in Ordnung sein. HDTach hat so seine eigenen Probleme mit der EVO.
Nimm mal HDTune (sektororientiert wie HDTach) oder FileBench (dateiorientiert).
http://www.hdtune.com/
Anhang anzeigen 442442

Ausserdem benutz mal die Energieeinstellung 'Hohe Performance' in Windows beim messen. Das kann auch noch einen Unterschied machen.

Ok besten Dank. Habe nun einmal HD Tune laufen lassen und es ist bis auf den Anfang und zwei Außreißer bei 2/3 über 400 mb/s. Jetzt bin ich wieder beruhigt.

Ob es nun wirklich so ist oder ich mir das einbilde, aber gefühlt ist mein System wieder erheblich schneller. Habe die SSD nun fast 8 Monate und da waren dann doch sehr alte Dateien bei!

N8 zusammen,
Gruß SeS
 

Anhänge

  • HDTune_optimized.JPG
    HDTune_optimized.JPG
    54,5 KB · Aufrufe: 1.504
SeS schrieb:
Ob es nun wirklich so ist oder ich mir das einbilde, aber gefühlt ist mein System wieder erheblich schneller.

Das sollte auch so sein. Neben der sequentiellen Leserate geht auch die Zugriffsgeschwindigkeit stark runter. Obwohl zumindest die Zugriffsgeschwindigkeit noch ein gutes Stück besser ist als bei HDs, was wohl einer der Gründe ist wieso das Problem vorher nicht mehr Leuten aufgefallen ist.
 
Habe jetzt mal meine 250gb 840 (also nicht die Evo und auch nicht die Pro) getestet und die ist auch betroffen. Ca. 1 Jahr alt und nur ~110 Stunden gelaufen. Geschrieben wurden nur 450gb ... Die lesend teilweise auf <40 MB/s runter -.-
 
Ja von der 840 'nicht EVO' wurde das auch schon ein paar Mal berichtet. Dort schien es allerdings im Durchschnitt länger als bei der EVO zu dauern bis die Leserate stärker runtergeht.

Was wiederum mit den Flash Zellen zusammenhängen könnte welche bei der EVO noch kleiner sind als bei der normalen 840. Beide benutzen TLC. Aber das ist nur Spekulation.

Könntest du vielleicht mal FileBench laufen lassen und einen Screenshot von der Grafik mit dem zeitlichen Verlauf posten? (Autoscreenshot wird nur von der MessageBox gemacht).

Das wäre toll, denn von der 840 gibt es noch nicht so viele Ergebnisse.
Anhang anzeigen File Bench 007a.zip
 
Zu spät ^^ Der Refresh läuft schon seit 10 min. Mal schauen ob das hilft.
Ergänzung ()

Fazit: Der Refresh hat geholfen. Hat mich zwar 1 P/E gekostet, aber letztendlich ist es egal. Das System ist gefühlt wieder deutlich flotter geworden - wobei ich mir das ggf. auch nur einbilde.
 
Ich glaub nicht das du es dir einbildest, ich dachte die letzten Wochen selbst das mein 3 Monate alter PC irgendwie langsamer ist. Nun nach dem Backup & Restore ist er wieder flott wie am ersten Tag.
 
maikwars schrieb:

Datenverlust und Zuverlässigkeitsprobleme sind aber noch einmal eine ganz andere Hausnummer als nur eine schwache Performance beim Lesen. Das nur bestimmte Fertigungslose betroffen sind, ist aber schon etwas komisch, da wird Plextor doch nicht etwa bei der NAND Qualität geschludert haben, das wäre tödlich für deren Ruf. Gerade wo Plextor so damit wirbt die SSDs so ausführlich zu testen, dürfte sowas nicht passieren.

Es scheint jedenfalls als wenn man mit den 2d NANDs an die Grenzen stößt und in den winzigen Zellen einfach nicht mehr genug Ladung untergebracht werden kann, so dass schon der Verlust weniger Elektronen zu ernsten Problemen führt.
 
Die meisten haben es gesehen. Jetzt auch Erwähnung bei CB direkt:
https://www.computerbase.de/2014-09/840-evo-ssd-schwaechelt-bei-alten-daten/

Dass ich quasi persönlich erwähnt werde, ist irgendwie nett.
Ich hatte am Anfang vielleicht eine richtige Idee.

Aber ohne Blublah, der das Thema so effizient und mit viel Nachrduck zu den overclockers getragen hat bzw. dort den Thread mit den Ideen aus diesem Thread und natürchlich auch mit seinem Tool bestückt hat, hätte es das Thema wohl nicht bis in die Nachrichten geschafft. Jedenfalls beziehen sich Anandtech usw. immer direkt auf den Thread bei den overclocker.net.

Mal so als Mini-Historie:
16.8.
Posting bei den Overclockers mit dem Problem wurde
19.8.
ich habe hier den Link rüber gemacht.
19.9.
Als News/Bericht bei Anandtech angekommen
22.9.
Bei Gizmodo
22/23.9.
Auf einigen dt. Sites, z.B. bei CB

btw.
Der Samsung-Support (ist auch nur ein Dienstleister) hat heute geantwortet, dass "Samsung damit beschäftigt sei, die Ursache zu erforschen."
Man wird sich wieder melden, wenn Samsung eine Lösung gefunden wurde.

Ich finde da hat die Community eine sehr gute Arbeit geleistet, so nah war ich an so einer Sache noch nicht dran :)
 
Zuletzt bearbeitet:
Es ist eine Erklärung aufgetaucht, die angeblich auf Samsung zurückgeht:
http://forums.overclockers.co.uk/showthread.php?t=18629993

Es kommt wohl eine Software, die einen Firmwareupdate macht, aber auch die komplette SSD "auffrischt".
Nach der Aussage dort, tritt das Problem nur mit Zellen auf, die ein einziges Mal geschrieben wurden und deshalb falsch gelesen werden. Die geringe Geschwindigkeit liegt angeblich wirklich an Berechnung von Fehlerbehebung.

Naja, das passt immerhin dazu, dass meine SSD nach dem Durchlauf von MyDefrag bisher nicht wieder langsamer geworden ist.

Dass das Problem erst dann so richtig auftauchte, als immer mehr Leute große SSDs kauften und da Dinge wie Spiele drauflegten, passt auch.
 
d.h. das Problem sollte sich erledigt haben auch ohne Firmware-Update wenn man seine lahme EVO mit der hier im Forum beschriebenen Mydefrag-Methode "aufgefrischt" hat ? Weil das wäre ja ein zweiter Schreibvorgang für alle Daten........hmm.

Allerdings wenn die defragmentierte SSD nur zu einem geringen Teil gefüllt ist müßte es ja auch nach der "Defragmentierung" noch so einige Speicherzellen geben welche noch jungfräulich sind, erst später in Nutzung geraten und dann wieder das Lesetempo verlieren.......
 
Jede neue SSD, jeden USB Stick, jede Speicherkarte und sogar jede HDD teste ich vor der richtigen Benutzung mindestens einmal komplett mit h2testw durch. Wer das auch so macht, hat also kein Problem mit dem Bug, denn die realen Daten sind dann ja schon mindestens der zweite Schreibvorgang.
 
Erster Bericht über den "Fix":
http://www.pcper.com/reviews/Storag...toration-Tool-preview-Getting-EVOs-back-speed

Ein Laufwerk hat sich beim Update die MFT geschossen, also besser Backup machen.
Wobei man dann auch gleich alles runterkopieren und dann nach dem Update wieder rauf werfen kann. Macht den "Update" schneller.

Download selbst habe ich noch nicht gesehen.

Es gibt auch keine Aussage, ob bei einem neu gekauften Laufwerk das reine Update reicht und ob die Firmware bald in die neu ausgelieferten SSDs Einzjg hält.
 
Holt schrieb:
Wer das auch so macht, hat also kein Problem mit dem Bug, denn die realen Daten sind dann ja schon mindestens der zweite Schreibvorgang.

Diese Aussage, dass nur die erstmalig geschriebenen Zellen betroffen sein sollen halte ich für falsch. Denn damit wäre kaum zu erklären, dass über 90% aller getesteten EVOs stark von dem Problem betroffen waren. Evtl. ist die Aussage auch eine stark vereinfachte Version von dem wirklichen Problem.
 
Blublah schrieb:
Diese Aussage, dass nur die erstmalig geschriebenen Zellen betroffen sein sollen halte ich für falsch. Denn damit wäre kaum zu erklären, dass über 90% aller getesteten EVOs stark von dem Problem betroffen waren. Evtl. ist die Aussage auch eine stark vereinfachte Version von dem wirklichen Problem.

Full ack.
 
Ist es nicht schön. Da hat es nur wenig länger als ein halbes Jahr gedauert und Samsung hat vielleicht eine mehr oder weniger dauerhafte Lösung, die offensichtlich auch nix anderes macht als die Daten öfter mal zu kopieren. Aber in der Firmware.
https://www.computerbase.de/2015-04...magician-4.6-firmware-gegen-leistungsverlust/

Also eigentlich die Lösung, die ich hier am Anfang des Threads nach 5h gefunden hatte. :king: :D
 
Zurück
Oben