News Samsung untersucht Problem mit alten Daten bei SSD 840 Basic

Dolly6 schrieb:
Nie, weil kein TLC.

Der Bug ist nach derzeitigen Kenntnisstand auf eine fehlerhafte Kalibrierung der Fehlerkorrekturmechanismen zurückzuführen und dem Controller der 840/ 840 evo und dessen Firmware zuzuordnen. Solche Mechanismen kommen in modifizierter Form auch bei 2-Bit-MLC- und bei SLC-SSD zu Einsatz. Insofern ist ein vergleichbarer Bug für Nicht-TLC-SSD nicht per se auszuschließen. Zudem kann aufgrund dessen nicht geschlussfolgert werden, dass sämtliche TLC-SSD betroffen sind.
 
Zuletzt bearbeitet:
MichaG schrieb:
Aber im Grunde war die ganze Sache ja nicht soo wild, denn wirklich "gemerkt" hatte den Leistungsverlust bis dahin kaum jemand. Trotzdem will ich hoffen, dass auch die 840 bald ein Update erhält.

Gemerkt hat es jeder der unterschiedlich alte PC mit der SSD benutzt/viel Volumen alte Daten gelesen hat, nur sind die meissten wie ich zu Faul im grosse Abklärungen zu machen, wo genau das Problem liegt solange der PC einigermassen läuft.
 
SavageSkull schrieb:
Ich hab auch noch eine Intel ssd320 mit 8mb Bug und dafür gibts immer noch keine Lösung...
Das ist aber in dem Fall total falsch. Die Meldung von 8MB ist Intels offizielle, dokumentierte Meldung nach plötzlichem Stromausfall, wenn ein ahnungloser User mitten im Betrieb den PC abwürgt hat und die Firmware inkonsistent geworden ist. Was meldet Samsung dann?

Der Spruch ist auch ein Teil der Samsung-Beschönigungs-Kampagne. Beliebtes Verfahren, mit dem Finger auf andere zeigen, lernt man schon im Kindergarten, wenn das Töpfchen umgekippt ist.

QUOTE=Madnex;16472428]

Du biegst dir auch alles so zurecht, wie du es gerade brauchst. Nicht wahr? Samsung hat nach Bekanntwerden dieser "Leseschwäche" bei der EVO recht zügig und vorbildlich reagiert. Wo siehst du eine Verarsche, die du belegen kannst und nicht nur aus dem Bauchgefühl her rührt?

Andere Hersteller reagieren oft viel langsamer oder gar nicht. Beispielsweise besteht zumindest bei der M500 (möglicherweise auch der MX100) von Crucial nach wie vor der Trim-Bug unter Linux, obwohl sie schon länger davon wissen. Und hier geht es um Datenkorruption und nicht nur um eine Leseschwäche.[/QUOTE]

Solche Texte empfindet mein Bauchgefühl als blanke Verarsche.

Eine SSD ist (auch) ein System, bei dem immer jedes Element einzeln als Baustein entwickelt und getestet wird. Lange bevor es TLC-Flash als kompletten Chip gab, wurden die einzelnen Zellen getestet und man kannte deren Eigenschaften sehr genau. Samsung hatte das über ein Jahre gewusst und verpennt oder bewusst in Kauf genommen.

Direkt dargestellt wurde die Notlösung bereits 2012.
DSP to the Rescue
http://www.anandtech.com/show/6337/samsung-ssd-840-250gb-review/4
"Even though DSP doesn't make NAND immortal, it causes a lot less stress on the NAND, allowing it to last for more P/E cycles than what you would get without DSP."

Das Verfahren wurde auch durch Anobit bekannt.
http://www.storagesearch.com/adaptive-flash-ssd-ip.html

http://arstechnica.com/apple/2011/1...a-billion-to-secure-its-flash-storage-future/
"Apple already uses an Anobit-designed DSP chip in iPhones, iPads, and MacBook Airs to extend the life of the NAND flash chips in those devices."

(Das Foto von 2011 sieht stark nach NGFF/M.2 aus...)

Vielleicht hat Samsung verpennt, dass ihre Billigware schon vor dem ersten Gebrauch ab Werk anständig justiert werden muss.


Die Schwäche von TLC:
http://www.anandtech.com/show/5067/understanding-tlc-nand/2

http://images.anandtech.com/doci/5067/Capture2.jpg
Wenn man sich bei dem TLC-Symbolbild jede 2. Verteilungskurve weg denkt, dann hat man MLC
http://images.anandtech.com/doci/5067/Capture1.jpg

Bei MLC ist viel mehr Platz frei für Streuungen. Damit gibt es dieses Kalibrierungsproblem nicht. Man kann jetzt nur bei fortgeschrittenem Wear Out aus 10.000 PE/Zyklen vielleicht 20.000 oder 30.000 raus quetschen.
Meine 5 Jahre alte Schrott-SSD mit MLC hat keinen DSP und braucht den auch nicht und ist kein Fitzelchen langsamer geworden.

Das 19nm TLC ist ohne DSP schon bei der Geburt halb tot.
 
Die Erklärung erscheint mir plausibel!

Womöglich wurde die Langsamkeit eines Systems von vielen Nutzern oft auch auf ein "zugemülltes Windows" geschoben und es wurde dabei vermutet, daß das selbst eine SSD nicht wettmachen kann. Wenn dann die SSD platt gemacht und Windows neu installiert wurde, gab es ja in dem Moment keine "alten Daten" mehr und das (scheinbare) Problem war vorerst beseitigt.

Aber gut, daß Samsung und uns jetzt bekannt ist, wo der eigentliche Hund begraben lag :)
 
Madnex schrieb:
Wo siehst du eine Verarsche, die du belegen kannst und nicht nur aus dem Bauchgefühl her rührt?

Ich wollte Dir gerne eine fachlich korrekte Antwort geben. Die wurde aber schon während des Verfassens des Beitrages von Computerbesens vorauseilender Zensur überwacht und sofort gelöscht.
 
Madnex schrieb:
...
Andere Hersteller reagieren oft viel langsamer oder gar nicht. Beispielsweise besteht zumindest bei der M500 (möglicherweise auch der MX100) von Crucial nach wie vor der Trim-Bug unter Linux, obwohl sie schon länger davon wissen. Und hier geht es um Datenkorruption und nicht nur um eine Leseschwäche.
Ich denke da nur mal an Intel, u.a. mit dem USB 3.0-Bug bei den Bords Haswell, Version C1. Schon ca. 3 Mon. vor Produkterscheinen war der Hardwarebug bekannt, trotzdem wurden diese dann mit Bug vermarktet.
 
Ich habe seit einigen Jahren eine SSD 830 256GB, welche als OS Platte immer vorzüglich lief und dann durch eine 840 Pro 256GB ersetzt wurde als OS Platte. Seit einem Jahr läuft die 830 als Speichermedium für 60Hz Losless Spiele Videos. Obwohl ich die 830 schon mordsmäßig gestresst habe mit den dicken Videos, ist sie immer noch bei 100 %.

Beinahe hätte ich mir statt der 840 Pro eine 840 Evo geholt. Qualität und ein geringer Aufpreis zahlen sich irgendwie immer wieder aus.
 
Hab eine Samsung 830 128 GB Series, tritt das Problem mit der auch auf? Bis jetzt konnte ich keine Probleme bei mir feststellen. Und soweit ich das lese betraf das nur die 840er Serie oder?
 
Danke, dann bin ich beruhigt und werde nicht in Panik ein Firmeware Update starten:D
 
Das geht ziemlich fix mit der Verringerung der Leserate. Da am 23.09. die ersten Diskussionen aufkamen habe ich so geschätzt Anfang Oktober mit DiskFresh der SSD wieder auf die Sprünge helfen können. Heute habe ich den Spaß noch mal wiederholt, diesmal mit Bildern. Was auffällt: die starken Einbrüche sind weg, das Maximum ist aber zurück gegangen, Average nur mäßig angestiegen.
 

Anhänge

  • Samsung SSD 840 Nr.1.png
    Samsung SSD 840 Nr.1.png
    49,4 KB · Aufrufe: 480
  • Samsung SSD 840 Nr.2.png
    Samsung SSD 840 Nr.2.png
    61,9 KB · Aufrufe: 504
Bei mit ist die Leserate schon nach weniger als 4 Wochen wieder eingebrochen.
 
Hallo zusammen, meine 840 bootet mittlerweile nicht mehr schneller, als die HDD, die vorher drin war.
Meine Vertex 2 ist um Welten schneller an SATA 2.
Da ich die SSD nur für das OS nutze, schreibe ich kaum was drauf. So können auch keine Daten refreshed werden. Was ich so lese, scheint Samsung ja auch auf dem falschen Weg zu sein, dass die Zellen, wenn Sie einmal komplett beschrieben wurden, den Fehler nicht mehr haben. Da war doch ein Post, der hatte 1,6GB geschrieben und immer noch den Fehler.
Tschau, peljotha.

Werde mal mit Amazon versuchen, das in eine M500 oder was ähnliches umzutauschen.
 
Zuletzt bearbeitet:
@peljotha
Du kannst mal im Forum unter Flashspeicher & SSDs ein neues Thema erstellen und da gleich eine Zusammenfassung von CrystalDiskInfo beifügen, wenn du Hilfe willst.
Bei CrystalDiskinfo "Bearbeiten" dann "Kopieren". Den kompletten Text kannst du dann als Textdatei abspeichern und als Anhang hoch laden. Wenn du ihn direkt im Forum einfügst, dann ohne die "Kopieroptionen": "IDENTIFY_DEVICE", "SMART_READ_DATA" und "SMART_READ_THRESHOLD". Die brauchen nur unnötig Platz. Es werden dann alle HDD/SSD aufgeführt mit den S.M.A.R.T.ies. ;)
 
wie siehts jetzt aus, seit der meldung hat man über das problem nichts mehr gehört. existiert das problem überhaupt?
ich habe selbst eine 840 (ohne irgendeinen zusatz), die funktioniert (gefühlt zumindest) einwandfrei.
 
Meine läuft gefühlt immer schlechter -.-"
Würde auch gerne mal wissen, wann da mal was kommt
 
Hallo,

ich habe jetzt mal an einem S-ATA 2 System die SSD als 2. eingehängt und mit filebench laufen lassen.
Das Ergebnis ist sehr ernüchternd! Mit der Zeit wird das immer schlimmer (habe den Test bereist mehrere Male laufen lassen). Die Bobbel rutschen immer weiter runter!

Jetzt sollten wir uns mal auf die Hinterfüße, bzw. Samsung auf die Füße, stellen!

Peljotha

Jetzt habe ich die 840 platt gemacht und die Vertex2 auf die 840 gecloned. Jetzt rennt sie wieder!
 

Anhänge

  • 840_250GB_second_SSD.JPG
    840_250GB_second_SSD.JPG
    63,9 KB · Aufrufe: 432
  • HDTune_Benchmark_Samsung_SSD_840_Seri.png
    HDTune_Benchmark_Samsung_SSD_840_Seri.png
    41,5 KB · Aufrufe: 426
  • 840nach_klonen.JPG
    840nach_klonen.JPG
    54,3 KB · Aufrufe: 431
Zuletzt bearbeitet:
Ich hoffe das auch. Hab zwar persönlich keine 840 Basic, aber Verwandte von mir - auf meine damalige Empfehlung hin. ;)

Ob es eine Lösung gibt und wie die aussieht, ist zwar noch offen, aber daß sich Samsung bei einer nun schon mehrere Generationen alten SSD um Ursachenfindung bemüht, ist ja schonmal was. Soweit gehen andere nicht einmal.


EDIT: Bei der nun angekündigten 850-EVO ist mit so einem Problem aufgrund der ziemlich neuen Bauweise (3D-NAND) nicht zu rechnen, obwohl auch TLC, oder?
 
Zurück
Oben