News SSD 840 Evo: Magician 4.6 und neue Firmware gegen Leistungsverlust

XxMiltenXx schrieb:
Hey, mein Problem ist. Er hat bei mir eben ohne irgendwelche Hilfsmittel das Update gefunden (zuvor hatte er einfach nichts gefunden), jedoch wenn ich versuche zu downloaded, bekomme ich nur die Fehlermeldung, das die für das Update benötigten Dateien nicht gefunden werden können.

Wenn ich nun deine Methode anwende, Magician aber nicht neustarte, sondern dann einfach versuche zu downloaden, kommt der selbe Fehler. Wenn ich ihn dann erneut suchen lasse, findet er das Update immer noch, lässt sich aber immer noch nicht updaten.

Wenn ich nun Magician mit deiner Registry neustarte, findet er überhaupt kein Update.

Habe ne 840 Evo 120GB. irgendwelche Ideen?

Ok, habe eine Lösung gefunden ... stellt sicher das MiniWebserver auf Port 80 läuft! Bei mir war das Problem, das Skype aktiv war und Port 80 benutzt hat. Dadurch stellte sich MiniWebserver auf Port 81... und Magigian konnte da nichts finden. Lösung, Skype schließen (oder welches Programm sonst noch Port 80 verwendet), MiniWebserver auf Port 80 stellen und somit neustarten, dann Magician starten und Firmware herunterladen. Voila.
 
TrueDespair schrieb:
Vergleicht man die Evo mit anderen SSDs gibt es fast gleiche Leistungsabfälle mit fortschreitender Zeit.
Eine fast leere SSD im Neuzustand bringt immer die besten Leistung, das ist eben normal und wer die Leistung vergleichen will, muss mindestens einmal die SSDs komplett löschen.

TrueDespair schrieb:
Im Umkehrschluss müsste man die HDD Hersteller allerdings auch verklagen, denn von einem Leistungsabfall und die Arbeit zur Defragmentierung hat auch niemand angesprochen.
Die Fragmentierung ist aber kein Problem der HDD, sondern eines des Filesystemss und die gibt es genauso bei SSDs, nur wirkt sie sich dort weit weniger aus und wird erst bei extremer Fragmentierung in den Bnechmarks sichtbar, weil es dann eben viele kurze Zugriffe statt weniger langer Zugriffe gibt und bei kurzen Zugriffen sind SSDs eben langsamer.

Aixem schrieb:
Meine alte Evo 840 (non OS) scheint sogar einen defekt zu haben, da die Schreibwerte mehr als halbiert.
Die sind beide recht langsam, da dürfte was anderes die SSDs ausbremsen. Vor allem die D: ist viel zu lahm. Passieren da im Hintergrund andere Zugriffe auf die SSD? Benche mal mit dem AS-SSD Benchmark und poste den Screenshot davon (bitte nur von AS-SSD) im passenden [Sammelthread] Sind die Werte meiner SSD in Ordnung? (Teil VII) . Wiederhole den Benchmark dann auch noch mal im Abgesicherten Modus von Windows.

Aixem schrieb:
Mal schauen wegen der Garantie, und fällt überhaupt so ein Performance Abfall darunter ?
Wohl nicht und schon gar nicht, wenn Du sie nicht einmal komplett Löscht und dann auf einem System mit nativem SATA 6Gb/s an einem solchen Ports auch bencht, mit allem Energiespareinstellungen auf Höchstleistung.
 
Du meinst Laufwerk E: ? Und ja die Werte sind extrem schlecht, die Platte wurde formatiert und da liegt aktuell nur nen 60GB großes Image drauf und keine anderen Zugriffe.

Ich habe mal die Benchmarks drüber laufen lassen, und dort sehen die Werte für C: wenigstens besser aus.

mOHfaEv.jpg

Ich habe schon beim Magician Benchmark die Kabel am Board bei den beiden Platten getauscht mit den gleichen Ergebnissen.
Die beiden Sata Interfaces laufen im 6Gb/s(SATA3) Modus.

Ich würde sagen die E: ist ein faules Ei.
 
Also ich kann das Update für meine 840 EVO auch nicht runterladen.
Ich finde das schon recht frech so eine SSD auf dem Markt zu bringen wenn sie solche Probleme hat.
 
Man muss den Download und die BIOS Update am frühen Morgen durchführen.

Die allzunette Firma Samsung hat offensichtlich ein tägliches Kontingent: Morgens zwischen 5:30 und 7:30 konnte ich meine Firmware aktualisieren und gestern Magican 4-6 runter laden.

Habe das Gleiche um 8:10 probiert und wurde geblockt

Miserabel ist dass diese SW nicht funktioniert, wenn der Intel Chipsatz Treiber im RAID Modus läuft. Selbst wenn die SSD nicht als RAID betrieben wird - Man kann die SW nicht gebrauchen.

Und unter WIndows 8 scheint sie nicht zu funktionieren - Ein Anachronismus!!!!

Ich habe 3 Evo 840 Pro 750GB aktualisiert.

In meinem Desktop hatte ich 2 RAID 1 Systeme für Dokumente am Laufen - Für den Update auf AHCI zurückgestellt, den Update und die Umorganisation unter Windows 7 durchgeführt.
Jetzt habe ich leider keine RAID mehr sondern einzelne Disks

Mein Schluss - Nie mehr Samsung. Das Problem mit RAID ist seit Jahren bekannt, heisst einfach, unterstützen wir nicht

Frechheit
 
Aixem schrieb:
Die beiden Sata Interfaces laufen im 6Gb/s(SATA3) Modus.

Ich würde sagen die E: ist ein faules Ei.
Geht es um das ASRock Z68 aus Deiner Signatur? Dann dürfte die E: an einem der Ports von dem Marvell 9120 hängen, der ist bekanntlich nicht der schnellste, der ist auch nur mit einer PCIe 2.0 Lane angebunden und wenn ASRock dann noch einen PLX Chip verbaut hat weil die Lanes sonst nicht für die ganze Features und Slots reichen wie beim Z97 Extreme 6 wo beide ASMedia 1061 (und noch was mehr) sich über so einen PLX Chip eine Lane teilen, dann sind die Werte eben noch mieser, weil noch weniger Bandbreite da ist.

Stecke die SSDs also auf jeden Fall an die beiden SAAT 6Gb/s Ports des Z68er Chipsatzes:
Das müsste also die SATA3_1 und SATA3_2 sein, ohne das M in der Bezeichnung. Dann benche noch mal, dann sollte auch die Performance passen.

Dann beachte auch noch, dass der PCIE5 Slot offenbar 4 PCIe 2.0 Lanes des Chipsatzes hat, damit entspricht dessen Anbindung dann der ganze Bandbreite der DMI2 (= PCIe 2.0 x4) des Chipsatzes, wenn da also eine Karte drin steckt die viele Daten übertragt, also z.B. eine Graka, dann muss alles was am Chipsatz hängt sich mit der um die Bandbreite prügeln, also auch alle SSDs und dann sind schlechte Werte kein Wunder und auch nicht die Schuld der SSD.
 
TLC ist und bleibt einfach mist. Das was die jetzt machen, lässt die Platten doch noch schneller altern, als es die TLC Zelle jetzt schon macht.
 
naja, bei so und soviel GB Schreiben am Tag, hält die Platte so und so lange... ist aber für den Privatanwender eigentlich völlig irrelevant.

Die Platte hält halt bei zb einer Schreibmenge von 10 GB pro Tag dann X Tage, weil sie nur garantiert 72 TB an Daten auf die Zellen schreiben kann, dann gibt sie den Löffel ab. ( Herstellerangabe )

Und da bei der Evo nun, um die Performanceprobleme in den Griff zu bekommen, im Hintergrund, sobald die SSD sich eine Weile im Idle befindet, die darauf befindlichen Daten erneut schreibt, geht das natürlich auf die TBW.

ist ja auch überall angegeben:
( TBW – Total Bytes Written )
( MTBF - Mean time between/before failure )

840er Evo 120 GB - Max. Schreibvolumen (TBW): 72TB • MTBF: 1.5 Mio. Stunden
840er Evo 250 GB - Max. Schreibvolumen (TBW): 72TB • MTBF: 1.5 Mio. Stunden
840er Evo 500 GB - Max. Schreibvolumen (TBW): 72TB • MTBF: 1.5 Mio. Stunden
840er Evo 1000 GB - Max. Schreibvolumen (TBW): 72TB • MTBF: 1.5 Mio. Stunden

850er Evo 120 GB - Max. Schreibvolumen (TBW): 75TB • MTBF: 1.5 Mio. Stunden
850er Evo 250 GB - Max. Schreibvolumen (TBW): 75TB • MTBF: 1.5 Mio. Stunden
850er Evo 500 GB - Max. Schreibvolumen (TBW): 150TB • MTBF: 1.5 Mio. Stunden
850er Evo 1000 GB - Max. Schreibvolumen (TBW): 150TB • MTBF: 1.5 Mio. Stunden

Google liefert diesbezüglich, 1-2 Treffer ;)

Hardwareluxx - Härtetest - was hält eine SSD aus

Pcgh - Lebensdauer einer SSD - kann man SSD's totschreiben?

Computerbase Forum - Haltbarkeit SSD

etc etc ...

@ Topic

also hier läuft alles wie am ersten Tag... beide Evos blieben aber bisher von dem Performanceeinbruch verschont.

120er hat 5345 Betriebstunden / 6,16 TB geschrieben ( Zustand 96% )
256er hat 3638 Betriebsstunden / 2,53 TB geschrieben ( Zustand 98% )

evosnhuq8.png
 
Zuletzt bearbeitet:
ich habe bei meiner 840evo 1tb platte etwa 8tb pro jahr wenn es jetzt mit der FW auf 10 steigt hält meine SSD noch 5-6 Jahre
das wäre für mich akzeptabel
 
morpheus! schrieb:
Blöde Frage...wohin importieren ?
Lass es einfach, denn es bringt nicht, die Limitierung macht der Server von Samsung und die wird am 27. ausgehoben. Versuche so Dein Glück oder warte und lade dann das Update am 28. runter.

Tom Keller schrieb:
Ich bin irritiert :confused_alt: - hier steht so ziemlich das genaue Gegenteil:
Sorry, mein Fehler, bei den Enterprise SSDs ist es Intel, im Gesamtmarkt Samsung.
 
Hallo32 schrieb:
Die Daten im Datenblatt sind so niedrig gehalten, dass die SSD die zusätzlichen Zyklen ohne Probleme aushält.

Schaue dir mal die Tests an, bei den die SSDs bis zum Ausfall beschrieben wurden.

Diese Totschreibtests bergen allerdings die große Gefahr der Fehlinterpretation, da die für die Datenerhaltung "reservierten" P/E Zyklen keinerlei Berücksichtigung finden.

Sollte man aber auch das geringste Interesse haben, auf eine SSD geschriebene Daten auch nach mehreren Tagen - Wochen - Jahren wieder "Lesen" zu können, gelten ganz andere Werte der "nutzbaren" P/E Zyklen.

Am Beispiel der Samung TLC Problematik bedeutet dies einfach folgendes: Da die TLC Nands noch nicht mal im Zustand "Neu" Informationen länger als einige Monate speichern und fehlerfrei mit voller Geschwindigkeit gelesen werden können, beträgt die "nutzbare Anzahl" von P/E Zyklen noch nicht einmal NULL.
 
@ dertester1

Dickes danke und großen Respekt für die Mini Webserver Lösung!

1. Offline.64bit.reg ausgeführt
2. MiniWebserver.exe gestartet
3. Samsung Magician 4.6 gestartet und die neue Firmware zum Update wurde endlich angeführt.
4. Original.Wiederherstellung.64.Bit.reg ausgeführt

Alles super geklappt!
 
Zuletzt bearbeitet:
juenger schrieb:
Diese Totschreibtests bergen allerdings die große Gefahr der Fehlinterpretation, da die für die Datenerhaltung "reservierten" P/E Zyklen keinerlei Berücksichtigung finden.
Was für Zellen denn sonst? Die Evo hat zwar auch den TurboWrite Cache und bei der ist dieser Pseudo-SLC Cache in Zellen die nur dafür genutzt werden, aber da bei den Totschreibtests ja viele Daten auf einmal geschrieben werden, wird der kaum belastet und die allermeisten Daten gehen direkt in die normalen TLC NANDs.

juenger schrieb:
Am Beispiel der Samung TLC Problematik bedeutet dies einfach folgendes: Da die TLC Nands noch nicht mal im Zustand "Neu" Informationen länger als einige Monate speichern und fehlerfrei mit voller Geschwindigkeit gelesen werden können, beträgt die "nutzbare Anzahl" von P/E Zyklen noch nicht einmal NULL.
Die Daten können doch fehlerfrei ausgelsen werden und das Problem der Geschwindigkeit ist eher eine Sache der FW, außerdem ist vor allem die 840 Evo betroffen mit dem planaren TLC in 19nm, die 840 mit dem 21nm NAND ist weniger betroffen und die 850 Evo mit dem 3d TLC NAND gar nicht. Das NANDs generell nicht optimal zur Langzeitdatenspeicherung sind, sollte auch bekannt sein, zumal wenn es wärmer ist, da der Verlust an Ladung mit steigenden Temperaturen zunimmt. Je nach Quelle halbiert sich die DRT ja 5°C oder 10°C mehr.
 
Holt schrieb:
Was für Zellen denn sonst? Die Evo hat zwar auch den TurboWrite Cache und bei der ist dieser Pseudo-SLC Cache in Zellen die nur dafür genutzt werden, aber da bei den Totschreibtests ja viele Daten auf einmal geschrieben werden, wird der kaum belastet und die allermeisten Daten gehen direkt in die normalen TLC NANDs.

Holt, verstehst Du eigentlich selbst, was Du da so von Dir gibst? Wenn Du die Problematik der Kaputtschreibtests nicht verstehst versuche doch wenigstens zu verstehen, das man einen Flash-Speicher per Definition nicht solange beschreiben darf, bis er kaputt ist. Die Daten müssen auch noch nach einer längeren DRT noch lesbar sein.

Holt schrieb:
Das NANDs generell nicht optimal zur Langzeitdatenspeicherung sind, sollte auch bekannt sein, zumal wenn es wärmer ist, da der Verlust an Ladung mit steigenden Temperaturen zunimmt. Je nach Quelle halbiert sich die DRT ja 5°C oder 10°C mehr.

Auch in diesem Fall wird es nicht besser die gleiche Fehlinformation durch endlose dogmatische Wiederholung als Information verkaufen zu wollen. Flash Memory für industrielle Anwendung findest Du im iNet des öfteren mit rund 100 Jahren und Consumer Flash wird oft mit einem DRT Zeitraum von 10 Jahren genannt.


Und bitte hör auf, in einem Anwenderforum, wofür ich das CB Forum eigentlich halte, deine Marketing-Ratschläge zu verbreiten. Ich als Konsument und Endverbraucher lasse mich nicht für Dumm verkaufen und von Dir laufend erklrären wie "Schlecht" ein Speichersystem sein darf und ich als Kunde dies so hinnehmen müsse.

Wenn Du Fakten hast, gerne aber deine konzernorientierte Meinungsmache ist auf Dauer echt nervend.


Nachtrag:

Holt schrieb:
Die Daten können doch fehlerfrei ausgelsen werden und das Problem der Geschwindigkeit ist eher eine Sache der FW

Die zum Teil signifikante verlangsamsung der Leseraten ist aber schon ein recht deutliches Indiz und korrekterweise muesste man sagen lässt sich "bisher" fehlerfrei auslesen. Die Frage bleibt aber offen, wie sich die Degeneration der Flash Zellen bei noch längerer Recovery-losen Zeit weiterentwickeln wird.

Aber wie kommst Du eigentlich zu der Annahme es handle sich um ein FW Problem? Nur weil Samsung ein FW Update angekündigt hat, bedeutet dies doch nicht zwingend das ein FW Problem vorliegt? Meiner Meinung nach liegt das Problem in der Hardware.
 
Zuletzt bearbeitet: (Nachtrag)
juenger schrieb:
Holt, verstehst Du eigentlich selbst, was Du da so von Dir gibst?
Im Gegensatz zu Dir ja!
juenger schrieb:
Wenn Du die Problematik der Kaputtschreibtests nicht verstehst versuche doch wenigstens zu verstehen, das man einen Flash-Speicher per Definition nicht solange beschreiben darf, bis er kaputt ist.
Deswegen sind die spezifizierten P/E Zyklen ja auch deutlich geringer als die maximal möglichen P/E Zyklen, denn die DRT fällt auch mit der Zahl der verbrauchten Zyklen, dazu findest Du von mir hier Beitrag von vor einigen Jahren.
juenger schrieb:
Die Daten müssen auch noch nach einer längeren DRT noch lesbar sein.
Das ist von der JEDEC in der JESD 218 definiert und zwar mit der Temperaturangeben und für Client (also Consumer) und Enterprise SSDs getrennt:

jedec_data_retention-jpg.332553


Auch diesen Anhang poste ich schon seid Jahren immer wieder. Data Retention Power On gibt es nicht, dafür muss jeder Controller durch Refreshes selbst sorgen und das machen sie auch, weshalb auch SSD die NAND verschleissen, wenn man überhaupt nicht auf ihnen schreibt, zumal auch das Auslesen Ladung in den Zellen kostet.

juenger schrieb:
Auch in diesem Fall wird es nicht besser die gleiche Fehlinformation durch endlose dogmatische Wiederholung als Information verkaufen zu wollen.
Fehlinformationen kommen hier nur von Dir. Wie z.B.:
juenger schrieb:
Flash Memory für industrielle Anwendung findest Du im iNet des öfteren mit rund 100 Jahren und Consumer Flash wird oft mit einem DRT Zeitraum von 10 Jahren genannt.
Scheißhausparolen ohne jeden Beleg. Die 100 Jahren sind wie die oft zitierten 100.000 P/E Zyklen für SLC NAND als unbewiesene Behauptung bis komplett Übertreibung aus der Anfangszeit der NAND Technologie zu sehen.

Schaut Euch doch mal an, wie die MTRON und die Intel X25-E im Dauerschreibtest auf xtremesystems.org abgeschnitten haben. Die MTRON waren auch schnell und unter komischen Umständen kaputt, also konnte keine wohl nie jemand damit 100.000 Zyklen belegen und die SLC NANDs der X25-E waren nicht besser als die MLC NANDs der X25-V. Die immer wieder genannten 100.000 P/E Zyklen für SLC halte ich daher für schamlos übertrieben, vielleicht schaffen die besten Qualitäten, aber warum sollte nicht die besten Qualitäten in seiner SSD verbaut haben?

Bei der Intel X25-E 64GB hat sich jedenfalls nach 579.46 TiB der Available Reserved space von 100 auf 99 verringert, obwohl es angeblich keine Reallocations gab, S.M.A.R.T. Attribute sagen eben nicht immer die Wahrheit, nach 625.97 TiB sind dann die ersten beiden Reallocated sectors aufgetaucht, da waren gerade erst 5% der Spezifizierten Zyklen verbraucht. Bei 665.36 TiB waren es 7 Reallocated sectors, bei 702.41 TiB schon 27 und der Wert ist munter weiter gestiegen.

Im Vergleich dazu hat sich bei der Intel X25-M G1 80GB nach 431,9031 TiB die Anzahl der Reallocated sectors von 02 auf 04 erhöht (den Post 0 auf 2 habe ich nicht gefunden) und da war der MWI auf 82, es waren also nur 18% der Spezifizierten P/E Zyklen verbraucht. Bei 439,2336 TiB waren es 5 (MWI 80), bei 443 TiB 7 (MWI 79) und Ende war sie nach 883.46 TiB, da war der Zähler der Reallocated sectors schon mehrfach übergelaufen (ist der Aktuelle Wert, nicht der Rohwert) und auch der MWI war schon unter 0 und wieder bis 235 runter. Der Available Reserved space war auf 16 gefallen.

Beiden haben den gleichen Controller, beiden haben 80GiB NAND verbaut (ist ja ein 10 Kanal Controller) und auch wenn die Meldung über das Ableben der X25-E fehlt, so war bei der letzten Meldung nach 1.58 PiB der Available Reserved space von 25 (bei 1.49 PiB) auf 14 gefallen, die SSD also sehr nahe am Ende und hatte nicht einmal doppelt so viele Daten geschrieben wie die X25-M mit dem MLC NAND.

Vergleicht man das noch mit der Crucial m4 64GB, die genau darüber auch nahe dem Ende ist aber noch lebt und 2110.8663 TiB (=2.06PiB) geschrieben und 36477 P/E Zyklen überstanden hat, obwohl sie 20% weniger NAND und auch nur das MLC in 25nm statt in 50nm wie die beiden Intel hat, so zeigt das doch deutlich, dass SLC wohl eben nicht so eine mythische Haltbarkeit hat und die Fortschritte der Controller sowie der NAND Fertigung die prinzipiellen Nachteile von mehr Bits pro Zelle und kleineren Fertigungsstrukturen durchaus mehr als ausgleichen können. Das haben wohl auch die SSD Hersteller bemerkt und setzen deswegen nun die besten MLC Qualtitäten als eMLC statt SLC NAND bei Enterprise SSDs ein.

Glaube also nicht jede unbelegte Behauptung die irgendwo im Netz zu lesen ist! Auch das das Back Bias assisted Band to Band tunneling (B4) Flash um das es hier geht, ist noch Zukunftsmusik und hat mit dem NAND normaler SSDs nicht zu tun, es ist auch deutlich teurer.
juenger schrieb:
Und bitte hör auf, in einem Anwenderforum, wofür ich das CB Forum eigentlich halte, deine Marketing-Ratschläge zu verbreiten.
Was haben denn Deine Ausführungen über Zukunftsmusik wie B4 Flash hie verloren? Das kann heute noch niemand kaufen und wenn, wäre es extrem teuer.
juenger schrieb:
Ich als Konsument und Endverbraucher lasse mich nicht für Dumm verkaufen und von Dir laufend erklrären wie "Schlecht" ein Speichersystem sein darf und ich als Kunde dies so hinnehmen müsse.
Klar kann man immer das bestes haben wollen, nur macht es Sinn? Die Kapazitäten steigen immer noch und die Preise fallen, dazu gibt es jetzt mit PCIe SSDs Modelle deren Performance die von SATA 6Gb/s SSD in den Schatten stellt. Von der Performance der SSDs der ersten Generation die es noch mit SLC NAND gab, gar nicht zu reden. Hättest Du Dir damals einige davon gekauft und ich einige mit der gleichen Kapazität in MLC, so hätte ich genug Geld gespart um mir zwischendurch ein paar neue SSDs zu kaufen , die dann auch noch viel größer und schneller als Deine alten SLC SSD wären.

Gerade für einen Heimanwender ist es bei Computer-HW eben nicht die besten Strategie sich immer die allerbeste und daher auch teuerste HW zu kaufen, auch wenn diese sehr viel länger haltbar ist, nicht solange die Entwicklung immer weiter geht.

juenger schrieb:
Wenn Du Fakten hast, gerne aber deine konzernorientierte Meinungsmache ist auf Dauer echt nervend.
Deine schwachsinnigen Kommentare auch, denn alle größeren HW Anbieter und NANDs werden eben nur von großen Anbietern gefertigt weil man das nicht im Hinterhof machen kannn, sind nun einmal große Konzern. Wieso sollte jemandem empfehlen eine SSD von einer kleinen Klitsche zu kaufen, die es morgen vielleicht nicht gibt, die den Controllerhersteller vielleicht morgen nicht mehr bezahlt und damit keine FW Update für ihre Kunden mehr bekommt (schau mal wie viele Anbieter von SSD mit dem Sandforce schon ewig keine FW Update für ihre Kunden mehr bereitstellen) und deren SSDs entweder sehr teuer sind oder die einfach NANDs fragwürdiger Qualität verbauen, weil dort kein Label von Tier 1 NAND des NAND Herstellers drauf ist?

Außer dem bescheuerten Argument mit den paar Lesern hier zu versuchen eine Marktkonzentration verhindern zu wollen, was sowieso nirmals klappen wird und gegenüber den Lesern unfair ist, fällt mir nichts ein. Außerdem gibt es auch noch Egoisten in Foren die anderen eine eher zweifelhafte Empfehlung geben um die als Versuchskanninchen zu missbraichen, weil sie selbst sich nicht trauen diese Hardware zu kaufen und daher wissen wollen, ob der andere auf die Nase gefolgen ist um nicht selbst in Risiko zu gehen. Was man davon halten soll, kann wohl jeder selbst für sich beantworten. Was von beiden ist also Dein Motiv mich für meine Empfehlungen zu kritisieren?
juenger schrieb:
Die zum Teil signifikante verlangsamsung der Leseraten ist aber schon ein recht deutliches Indiz und korrekterweise muesste man sagen lässt sich "bisher" fehlerfrei auslesen.
Das ist korrekt, aber laut JEDEC JESD218 müssen die Daten nur 12 Monate lange gelesen mit der genannten UBER werden können und solnage die spezifizierten P/E Zyklen nicht verbaucht und die Temperatur nicht überschritten wurde. Danach sollten die Anbieter die die NAND binnen und dazu die spezifizierten Zyklen angeben, wenn sie sich an die Norm halten.
juenger schrieb:
Die Frage bleibt aber offen, wie sich die Degeneration der Flash Zellen bei noch längerer Recovery-losen Zeit weiterentwickeln wird.
Dann werden die Daten irgendwann verloren gehen, das ist keine Frage. NAND ist eben kein Langzeitdatenspeicher und die SSD werden von Heimanwendern auch üblicherweise nicht dafür eingesetzt.

juenger schrieb:
Aber wie kommst Du eigentlich zu der Annahme es handle sich um ein FW Problem? Nur weil Samsung ein FW Update angekündigt hat, bedeutet dies doch nicht zwingend das ein FW Problem vorliegt? Meiner Meinung nach liegt das Problem in der Hardware.
Nein! Die HW, also die NANDs und damit deren DRT ist ja gegeben und damit hätte die FW darauf eingestellt werden müssen und deshalb ist es die Schuld der FW. Mit einer anderen HW, also anderen NANDs wie den 3d-TLC-NANDs der 850 Evo wäre das auch mit der FW nicht passiert, das ist klar. Aber da FW immer auf die konkrete HW angepasst sein muss und nicht umgekehrt, ist eben die FW hier schuld.

Aueßrdem gibt es ja zwei Schritte bei dem Update die das Problem beheben:

Das zeigt, dass alleine das FW Update den Großteil des Effektes ausmacht. Wie viel von dem Effekt der Refresh und wie viel alleine die anderen interne Anordnung nach dem Refresh, welches offenbar sequentiell neuschreibt. Dabei ist der Einfluss der Anordung der Daten zu berücksichtigen die die Controller normalerweise ebe abhängig von dem Zusammenhang beim Schreiben vornehmen, was auch als Schattenfilesystem bezeichnet wird.
 
Zuletzt bearbeitet:
@Holt hast du irgendwelche Aktien von Samsung.

Ohne dich beleidigen oder angreifen zu wollen das bringt doch nix sich auf die Seite von irgendwelchen Herstellern oder Konzernen zu stellen, so sieht das jedenfalls für mich aus. Das nervt wirklich, wenn du immer wieder gebetsmühlenartig zu Samsung und zur aktuellen Lage die Marke versuchst zu verteidigen. Samsung hat bei den 840Evos/Non Evos nun mal Mist gebaut, und den Fehler haben Sie nicht wirklich behoben eher umgangen.

Die jetzige Firmware ist doch ein Witz, sie macht das selbe was das Restaurationstool zuvor schon konnte, was soll daran besser sein das User nicht mehr dabei ist wenn es optimiert wird. Es wurde einfach jetzt was integriert in die Firmware was im Hintergrund die Flashzellen auffrischt, Super Leistung. Ich würde mal gerne wissen, wenn dieser Algorithmus anschlägt ob man die SSD normal benutzen kann. Magican Software wollte das man nix dabei macht wenn die SSD optimiert wird.

Ich habe die aktuelle Firmware draufgespielt und die SSD optimieren lassen. Der Vorgang dauerte bei mir knapp 75-80min da die SSD zu Hälfte befüllt ist. Die Konsequenz von mir das ich die SSDs nicht behalte und bald 2 Crucials habe die diese Fehler nicht haben und wo ich nix optimieren muss, übrigens würde ich bei anderen Marken genauso verfahren wenn diese Fehler haben und Probleme nicht gelöst werden.

Ich habe 2x Samsungs 1TB 840 Evo und konnte diese dank dem Händler zurückgeben. Für mich ist es inakzeptabel das die Leseleistung drastisch einbricht nach ca. 2-3Monaten, dafür habe ich nicht die SSDs gekauft. Das die (TLC) 840EVO weniger Schreibvorgänge halten als (MLC) 840Pro war mir auch klar, deshalb gibt es ja den Preisunterschied.
 
Zuletzt bearbeitet:
Das "nur" die FW "Schuld" ist kann ich so nicht hinnehmen. Ich sehe hier zusätzlich eine Streuung in der Qualität. Ich habe eine frühe EVO die völlig unauffällig ist. Schnell, keine einbrüche auch bei älteren Daten nicht. Im Verhalten der Pro ähnlich.
Andere EVOs ..., na ja.
Jetzt soll die FW die große Qualitätsstreuung ausgleichen. Da hat jemand (Samsung) seine Produktion nicht im Griff.

Die große Frage ist nun wie jeder damit persönlich umgeht. Kann man für eine 300€ SSD wirklich eine 100% Qualitätsauslese verlangen? Schließlich geht es bei der EVO um Consumerprodukte und nicht um Rechentechnik für die NASA.
Warum nun Consumerkunden nun NASAtechnik verlangen ..., Werbung, Marketing - reingefallen.
Aber Achtung, Samsung, nicht jeder lässt sich auf Dauer verarschen!
 
Zurück
Oben