Test Crucial MX100 SSD im Test

Holt schrieb:
Komische, warum fragst Du nach Belegen meiner Aussagen, aber bemühst Dich nicht einmal selbst Belege für das Gegenteil zu finden bzw. zu nennen?

Weil nicht ich etwas behauptet habe sondern Du. Wer behauptet steht nunmal in der Beweispflicht.

Und nein, eine Webseite die das ganze ebenfalls ohne Beleg behauptet ist für mich noch kein Nachweis.

Außerdem sieht man es am Verhalten der NAND Hersteller, so hat Micron sein 128Gigabit 20nm NAND mehr als ein Jahr nur für seine m500 verwendet und erst im April 2014 ist mit der AData SP920 eine SSDs eines anderen Hersteller damit erschienen

Weil die Qualität dieses NAND im Lauf des Jahres gesunken ist? Du solltest Deine Logikschaltkreise dringend mal zur Inspektion geben.

Und Samsung bietet seine 3d-V-NANDs überhaupt nicht zum Verkauf an externe Hersteller an

Auch das ist KEIN Beleg für die von Dir behauptete mindere Qualität der Bausteine die an Dritthersteller gehen.

Wenn Dir nicht einleuchtet, dass die Qualität den Preis bestimmt, dann suche einfach mal Belege für das Gegenteil!

Welcher Teil von "Das wiederum dürfte unstrittig sein." hat denn bei Dir den Eindruck erweckt das mir das nicht einleuchtet?
 
Kenneth Coldy, eidesstattliche Aussagen von CEOs wirst Du dazu im Netz nicht finden, die werden auch keine abgegeben haben. Alle anderen Hinweise tust Du ab, das ist aber Deine Sache. Glaube was Du willst und kaufe was Du willst, hoffentlich wirst Du damit glücklich. Aber wenn nicht, dann sage nicht, Du hättest es nicht gewusst, sage ehrlich, dass Du es nicht geglaubt hast. Kleiner Hinweis noch, schau Dir mal ssdendurancetest.com an, da wurden 4 SSD getestet, im Steady State weshalb da nur wenige TBW erreicht wurden, aber wichtig sind die P/E Zyklen und da hat nur die Budget SSD des Herstellers geschwächelt, der selbst keine NANDs herstellt. Die SSDs der NANDs Hersteller haben weit mehr P/E Zyklen überstanden als man gemäßt der Spezifikationen der NANDs (soweit bekannt und aus dem MWI ablesbar) vorgegeben haben.

Hallo32 schrieb:
Solange die Daten erhalten bzw. korrigiert werden konnten, sollte es doch egal sein. ;)
Ich vermute, dass in den Bereich auf viel "geheimes" in den Controllern und Firmware steckt.
Bsp. Sandforce Shield
Nicht umsonst wurde dort so ein Aufwand getrieben.
Sandforce hat schon immer einen besonderen Aufwand getrieben um auch mit minderwertigen NANDs noch halbwegs über die Runden zu kommen, damit deren Kunden, die SSD Hersteller, da sparen können. Davon hat der Käufer der SSD aber am Ende nichts, außer den Problemen der lange unausgereiften FW die wohl nicht zuletzt der Komplexität des Controller geschuldet ist. Am Ende hat weder im Dauerschreibtest auf xtremesystems.org noch in irgendeinem anderen Endurance Test jemals eine SSD mit einem Sandforce ein herausragend gutes Ergebnis erreichen können. Bei ssdendurancetest.com hat die Intel zwar viel mehr TBW erreicht, aber das ist praktisch weniger relevant da im Steady State und von den P/E Zyklen her war sie nur mininal besser als die TLCs der 840 und bei Techreport haben die SSD mit dem Sandforce auch nicht überragend lange gehalten, die 840 wird wohl nur von der einen HyperX mit dem zur Hälfte komprimierbaren Testdaten um vielleicht 100 TBW überlebt werden.

bei Sandforce wird immer viel versprochen und viel Getöse darum gemacht, aber am Ende kommt nicht mehr raus als bei anderen auch, ja oft sogar weniger. Dieses Shield wird im Alltag nur wieder bedeuten, dass die Performance mit der Zeit abfällt, weil der Aufwand für die ECC steigt, zumal andere Controller damit ja auch keine großen Probleme haben und die Daten ebenfalls noch mit gealterten NANDs speichern können.

Hallo32 schrieb:
Bitte trenne die beiden Ursachen für die Ausfälle. Spontane Ausfälle und Ausfälle deren Risiko man abschätzen kann. ;)
Das ist klar, aber Windows Warnungen kommen auch bei HDDs meist zu spät, das ist wie eine Motor-Kontroll-Leuchte die erst aufleuchtet, wenn man schon mit einer dicken Rauchwolke auf der Standspur ausrollt. :evillol:


Hallo32 schrieb:
Es gibt aber auch Ausfälle, deren Wahrscheinlichkeit sich anhand der Smart Werte abschätzen lassen. Ausfall des Nands anhand hoher Anzahl an Fehlerkorrekturen, Lesefehler und Programmierfehler usw.
Das ist richtig, aber das kann Windows eben nicht. Praktisch scheint eine steigende Zahl an Fehlerkorrekturen zusammen mit steigenden NAND Ausfälle ein guter Indikator für ein baldiges Ende zu sein, wie dieser Endurance Test einer 840 Pro zeigt und man hat das auch bei vielen SSDs bei xs.org gesehen:

840_pro_128gb_endurance1-png.427579

840_pro_128gb_endurance2-png.427580


Hallo32 schrieb:
Das Unterschreiten eines Grenzwertes erzwingt keinen sofortigen Ausfall der SSD und lässt in (fast) allen Fällen mehr als genug Zeit die Daten zu sichern.
Datensicherung sollte man eben nicht erst machen, wenn sich Fehler abzeichnen, dann kann es eben zu spät sein.

840_Pro_128GB_Endurance1.png
840_Pro_128GB_Endurance2.png
 
Holt schrieb:
Das ist klar, aber Windows Warnungen kommen auch bei HDDs meist zu spät, das ist wie eine Motor-Kontroll-Leuchte die erst aufleuchtet, wenn man schon mit einer dicken Rauchwolke auf der Standspur ausrollt. :evillol:

Wobei wir hier von SSDs reden, oder? ;)

Windows kann nur so gut warnen, wie die Smart Werte es erlauben. Siehe auch Kommentar weiter unten.

Holt schrieb:
Das ist richtig, aber das kann Windows eben nicht. Praktisch scheint eine steigende Zahl an Fehlerkorrekturen zusammen mit steigenden NAND Ausfälle ein guter Indikator für ein baldiges Ende zu sein, wie dieser Endurance Test einer 840 Pro zeigt und man hat das auch bei vielen SSDs bei xs.org gesehen:

Es fehlen die Threshold Werte bei den Smart Attributen und somit ist es keine Windows Fehler sondern ein Firmware Fehler der SSD. Wie soll Windows einen Fehler melden, wenn es nicht weiß ab wann der Wert kritisch ist?

Holt schrieb:
Datensicherung sollte man eben nicht erst machen, wenn sich Fehler abzeichnen, dann kann es eben zu spät sein.

Man sollte diese immer machen, wobei die meisten Nutzer es nicht machen und sich durch eine Warnmeldung dann doch evtl. dazu durchringen können.
 
Hallo32 schrieb:
Es fehlen die Threshold Werte bei den Smart Attributen
Nein, die sind klar definiert: Wenn der Aktuelle Wert den Grenzwert erreicht oder unterschreitet, dann ist es kritisch!

In wie weit Windows überhaupt die S.M.A.R.T. Werte überwacht oder einfach nur aufgrund von I/O Fehler seine Hinweise ausgibt, kann ich aber nicht sagen. Wichtiger als das wäre, wenn Windows den User regelmäßig zur Datensicherung auffordern würde, anstatt dies erst zu tun, wenn die Platte schon Probleme hat. Damit wären gerade SSD Usern weit mehr geholfen.
 
Holt schrieb:
Nein, die sind klar definiert: Wenn der Aktuelle Wert den Grenzwert erreicht oder unterschreitet, dann ist es kritisch!

Somit ist bei einer M500 (als Bsp. gewählt) eine steigende Anzahl an Neuzuweisungen nicht kritisch, weil der Smart Treshold auf 0 gesetzt ist und kein Current Value berechnet wird?

Smart2.PNG

Quelle: http://www.micron.com/-/media/docum...storage/tnfd21_m500-mu02_smart_attributes.pdf Seite 24
Ergänzung ()

Holt schrieb:
Wichtiger als das wäre, wenn Windows den User regelmäßig zur Datensicherung auffordern würde, anstatt dies erst zu tun, wenn die Platte schon Probleme hat. Damit wären gerade SSD Usern weit mehr geholfen.

Für solche Wünsche ist MS wohl der bessere Ansprechpartner.
 
Es obliegt eben jedem SSD Hersteller bzw. den Entwicklern des Controller und dessen FW dies zu Implantieren. Die FW war bei Crucial noch nie die Schokoladenseite und da haben sie auch wohl bis jetzt nicht alles perfekt gelöst, aber gibt es eine perfekte SSD? Ich fürchte nicht.

Leider habe ich keinen Einfluss auf die Entwicklung von Windows und da ein Forum wie dieses zu Diskussion da ist, erwähne ich es eben hier. Vielleicht liest es ja mal jemand und trägt es weiter. Aber vielleicht will MS den Datenretter auch ihr Geschäft nicht versauen.
 
Holt schrieb:
Es obliegt eben jedem SSD Hersteller bzw. den Entwicklern des Controller und dessen FW dies zu Implantieren. Die FW war bei Crucial noch nie die Schokoladenseite und da haben sie auch wohl bis jetzt nicht alles perfekt gelöst, aber gibt es eine perfekte SSD? Ich fürchte nicht.

Die perfekte SSD, die alle Wünsche aller Anwender erfüllt, wird es wohl nie geben. Somit stimme ich dir in den Punkt zu.

Es wäre aber wünschenswert, wenn die Crucial Firmware ebenfalls eine Schokoladenseite der SSD wird. ;)
 
Ich gebe mir Mühe, mich so zu verhalten, als würden meine Datenträger - egal ob HDD, SSD, DVD, USB-Stick, Speicherkarte oder was auch immer - innerhalb der nächsten Stunde ausfallen. Alles, was dann nicht oder nur mit unverhältnismäßigem Aufwand wiederhergestellt werden könnte, wird sofort gesichert. Mir sind deshalb S.M.A.R.T.-Werte und irgendwelche darauf aufbauenden Voodoo-Tools völlig schnuppe, weil die Technik generell immer an einer Stelle versagt, an der man es nicht erwartet. Insofern: Schön, dass Crucial diesen Hokuspokus nicht mitmacht und die Nutzer in trügerischer Sicherheit wiegt. ;)

Anders mag es im professionellen Umfeld aussehen, wo anhand solcher Werte eingeschätzt werden kann, wann das Gerät ausgetauscht werden muss, weil das Risiko eines Ausfalls zu groß wird. Dabei geht es aber nicht um die Sicherheit der Daten, denn die sind dort (hoffentlich) ohnehin mehrfach gesichert, sondern um den zeitweiligen Ausfall des damit ausgerüsteten Systems. Es ist billiger, zu einem geplanten Zeitpunkt das System zur Wartung (Ersatz von Komponenten) vorübergehend abzuschalten, als zur Unzeit von einem Ausfall überrascht zu werden. Für den Privatnutzer ist das in der Regel nebensächlich.
 
ThommyDD schrieb:
Mir sind deshalb S.M.A.R.T.-Werte und irgendwelche darauf aufbauenden Voodoo-Tools völlig schnuppe, weil die Technik generell immer an einer Stelle versagt, an der man es nicht erwartet. Insofern: Schön, dass Crucial diesen Hokuspokus nicht mitmacht und die Nutzer in trügerischer Sicherheit wiegt. ;)


Wenn es richtig implementiert ist, ist es weit weg von "Vodoo" für Fehler die auf Abnutzungen der SSD beruhen.
 
Schweift ihr nicht vom Thema ab? Es geht um den Test der MX100 :freak:
 
Bisher gibt es keine M.2, da will Crucial wohl noch eine Nische für die m550 lassen, denn außer als 1TB gibt es für die m550 gegenüber der MX100 eigentlich Argumente. Klar schreibt die schneller, aber sie ist teurer und statt zu einer m550 mit 128Gb greift man dann eben besser zur MX100 mit 256GB.

Aber ob M.2, mSATA oder 2.5", die haben alle die gleiche Performance und wenn Du nicht aufgrund der Einbausituation zu M.2 gezwungen bist, etwa in einem Notebook, würde ich die 2.5" Version vorziehen.
 
Man könnte auch überlegen, eine mSATA zu nehmen und in ein SATA-Gehäuse zu stecken. Dann kommt auch das nächste Notebook noch damit klar. Lohnt sich aber sicher nur bei großen SSDs, denn ein neues Notebook mit mSATA kommt sicher gleich mit SSD, nur vielleicht nicht mit einer großen oder das nur zu wucherverdächtigem Aufpreis.
 
Wenn das nächste Notebook ein neues Modell ist, dürfte es eher mit einem M.2 als mit einem mSATA Slot für SSDs kommen. Vergiss nicht, das M.2 mSATA schon bald ablösen dürfte.
 
Hey Leute, der Preisunterschied der M550 und der MX100 (beide bei 512GB) ist praktisch nicht mehr gegeben.
Da liegen momentan vll gerade 15 Euro dazwischen.
Welche sollte ich eurer Meinung nach nehmen?
 
Bzgl. der Performance sind sie in den meisten Reviews praktisch identisch, es ist auch der gleiche Controller und sogar die gleiche Platine. In 512GB habe beide NANDs mit 128Gigabit Diesize, nur hat die m550 das 20nm NAND und die MX100 der neue 16nm NAND. Von den Angaben her und bei den kleineren Versionen, wo die m550 dann NANDs mit 64Gigabit Diesize hat, ist die m550 überlegen, aber gerade in 512GB ist da praktisch kein Unterschied, außer den etwa 10% beim Preis.
 
Zurück
Oben