Test Crucial MX100 SSD im Test

BlackWidowmaker schrieb:
Und das wäre dann meine Überleitung zum Fazit. Grob formuliert kommt Ihr auf die glorreiche Erkenntnis, daß praktisch alle wichtigen Konsumer-SSDs z.Z. mehr oder weniger gleich schnell sind. Dem kann ich mich nicht anschließen. Denn Ihr seht einfach den Wald vor lauter Bäume nicht. Die richtige Erkenntnis müßte lauten:

Alle verfügbaren Konsumer-SSDs sind gleichsam sau-langsam weil sie vom verwendeten Interface limitiert werden. SATA (das schließt ausdrücklich auch das neue SATA-Express Format mit ein) ist grundsätzlich die völlig falsche Wahl beim Anschluß von Flash-Speicher an einen Computer. M.2 ist eine bessere Wahl, aber letztendlich auch nur ein fauler Kompromiss. Die einzig richtige Schnittstelle für Flash-Speicher ist eine PCIe-Schnittstelle mit genügend Lanes (mindestens 4 besser wären 8 PCIe 2.0 Lanes oder höher).
Ich als Consumer habe keinen Leistungsunterschied, zwischen meiner alten Sata2 Intel SSD 320 und der Sata3 Samsung 830 feststellen können. Der einzige Unterschied den man als normal Nutzer merkt, ist der Unterschied zur mechanischen HDD.
Solange man nichts von einem SSD Sterben hört, wie damals bei OCZ werde ich weiterhin auf die günstigsten SSD setzen und diese weiterempfehlen.

Ich habe am Mittwoch eine MX100 512GB bestellt. Mir reichen die 250GB meiner Samsung 840 nicht mehr. Mal schauen ob Amazon das bis heute noch schafft, dann kann ich mit Acronis heute wieder bei drei Rechnern rotieren.
 
HighTech-Freak schrieb:
@Hallo32: Vollschreiben is so eine Sache. Die Performance wird nicht mehr einbrechen wie früher, aber Wear-Leveling funktioniert nicht mehr so gut. Dein Arbeitsbereich sind immer die gleichen Zellen -und die altern dann entsprechend schnell. Solange Du die Daten auf der SSD aber ab und an mal verschiebst ist das vollkommen egal, dann kommen auch die anderen Zellen zum Zug.

Das Wearleveling verschiebt die Daten selbständig und verschiebt auch Daten aus Zellen die im Verhältnissen zu den anderen Zellen nur selten beschrieben worden sind.

Sonst würden die Zellen, in den die Windows Installation liegt, bei vielen ja kaum neu beschrieben. ;)

Oder der MBR der SSD usw.
 
Hallo32 schrieb:
Das Wearleveling verschiebt die Daten selbständig und verschiebt auch Daten aus Zellen die im Verhältnissen zu den anderen Zellen nur selten beschrieben worden sind.
Sonst würden die Zellen, in den die Windows Installation liegt, bei vielen ja kaum neu beschrieben. ;)
Oder der MBR der SSD usw.
Ist das eine Annahme oder gibt's dazu irgendwelche Dokumente? Wäre zwar wünschenswert, aber braucht eine halbwegs intelligente AI um nicht unnötig zu verschieben...

EDIT: Doch gerade wenn Wear-Leveling auch bestehende Daten verschiebt, ist freier Speicher umso wichtiger, da moderne SSD afaik keinen richtigen Reservespeicher mehr haben (240GB -> 256GB). Ähnlich dem Defragmentieren braucht man ja immer etwas "Arbeitsbereich"...
 
Zuletzt bearbeitet:
Cengiz schrieb:
ich bin gespannt wie die preise im September aussieht
In der zweiten Jahrenhälfte fallen die SSD Preise meist deutlich weniger als in der ersten, was wohl auch am Weihnachtsgeschäft liegt. Wenn es aber zu Abverkäufen aufgrund von Modellwechseln gibt oder ein Preiskrieg schon angekündig wird, dann könnte es diesmal anders sein. Das ist eben sehr schwer vorherzusagen.

oemmes schrieb:
Ich glaube, dass jetzt ein Preisniveau erreicht ist, dass sich nicht mehr deutlich nach unten bewegen wird.
Was bedeuten würe, dass die technische Entwicklung mit den 16nm NANDs am Ende wäre, wofür es aber keinen Beleg gibt. Intel fertigt demnächst CPUs in 14nm, da sollten NANDs in noch kleineren Strukuren möglich sein und dann gibt es ja noch die 3d V-NANDs. Es dürfte langfristig noch eine Weile weiter runter gehen mit den Preisen, kurz- und mittelfristig kann es aber immer Gegenbewegungen geben.
oemmes schrieb:
Und falls Läden wie Plextor glauben, sie könnten gegen NAND-Hersteller einen Preiskrieg führen, werden sie enden wie OCZ.
Das steht zu befürchten, aber es gibt ja außer Micron noch Samsung, Toshiba und SanDisk. Hynix könnte sich auch mal entschliessen den eigenen LAMD mit den eigenen NANDs in einer eigenen SSD anzubieten und wäre dann sicher auch in der Lage gute Preise zu machen.

BlackWidowmaker schrieb:
Für die Wahl der richtigen CPU + MB gibt es z.Z. doch eigentlich keine Alternative als ein i7-4790K auf einem AsRock Z97 Extreme 6. Wieso wurden wieder die falschen Komponenten gewählt?
Den 4790K gibt es seid wenigen Tagen, wie sollte man den schon für diesen Test nehmen können? Außerdem muss man irgendwann mal einen Schnitt machen und das kaufen was es dann gibt und kann nicht immer auf die nächste Generation warten, die dann irgendwann kommt und wieder besser ist und neue Features bietet. Außerdem kann man solche M.2 Slot auch über Slot-Karten nachrüsten.

BlackWidowmaker schrieb:
Grob formuliert kommt Ihr auf die glorreiche Erkenntnis, daß praktisch alle wichtigen Konsumer-SSDs z.Z. mehr oder weniger gleich schnell sind.
Was auch für 98% der Heimanwender stimmen dürfte, denn die wenigsten haben System und Anwendungen um schon das Potential dieser SSDs voll auszunutzen.
BlackWidowmaker schrieb:
Alle verfügbaren Konsumer-SSDs sind gleichsam sau-langsam weil sie vom verwendeten Interface limitiert werden.
Ja, RAM und CPU könnten die Daten schneller empfangen als die SSD sie liefern kann, aber diese SSDs sind bezahlbar und das ist für die meisten ja auch nicht ganz unwichtig.

BlackWidowmaker schrieb:
Nutzt man seine Kiste aber richtig aus, wird man ständig dazu genötigt zu warten.
Das ist nun einmal so, aber daran ist nicht nur der Massenspeicher schuld und außerdem wirst Du für jeden Computer eine Aufgabe finden, auf dessen Erledigung Du warten musst. Das ist beim Transport ja nicht anders, da bringt Dich auch kein Auto, Zug oder Flugzeug augenblicklich von A nach B, das Beamen gibt es ja immer noch nur im Film. Sorry, aber: Willkommen in der realen Welt! :evillol:

Atlan3000 schrieb:
Leider kann man heutzutage keiner US Firma mehr richtig trauen. Kennst du denn Alternativen? Ich hoffe du nennts nicht eine Südkoreanische Firma, einen Staat der seine Existenz nur dem militärischen Schutz der USA verdankt und sicher deswegen keinerlei Zugeständnisse an US Geheimdienste machen würde. ;)
Und wie sieht es in Deutschland aus? Unser Geheimdienst arbeit auch eng mit dem unserer Befreier zusammen und es reicht schon, wenn man nur auf dem US-Markt verkaufen will um sich deren Regeln unterwerfen zu müssen. Gehe bei jeder HW-Verschlüsselung und auch bei jeder propriäteren Verschlüsselung von Backdoors aus, egal woher die Lösung kommt. Oder würdest Du einer Lösung aus Israel oder China mehr trauen? Ich glaube kaum, dass die vertrauenswürdiger sind.

BlackWidowmaker schrieb:
Zudem sollte man mindestens 25-50% der Kapazität frei lassen. Genauso wie bei HDDs nur aus völlig anderen Gründen.
Die Gründe warum man das bei HDDs machen muss, gelte auch bei SSDs noch, wenn auch der Effekt weit geringer ist.

csx111 schrieb:
Ein guter Punkt, gleichwohl die Amerikaner keinen direkten Durchgriff auf Samsung haben. Eine Verschlüsselung der SSD nützt Dir im Falle manipuierter Firmware leider nichts
Die FW ist ja nicht das einzige, die SSD hat ja keine Tastatur und daher wird das Passwort über das Betriebssystem und die Verschlüsselungssoftware an den Controller weitergereicht, womit es Möglichkeiten genug gibt dieses abzugreifen.
 
@Hallo32: THX für die Referenzen. Sehr interessant... Hatte mich bisher nicht so detailliert mit Wear-Leveling auseinandergesetzt...
 
HighTech-Freak schrieb:
EDIT: Doch gerade wenn Wear-Leveling auch bestehende Daten verschiebt, ist freier Speicher umso wichtiger, da moderne SSD afaik keinen richtigen Reservespeicher mehr haben (240GB -> 256GB). Ähnlich dem Defragmentieren braucht man ja immer etwas "Arbeitsbereich"...

Den notwendigen Speicher bekommst du durch die Umrechnungsfaktor von 1024 bei den Nand Herstellern und den 1000 bei den "Betriebssystemen".

Bei 1GB
1000³/1024³=~93% -> ~7% pro GB für das Wearleveling und die Verwaltungsdaten der SSD

Bei 1TB
1000^4/1024^4=~91% -> ~9% pro TB für das Wearleveling und die Verwaltungsdaten der SSD

Der Speicherplatz ist mehr als ausreichend.

Edit: Gerne geschehen mit den Quellen.
 
Zuletzt bearbeitet:
Die Verwendung des M.2 Slots hätte noch einen weiteren Nachteil. Da fast jeder seine SSD an SATA betreibt, würde ein so angelegter Test halt auch sehr theoretisch und damit praxisfern ausfallen. Testen, so wie die Kunden die Hardware nutzen, das ist sinnvoll.
 
Also die Angaben zur Leistungsaufnahme in der Tabelle auf der ersten Seite haben ja anscheinend gar nichts mit der Realität zu tun... Habt ihr die Tabelle direkt von Crucial?

Gruß,
Lord Sethur
 
Es sind noch einige SSDs für diesen Herbst angekündigt und man hofft, dass diese zu einer Senkung des Preises führen.
 
Bin sehr zufrieden mit meiner Crucial M500 mit 240 GB :)
ein grosser Vorteil ist auch das die SSD das System sehr leise machen es rattert nichts mehr vor sich hin.

Wenn die Crucial MX100 mit 512 GB zukünftig noch deutlich im Preis sinkt werde ich mir diese kaufen
und die HDD nur noch extern mit USB 3.0 zur Datensicherung nutzen weil 512 GB + 240 GB Datenspeicher im Computer wären ausreichend.

frankkl
 
Genau das hab ich auch vor. Hab zur Zeit ne 256er M4 am Laufen :)
 
Bigfoot29 schrieb:
Wenn man auch nur 200MB Schreibrate ansetzt, machen die Platten nach Herstellerangabe nach rund 100 Stunden dicht. Das ist noch nichtmal eine Arbeitswoche... Die 700 GB, die ja möglich sein sollen, sind dann auch nur rund 1,5 Monate.
Dass es hier um Consumer-Hardware geht, ist aber schon aufgefallen?

Jan schrieb:
Ja, zur Computex auf Rückfrage. Grund: 16 nm kommen in die Massenware, die darüber hinaus im Fokus steht: 256 und 512. In die kleine kommt 20 nm, weil es keinen - in meinen Worten - "keinen juckt" und so keine 16-nm-Chips "verbrannt" werden.
Habt ihr das ein wenig hinterfragt? Denn Sinn macht die Aussage nicht.
Entweder der 16 nm NAND ist billiger als der 20nm, dann verbaue ich ihn wo ich nur kann. Oder er ist es nicht, dann würde ich aber die ganze MX100 Serie noch nicht bringen.
Ich hatte erst überlegt, ob vielleicht die momentanen Stückzahlen nicht ausreiochen um alle Modelle zu bedienen, aber das 128GB Modelle ist ja eh kein Volumenstarkes...

BlackWidowmaker schrieb:

ich nehme erfreut wahr, daß das Testsystem endlich ein Update erfahren hat. Leider aber das grundsätzlich falsche. Für die Wahl der richtigen CPU + MB gibt es z.Z. doch eigentlich keine Alternative als ein i7-4790K auf einem AsRock Z97 Extreme 6. Wieso wurden wieder die falschen Komponenten gewählt?

Vor allem die Wahl des MBs ist völlig unverständlich. Z.Z. ist das AsRock Z97 Extreme 6 das einzige MB mit einer M.2 Schnittstelle die per PCIex4 mit 32 GB/s angeschloßen ist. Somit ist es z.Z. das einzige MB überhaupt, das es ermöglicht selbst Hochleistungs-SSDs wie die Samsung XP941 anzuschließen ohne gleich wieder in eine Limitierung der Schnittstelle zu laufen.
Ich weiß nicht ob ich jetzt komplett im falschen Film bin, aber ich sehe da auf dem Mainboard einen fetten x16 PCIe 3.0 Slot. Die SSD die dort ausgebremst wird, muss erst moch erfunden werden.

Und das wäre dann meine Überleitung zum Fazit. Grob formuliert kommt Ihr auf die glorreiche Erkenntnis, daß praktisch alle wichtigen Konsumer-SSDs z.Z. mehr oder weniger gleich schnell sind. Dem kann ich mich nicht anschließen. Denn Ihr seht einfach den Wald vor lauter Bäume nicht. Die richtige Erkenntnis müßte lauten:

Alle verfügbaren Konsumer-SSDs sind gleichsam sau-langsam weil sie vom verwendeten Interface limitiert werden.
Das ist doch totaler Quatsch. Seit wann limitiert die sequentielle Transferrate? Da hätten wir ja auch bei HDDs bleiben können, die haben genau so schnell oder schneller geschrieben als die ersten SSDs.
Die Samsung XP941 ist auch nur sequentiell deutlich schneller, das wars dann auch schon. Hier müssen erstmal neue Controllerdesigns zeigen, was sie aus der neuen Schnittstelle inkl. NVMe rausholen können.
Aber ich behaupte mal da werden große Sprünge nur bei hoher Queuedepth zu machen sein. Für den Consumer ist das alles ganz nett, aber nichts essentielles.
Klar sind SSDs auf den neuen Schnittstellen erfreulich, denn die SSDs werden momemtan noch unnötig künstlich ausgebremst. Aber für den 0815 Consumer zu Hause hat das kaum auswirkungen, weil er die sequentielle Transferrate eh kaum nutzen kann.

BlackWidowmaker schrieb:
Eine 256GB solltest Du gar nicht kaufen. Wenn Du Dir die Evo 1TB nicht leisten kannst oder willst, dann die MX100 512GB. Wenn Du schon bei einer 256GB SSD knauserst, gehörst Du nicht zu den Leuten, die alle halbes Jahr lang das LW wechseln.
Warum sollte er auch alle halbe Jahr das Laufwerk wechseln? Solange man nicht weiß was er mit seinem Laufwerk anstellen will, ist es einfach nur unseriös hier das 256GB Laufwerk ausreden zu wollen.
Wenn er nur das OS und nen Paar Programme auf seinem Rechner hat, sind die 256GB mehr als ausreichend.

Und SSD-Speicherplatz ist ein ewig knappes Gut. Zudem sollte man mindestens 25-50% der Kapazität frei lassen. Genauso wie bei HDDs nur aus völlig anderen Gründen.
Aus welchem Grund sollte man 25-50% frei lassen? Das ist doch vollkommen übertrieben. Bei ner HDD erst recht.


Holt schrieb:
Wozu das Teil noch testen oder gar kaufen? Die MX100 ist günstiger und schneller und pro GB ist die m550 1TB günstiger als die m500 960GB.
Vielleicht aus Interesse an der Hardware? Mich hätte schon interessiert, was der leicht überarbeitete Controller und LPDDR2 in Sachen Stromverbrauch bringt. Kann man bei der Kapazitätswahl hier nur schwer abschätzen.
 
Zuletzt bearbeitet:
Habt ihr das ein wenig hinterfragt? Denn Sinn macht die Aussage nicht.

Das ist dann sinnvoll, wenn die Menge verfügbarer 16-nm-Chips einen Flaschenhals darstellt, oder 20-nm-Chips (Fertigung auf abgeschriebenen Maschine, viel Lagerware) extrem günstig zu haben sind. Crucial verwendet als Marke von Micron ja im Haus gefertigten NAND.
 
Zuletzt bearbeitet:
Holt schrieb:
.....die m500 läuft aus und wird durch die MX100 bzw. im Falle der 960GB durch die m550 ersetzt. Wozu das Teil noch testen oder gar kaufen? Die MX100 ist günstiger und schneller und pro GB ist die m550 1TB günstiger als die m500 960GB.

Da ja Micron das 16nm NAND auch noch mit 256Gigabit Diesize kommen soll, wäre damit sogar eine 2TB für kaum mehr als 600€ denkbar. Wieso Crcuial nicht einmal eine 1TB MX100 gebracht hat? Vielleicht um der m550 nicht total das Wasser abzugraben, ist doch die 1TB die einzige m550 die wirklich noch Sinn macht.
......

Dann werde ich wohl doch die 1TB M550 nehmen müssen und die 380€ berappen müssen.

http://geizhals.de/crucial-m550-1tb-ct1024m550ssd1-a1086148.html

Viel im Preis fallen wird diese SSD in diesem Jahr wohl nicht mehr fallen (Weihnachtsgeschäft und Alleinstellungsmerkmal MLC eigene NAND- Herstellung) und das mit dem fehlenden Platz für zusätzliche Fehlerkorrekturen der M500 wusste ich auch noch nicht.

....Das die m500 mehr „Spare Area“ hat, liegt laut Anands Review der MX100 an deren höhren Verhältnis von RAIN (Redundant Array of Independent NAND), welches bei der MX100 wie bei der m550 bei 1:127 liegt, während man der m500 mehr Parität gegeben hat, womit der Controller dann eben nicht unbedingt mehr Free Area hat, also nicht mehr Platz um dort Nutzdaten zu speichern und nur diese Free Area kann als „Reservespeicher“ die Leistung und Lebensdauer der SSD erhöhen. Platz den zusätzliche Fehlerkorrekturen wie RAIN (oder RAISE bei Sandforce) und Verwaltungsdaten belegen, steht dafür aber eben nicht zur Verfügung....

Hier ein Danke für die Info!

2TB für ca. 600€ wird im Endkundenmarkt wahrscheinlich nicht angenommen, da zu teuer obwohl für CPU Und GraKas auch das Geld lockerer sitzt (warum auch immer)
 
Danke cb für den schnellen Testbericht.

Mal ne Frage an die Community ...möchte bald von meiner m4 64GB auf die MX100 256GB umsteigen.

Können z.B. Crystal DiskInfo oder ein HardDisk Sentinel mittlerweile die Temperatur der neueren Crucial(s) auslesen?
Oder ist das im allgemeinen ein Problem bei SSD's.

greetz
 
Die verballern jetzt die 20nm Restbestände - die liegen eh am Lager rum. Warum sollten die die wegwerfen?

@holt: Meine Aussage zur Preisentwicklung bezog sich auf den aktuellen Fertigungsstand. Wenn die anderen NAND-Hersteller auch 16er in ausreichenden Mengen herstellen können, könnte es wieder eine Bewegung nach unten geben. Aber bisher ist Micron ja der einzige, der das kann.

Meine persönliche Hoffnung ist, dass endlich die Controller weiterentwickelt werden und die 256er-NAND-Entwicklung zügig foirtschreitet, so daß SSDs im TB-Bereich zu günstigen Kursen auftauchen und das wäre dann das Ende der HDD.
 
l3art schrieb:
Können z.B. Crystal DiskInfo oder ein HardDisk Sentinel mittlerweile die Temperatur der neueren Crucial(s) auslesen?
Oder ist das im allgemeinen ein Problem bei SSD's.

Ja, bei den Crucials Mxxx geht das
 
Zurück
Oben