Test Crucial BX200 SSD im Test: Preisbrecher mit HDD-Leistung nach dem Cache

highks schrieb:
Wenn du ProRes oder gar RAW Material vorliegen hast, dann nicht. Bei manchen RAW Formaten brauchst du schon eine SSD, damit du das Ganze überhaupt ruckelfrei abspielen kannst.
Ich habe es bei Multi-Kamera Projekten mit 6 Kameras schon geschafft, beim Abspielen den Timeline knappe 300MB/s abzurufen - und das ganz ohne RAW, nur mit ProRes und XDCAM

Ähm ja, 300MB/s lesen sind ja auch nicht das Problem. Schreibst du auch mit 300MB/s?

Ich mach nur das übliche Urlaubs oder GoPro Videos zusammenschneiden und damit komme ich mit meiner Hardware nicht annähernd in solche Bereiche und genau darum gehts doch - Otto Normal User wird von der Schreiblimitierung nach dem Cache praktisch nie etwas merken.

Wenn der Straßenpreis sich letztlich auf einem interessanten Level einpendelt dann wäre das also durchaus ne Option für viele User.

highks schrieb:
Ich nutze z.B. 840 EVO und 850 EVO als Arbeistlaufwerk an einer MacPro Workstation, und keine Profi-SSDs.

Ne Samsung EVO ist für mich keine Budget SSD sondern unter den Consumer SSDs eher was gehobeneres.
Zwischen Budget und Profi gibts ja noch mehr als genug Bandbreite.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet von einem Moderator:
Ach ja,

beim passenden Preis wird sich auch diese SSD verkaufen. Ich persönlich habe eine 840 Evo als Spieleplatte und erhlich gesagt habe ich nicht großartig gemerkt, dass die Leistung eingebrochen war...

Ich nutze die SSDs aber auch eher selten zum kopieren großer Datenmengen, sollte also bei diesem Model dann auch kein Problem darstellen.

Als Systemplatte würde ich aber trotzdem immer ein Topmodel nehmen... ka. die heutigen Preise sind schon so nice im Vergleich zu meinen ersten 32GB SSDs :-D da darf es dann auch das Topmodel sein.
 
Ohweia was´n Rohrkrepierer :I

Crucial hat klasse SSD´s gebaut vielleicht die Besten, meine ist top, aber dass da?
Wozu eine SSD, wenn die Schreibleistung an ATA133 erinnert :D
Eine große SSD macht nur für Backups Sinn, aber bei 100MB Schreiben nein Danke.

In meinen Augen, habe das Wort noch nie benutzt ein Fail, dazu TLC *Würg!* so lange es MLC und SLC gibt würde ich mir so wie so nie so ein TLC Crap kaufen.

mfg
 
Eine SSD für Backups? Du hast komische Vorstellungen. Der Hauptvorteil sind die kurzen Zugriffszeiten, die seq. Schreibraten spielen gerade bei Windows Systemlaufwerken kaum eine Rolle und dann hat man bei kleinen Schreibzugriffen ja auch noch den Pseudo-SLC Cache, es wird ja von den meisten Heimanwendern nur selten mal so viel am Stück geschrieben, dass die Daten wirklich nicht mehr dort rein passen. Die Überschrift ist daher totaler Müll.
 
Wer kauft nach so einem Test eine solche SSD ?
Mx100 Top
Bx200 Flop

Wenn der Preis für die 480GB Variante bei 60 Euro läge wie bei einer HDD dann wäre es denkbar dass sie sich auch verkauft.
 
Mich würde wirklich mal interessieren, wie viele der Leute die sich beschweren, wirklich diese Schreibleistungen (also bei mehr als 6GB) brauchen.
Oder ist das mittlerweile einfach ein allgemeines "Ich schaue mir die Graphen an. Oh die BX200 schneidet in einem Punkt ja richtig schlecht ab, also muss die SSD schlecht sein" Gemecker?

Ich persönlich sehe die Entwicklung sogar positiv. Wahrscheinlich werden sehr viele Käufer einer SSD gar nicht mitbekommen, dass die BX200 gewisse Einschränkungen hat. Was man aber direkt mitbekommt, ist der Preis der SSD und schon jetzt ist die BX200 bei 30Cent/GB angekommen. Die BX100 liegt bei 31Cent/GB.
Dazu muss man aber noch sagen, dass die BX100 bei 80-90 Händlern gelistet ist, die BX200 nur bei 10-20. Sobald die Verfügbarkeit der BX200 steigt, sollten die Preise noch weiter sinken.

Ich bin dann am überlegen, ob ich mir zu Weihnachten eine 960GB BX200 gönnen (wenn halt der Preis stimmt) um mal meine Games und aktuellen Lightroom-Ordner auf einer SSD zu haben. Denn Schreibgeschwindigkeiten spielen dann keine wirkliche Rolle, aber schneller Laden und Öffnen von Bildern wäre was schönes (aktuell sind die noch auf ner WD Green...)
 
Bezüglich Datensicherheit / Cache Loss Protection: Applikationen bekommen es mit, wenn Daten nicht auf die Platte geschrieben wurde. Windows meldet standardmäßig eine Schreiboperation erst dann als beendet, wenn die Daten auf dem persistenten Speicher liegen und nicht nur Datenträger-internen Cache.

Insofern hat der fehlende Schutz keine unmittelbaren Konsequenzen für die Datenkonsistenz, da Applikationen darauf reagieren können.

(Allerdings: Auch die Datenträger-Firmware kann Lügen - um zum Beispiel in Vergleichtests besser dazustehen. Wäre durchaus mal ein interessanter Aspekt ;))
 
Zuletzt bearbeitet:
R4Z3R, wenn der Spannungsversorgung plötzlich zusammenbricht, bekommen Applikationen nichts mehr mit, denn dannn geht auch die CPU nicht mehr. Es geht auch weniger um die Nutzdaten selbst, NTFS ist ja recht robust und man verliert meist eben nur den Inhalt von den Dateien die wirklich gerade in dem Moment geschrieben wurden. Unangenehmen ist es aber, wenn die SSDs ihre Verwaltungsdaten wegen so einem unerwarteten Spannungsabfall nicht mehr korrekt vom Cache in die NANDs schreiben konnte, die Mappingtabellen, also die Verknüpfungen von LBAs auf Speicheradressen belegen nämlich vor allem im Cache dem meisten Platz. Dann bricken SSDs meist, sind unbrauchbar oder können nur über ein Secure Erease wiederbelebt werden, bei Crucial gibt es immerhin noch die Power Cycle Wiederbelebungsmethode, die zumindest seid der m4 für alle Micron und Crucial SSDs mit Marvell Controllern funktioniert und ohne kompletten Datenverlust die SSDs wiederbelebt, bei denen die Verwaltungsdaten korrupt sind.

Das die FW lügt und behauptet die Daten wären schon auf dem Medium, während das in Wahrheit noch nicht der Fall ist, passiert im Alltag z.B. bei den SSDs mit Sandforce Controllern und denen mit dem Barefoot 3 (und auch denen von OCZ mit dem Everest(2), was zeigt das es auch mit dem Marvell geht, wenn die FW das möchte). Das kann man einfach testen, man entfernt hier den Haken bei "Schreibcache auf dem Gerät aktivieren":

schreibcache-png.523773


Bencht mal dann mit dem AS-SSD und vergleicht vor allem die 4k Schreibend, so werden aus üblicherweise 50 bis 100MB/s dann keine 5MB/s mehr und wenn die SSD diese Einstellung irgnoriert, hat man eben praktisch identische Werte wie mit dem Schreibcache. Zu beachten ist, dass man bei Änderung der Einstellung für das Systemlaufwerk einen Reboot machen muss, damit die Einstellung wirksam wird!
 

Anhänge

  • Schreibcache.png
    Schreibcache.png
    53,5 KB · Aufrufe: 778
neueinsteiger84 schrieb:
Mich würde wirklich mal interessieren, wie viele der Leute die sich beschweren, wirklich diese Schreibleistungen (also bei mehr als 6GB) brauchen.

Wenn ich hier so durchlese frage ich mich auch ob die Leute den ganzen Tag Ihre Filmesammlung innerhalb der SSD duplizieren, einfach nicht verstanden haben wann die Limitierung greift, Hochleistungsserver mit ner BudgetSSD ausstatten wollen oder eine SSD nur kaufen um aufm Pausenhof beim Benchmarkvergleich zu gewinnen.
 
Holt schrieb:
Das die FW lügt und behauptet die Daten wären schon auf dem Medium, während das in Wahrheit noch nicht der Fall ist, passiert im Alltag z.B. bei den SSDs mit Sandforce Controllern und denen mit dem Barefoot 3 (und auch denen von OCZ mit dem Everest(2), was zeigt das es auch mit dem Marvell geht, wenn die FW das möchte). Das kann man einfach testen, man entfernt hier den Haken bei "Schreibcache auf dem Gerät aktivieren":


Bencht mal dann mit dem AS-SSD und vergleicht vor allem die 4k Schreibend, so werden aus üblicherweise 50 bis 100MB/s dann keine 5MB/s mehr und wenn die SSD diese Einstellung irgnoriert, hat man eben praktisch identische Werte wie mit dem Schreibcache. Zu beachten ist, dass man bei Änderung der Einstellung für das Systemlaufwerk einen Reboot machen muss, damit die Einstellung wirksam wird!

Die Sache mit der Rückmeldung, die wir beide meinen, bezieht sich allerdings auf die zweite Checkbox (Write Cache Buffer Flushing).
Die erste aktiviert den Cache ja lediglich.

Die zweite Option sorgt nun in ihrer Standardeinstellung (nicht angekreuzt) dafür, dass Schreiboperationen tatsächlich auf dem finalen Datenträger geschrieben wurden, bevor die Rückmeldung an das Betriebssystem erfolgt. Stellt man sie um (angekreuzt / Write Buffer Cache Flushing deaktiviert), dann wird das Schreiben der Daten an das Betriebssystem auch dann als erledigt gemeldet, wenn sich Teile des Schreibauftrags noch im Datenträger-internen Cache befinden, also noch nicht 100% gegen Stromausfall gesichert sind.

Testen ob das Laufwerk sich an diese Vorgabe (aka "Lüg mich nicht an falls du noch gar nicht engültig geschrieben hast") kann man dies meines Wissens nach nur, indem man wirklich ein Szenario mit hartem Power Outage durchführt.

Solange das Laufwerk aber die Vorgabe einhält und eine Anwendung eine Form von Transaktionalität implementiert, ist es eben tatsächlich egal, was passiert. In dem Fall brauche ich tatsaächlich keine Cache Loss Protection.

Der Test den du vorschlägst ist natürlich auch interessant, zeigt aber, meinem Verständnis nach, "nur" den bekannten Effekt des Schreibcaches.

PS: Zu dieser zweiten Option gibt es online sehr viel Bullshit zu lesen. Eine der wenigen guten und korrekten Beschreibungen gabs mal im Blog von einem MS-Mitarbeiter. Eventuell kann ich den Link mal raussuchen.

Holt schrieb:
Unangenehmen ist es aber, wenn die SSDs ihre Verwaltungsdaten wegen so einem unerwarteten Spannungsabfall nicht mehr korrekt vom Cache in die NANDs schreiben konnte, die Mappingtabellen, also die Verknüpfungen von LBAs auf Speicheradressen belegen nämlich vor allem im Cache dem meisten Platz. Dann bricken SSDs meist, sind unbrauchbar oder können nur über ein Secure Erease wiederbelebt werden, bei Crucial gibt es immerhin noch die Power Cycle Wiederbelebungsmethode, die zumindest seid der m4 für alle Micron und Crucial SSDs mit Marvell Controllern funktioniert und ohne kompletten Datenverlust die SSDs wiederbelebt, bei denen die Verwaltungsdaten korrupt sind.

Da weiß ich nicht genauer Bescheid, okay. Ich hätte eher getippt dass SSDs so schlau sind und zumindest ihre Verwaltungsdaten immer im Trockenen haben. In der Tat natürlich ziemlich doof, falls das, wie du sagst, nicht so sein sollte..
 
Zuletzt bearbeitet:
R4Z3R schrieb:
Die Sache mit der Rückmeldung, die wir beide meinen, bezieht sich allerdings auf die zweite Checkbox (Write Cache Buffer Flushing).
Nein, wie man den Test habe ich geschreiben, mache es einfach und sieh ob es einen Unterschied macht. Bei welchen SSDs kein Unterschied zu erwarten ist, hatte ich ja schon geschrieben, auch wenn die Liste sicher nicht vollständig ist. Die Einstellung der zweiten Checkbox macht dann keinen großen Unterschied bei AS-SSD, denn die Daten werden ja auch während der Schreibvorgängen aus dem Schreibcache in die NANDs geschrieben, nur eben nicht sofort alle so wie die ankommen, sondern eben passend zusammengefasst und damit viel schneller.
R4Z3R schrieb:
Der Test den du vorschlägst ist natürlich auch interessant, zeigt aber "nur" den bekannten Effekt des Schreibcaches.
Welche Effekt soll den ein Schreibcache nocht noch haben?
 
NoD.sunrise schrieb:
Wenn ich hier so durchlese frage ich mich auch ob die Leute den ganzen Tag Ihre Filmesammlung innerhalb der SSD duplizieren, einfach nicht verstanden haben wann die Limitierung greift, Hochleistungsserver mit ner BudgetSSD ausstatten wollen oder eine SSD nur kaufen um aufm Pausenhof beim Benchmarkvergleich zu gewinnen.

Ich denke es geht ja hauptsächlich darum dass das Preisniveau (bisher) nicht unbedingt soviel niedriger ist, als dass man diese deutliche Leistungsbeschränkung ohne großes Überlegen in Kauf nehmen könnte.

Schon viele USB 3.0 Sticks lesen deutlich über 100 Mbyte/s - wenn man da mal 32 Gigabyte kopiert und ein paar größere Files dabei sind ist es irgendwie schon etwas akward, mit ner SSD ab 6 GByte auf 100 Mbyte/s gebremst zu werden, wenn die Konkurrenz für nen 10er mehr theoretische 500 Mbyte/s bietet..
 
Zuletzt bearbeitet:
Theoretische 500 Mbyte/s bietet die BX100 ja auch und für 10€ mehr bieten nur wenige SSDs diese Schreibraten dann auch wirklich und über sehr viele GB am Stück.
 
Holt schrieb:
Nein, wie man den Test habe ich geschreiben, mache es einfach und sieh ob es einen Unterschied macht. Bei welchen SSDs kein Unterschied zu erwarten ist, hatte ich ja schon geschrieben, auch wenn die Liste sicher nicht vollständig ist. Die Einstellung der zweiten Checkbox macht dann keinen großen Unterschied bei AS-SSD, denn die Daten werden ja auch während der Schreibvorgängen aus dem Schreibcache in die NANDs geschrieben, nur eben nicht sofort alle so wie die ankommen, sondern eben passend zusammengefasst und damit viel schneller.

Der vorgeschlagene Bench vergleicht ja die Leistung einmal mit und einmal ohne Cache.
Insofern verhalten sich die Laufwerke ja korrekt - mit Cache ist die Leistung höher als ohne.
Das ist ja aber nicht überraschend sondern genau so erwartbar und korrekt.

Der Cache hat ja eine leistungssteigernde Wirkung auch dann wenn er so betrieben wird, dass Schreiboperationen erst nach tatsächlichem Schreiben gemeldet werden. Daten im Cache können umgruppiert etc. werden sodass der Durchsatz steigt, auch wenn ich erst nach tatsächlichem Schreiben Erfolg vermelde. Diese Effekt fehlt ohne Write Cache komplett, daher die schlechten Werte.

Um zu schauen ob das Laufwerk trickst, müsste man quasi während dem Test den Strom abklemmen und dann prüfen ob als geschrieben vermeldete Daten tatsächlich da sind - falls nicht -> Laufwerk trickst. (Flush hat nicht stattgefunden obwohl vermeldet).

Allerdings wäre vielleicht noch die Frage wie AS-SSD das Gerät ansteuert, vor allem inwieweit die zweite Option dabei Anwendung findet.
 
Zuletzt bearbeitet:
Oh Wunder, wieder 5 Seiten geflame von Leuten, die bis heute nicht verstanden haben, dass Schreibleistung bei SSDs für mindestens 95% der gesamt Kundschaft dieses Produkts absolut irrelevant ist, weil da einmal ein System und Anwendungen drauf installiert werden (und das meistens von Medien, die eh viel langsamer sind) und danach eigentlich nur noch Leseleistungs und IOPS zum tragen kommt sind...


DerKonfigurator schrieb:
Ich habe keine SSD, ich brauche keine SSD, ich bin gelduldig und kann auch mal ne Minute länger warten.

Aber dafür habe ich mehr Geld in der Tasche.
Wo es täglich etwas an Wert verliert ohne irgendeinen Sinn zu erfüllen...
 
R4Z3R schrieb:
Der vorgeschlagene Bench vergleicht ja die Leistung einmal mit und einmal ohne Cache.
Insofern verhalten sich die Laufwerke ja korrekt - mit Cache ist die Leistung höher als ohne.
Aber nicht bei allen, es gibt auch welche bei denen man keinen Unterschied sieht (außer der Messtoleranz), wenn wir die Einstellung ignoriert und die fsync Befehle werden i.d.R. auch sofort beantwortet und nicht erst, wenn die Daten wirklich auf das Medium (also die NANDs) geschrieben wurden. Ein paar Kandiadaten bei denen es so ist, habe ich schon genannt, nimm eine davon und probiere es aus!
 
Ok, du meinst also es gibt Laufwerke die verwenden ihren Schreibcache, auch wenn man dessen Verwendung über die erste Checkbox eigentlich untersagt hat?
 
Das meine ich nicht nur, ich weiß es und das ist nur dann in Ordnung, wenn diese eine Power-Loss Protection haben, die auch die Userdaten im Schreibcache mit absichert, also Kondensatoren mit genau Kapazität hat. Von den Endkunden SSDs sind das nur die Intel 730 und Intel 750, aber es gibt trotzdem andere die das machen, schau einfach in meine vorherigen Posts hier.
 
R4Z3R schrieb:
Ich denke es geht ja hauptsächlich darum dass das Preisniveau (bisher) nicht unbedingt soviel niedriger ist, als dass man diese deutliche Leistungsbeschränkung ohne großes Überlegen in Kauf nehmen könnte.

Dass man einen Startpreis nicht annähnernd mit dem Straßenpreis nachdem das Produkt mal wirklicha uf dem markt angekommen ist vergleichen kann sollte doch auch der letzte langsam kapiert haben?

Di BX200 ist jetzt schon am untersten Ende des Preisbereichs also schauen wir doch einfach mal wo sich der Preis letztlich einpendelt vor wir das Produkt schlechtreden.
 
Zurück
Oben