Test Test: Intel SSD 520 Series 240 GB

@Freak_On_Silicon
Intel, sonstige SandForce, Samsung und Crucial sind alle drei mit 2xx GB drin. Wo genau ist jetzt das Problem? Bevor ich 10 SandForce-SSDs mit 240 GB teste, die sich wahrscheinlich nur bei der Verpackung unterscheiden, gucke ich mir doch lieber ein paar Modelle mit anderen Kapazitäten an. Und natürlich vergleiche ich dann auch die Leistung eines 60-GB-Modells mit einem 240-GB-Modell. Schließlich will ich wissen, wie hoch die Leistungsunterschiede in Abhängigkeit von der Kapazität sind.
 
stw500 schrieb:
Also bevor Du die Corsair so fertig machst, lies doch mal in dem von Dir verlinkten PC-Experience-review nach.
Mh? Er hat M2P geschrieben und nicht M3S.
Die M2P ist von der Hardware so ziemlich das gleiche wie ne Corsair Performance Pro, wie er schon richtig schrieb.
Die M3S verwendet 24nm Toggle-NAND, der afaik auch 8GB pro Die hat. Deswegen auch die niedrigere Schreibrate bei den kleinen Modellen.
 
Oh, stimmt. Na dann hat er wohl recht...hab die Bezeichnungen von Plextor durcheinandergeworfen, was ja kein Wunder ist. ;) Dann hätte ich gerne mal eine komplette Gegenüberstllung M2P vs. CPP.
 
Danke Bensen, sehr informativ. Überschlägig würde ich sagen, dass die beiden wirklich sehr dicht nebeneinander liegen, zumindest in den MB/s-/ und Latency-Benches aber die Corsair überwiegend einen Tick schneller ist. Das ist aber so wenig, dass es natürlich nicht spürbar ist. Dementsprechend dürfte bzgl. dieser Beiden einfach der Preis entscheidend sein, den man bei seinem Wunschverkäufer angeboten bekommt. :)
 
ralle_h schrieb:
Sind ja nicht alle User Pfenningfuchser, die wegen 10-20€ Unterschied gleich nen Aufstand machen
...
Etwas provokante Antwort, das geb ich zu, aber wohl verdient imho

Wenn man scheinbar keine Augen im Kopf hat sollte man sich vielleicht Provokation sparen:

WinCom 240 GB SDD 239.-€

Intel 240 GB SSD 439.-€

Beide besitzen den selben Controller und exakt die gleichen Speicherbausteine. Bleibt also als einziger Unterschied die oprimierte Firmware und 2 Jahre mehr Garantie. Und dafür 200€?

Von wegen 10-20€ oder Pfennigfuchser. Auch 50€ mehr wäre mir eine Intel jederzeit wert gewesen, aber 200€ oder 84% Unterschied einfach bei der Empfehlung zu ignorieren ist für mich schon ein Grund mich aufzuregen.

Das impliziert nämlich, daß eine Intel 520 diesen Preisaufschlag auch wirklich wert ist. Selbst wenn man die zugebenermaßen höhere Leistung der 520 in Rechnung stellt, obwohl diese in der Praxis meist nicht spürbar sein wird, kann davon aber keine Rede sein sobald man den Preis in der Relation mit einbezieht.
 
@Parwez
Du hast grundsätzlich Recht, nur was sieht der "Standard" User? zB da Bootzeiten
Die XLR8 muss ja extrem schlecht sein.

Vielleicht könnte man bei den Ratings Auswählen ob man 60/64 120/128 bzw 240/256 sehen will.
Da ist dann allerdings wieder blöd dass dann zu wenig Werte eingetragen wären.

Ein Teufelskreis^^
 
KainerM schrieb:
letzeres, da die Dollar-Preise schonmal ohne MWST sind, anders als bei uns. macht aus den 174 € schonmal 207 €, und dann noch den "EU-Zuschlag" und du bist bei dem Preis den du hier bezahlst.
Die Intel 520 ist doch schon im Preisvergleich gelistet und kostet als retail Version 200€, also so 50€ mehr als eine m4.
KainerM schrieb:
Zur Performance; man kanns nur wiederholen: Den Unterschied spürt im Alltag niemand. Egal welche der aktuellen SSDs, schnell sind sie alle.
Schränken wir das mal besser auf die getesteten, hochwertigen SSDs ein, denn bei den Billig-SSD wie Vertex Plus, Corsair Nova2, Verbatim 4747x etc. sieht das schon noch anders aus.
KainerM schrieb:
Antivir geht im genutzten Zustand 5 Sekunden schneller über die Bühne... Was lernt man da draus? Die Tests sind unzuverlässig bis zu geht nicht mehr.
Das ist richig und die Methode mit dem Neu- und Gebrauchtzustand ist auch irgendwie ungerecht. Die Sandforce Controller unterscheiden zwischen einemm Neu- und einem Normalzustand, aber andee SSD haben solche Unterschiede nicht. Diese durch deaktivieren von TRIM künstlich herbeizuführen ist praxisfremd.
KainerM schrieb:
Leider gibt die "Testmethodik" nicht viel her - keine Ahnung ob da gemittelt wird, und wenn ja, aus wie vielen Versuchen.
Das steht im Thread zurm Test der Samsung 830, es wird mehrfach gemessen und gemittelt. Da die IOPS der Sandforce von der Größe des Adressbereich abhängen über den die Messung stattfindet, ist die Wiederholbarkeit der Messungen schon alleine unmöglich, weil man nicht weiß über welchen Adressbereich die Dateien verteilt sind, die beim jeweiligen Test beteiligt sind.

Mir scheint das übrigens ein Hinweis darauf zu sein, dass die Adressumrechnung von LBAs auf Flashadressen beim SF nicht für alle Adressen gleich schnell funktioniert. Er hat ja auch kein externes RAM und braucht sein internes RAM auf noch für die Datenkompression. Vermutlich reicht es dann also nur um einen Teil der Adressumrechnung im RAM zu cachen und bei Zugriffen auf weiter entfernte Adressen muss dann erst aus dem Flash nachgeladen werden.

Das die 480GB so viel schlechter abschneidet als die 240GB Version ist übrigens bei allen SF-2281 so. Das könnte auch mit der Adressumrechnung zu tun haben oder damit, dass bei 480GB wohl NAND mit 8k Pagesize unvermeidlich ist. Die nächste SF-Version soll ja auch breitere interne Datenstrukturen bekommen, da ist man bei 480GB wohl schon über dem Limit und zu Kunstgriffen gezwungen die Performance kosten.
KainerM schrieb:
Auf den Unterschied in der Leistung sollte man jedenfalls nicht zu viel geben. Und die Werte aus den Synthetischen Benchmarks haben keinerlei Relevanz, weil bei derart großen Schwankungen zwischen den Laufwerken möchte man vermuten dass die Unterschiede in der Realittä wenigstens spürbar wären, sind sie aber nie.
Deswegen haben die Synthetischen Benchmarks ja gerade Relevanz, weil man nur dort wirklich Unterschiede zwischen den SSDs erkennt. Dass die akteullen CPUs, Betriebssystem und Programme diese kaum spürbar machen, ist zwar richtig aber das muß nicht so bleiben. Die Systeme sind ja noch überhaupt nicht auf die Leistungsstärken von SSDs optimiert, da alles noch daraufhin designet wurde, die Leistungsschwächen von HDDDs möglichst elegant zu umschiffen.
Birke1511 schrieb:
Sandforce controller........keine ahnung was intel da geritten hat
Das kann ich auch nicht verstehen, aber Intel hat ja schon öfter den Weg in technologische Sackgassen gewählt wie z.B. damals mit Rambus oder den Versuchen Flash als HDD Cache zu bringen. Laut anand hat die Zusammenarbeit ja wohl schon vor 1 1/2 Jahren begonnen und Intel hat ein Jahr an der FW der 520 gearbeitet. Wenn erst einmal entsprechende Investitionen getätigt wurden, dann gibt es wohl auch in so einer grossen Firma keinen Weg zurück. Obwohl, noch im September schrieb Anand beim Test der Intel 710:
Birke1511 schrieb:
hier gehts wieder nur ums geld und beide seiten können nur gewinnen.traurig aber wahr;-)
Willkommen in der Marktwirtschaft, aber die Alternative wäre wohl: Das zentrale Planungskomitee hat entscheiden, SSD sind für die Bürger der Republik nicht notwenig.

Marathon schrieb:
Allerdings brauchen beide Laufwerke ebenso wie auch die Samsung 830 beim Schreiben viel Strom, so ca 5,8 - 6,45 Watt.
Das ist eben so, dass das Schreiben einer bestimmten Datenmenge eine bestimmte Energie (Energie = Leistung * Zeit) verlangt und wer dies schnell, also in kurzer Zeit macht, der hat dann eben eine höhre Leistungsaufnahme.
Marathon schrieb:
Plextor hat auch hohe Qualitätsstandards, so wird zum Beispiel jedes einzelne Laufwerk vor der Auslieferung einem 20 stündigen Burn-In-Test unterzogen.
Plextor hat mit 0,59 Prozent auch die geringste Rücklaufquote.
Diese Aussage kommt leider nur von Plextor selbst und belastbarere Daten Dritte fehlen zu den Plextor SSDs bisher. Laut eigener Aussage hat natürlich jeder Hersteller die höchsten Qualitätsstandards.

Marathon schrieb:
Diese SSD scheint besonders gut zu sein, da sie einen Marvell Controller hat, genau wie auch die M4, aber zusätzlich hat sie noch die gröberen NAND-Strukturen und wird dadurch vermutlich länger halten. Außerdem hat sie auch noch Toggle-NAND, so wie die schnelle Samsung 830, aber im Gegensatz zur Samsung eben 32nm statt 27nm, also haltbarer. Außerdem ist Toshiba in Sachen Qualität besser als Samsung und Plextor ist in Sachen Qualitätskontrolle auch besser als Samsung.
Die Haltbarkeit auf den Strukturbreiten alleine ableiten zu wollen ist schon bei den NANDs des gleichen Herstellers extrem schwer, bei denen verschiedener Hersteller aber komplett unmöglich. Es kann durchaus sein, das IMFTs 25nm NANDs vie mehr Zyklen aushalten also Toshiobas oder Samsungs NANDs mit 32nm. Der Dauerschreibtest auf xtremesystems.org legt das sogar nahe, auch wenn dort natürlich unterschiedliche Controller zum Einsatz kamen und somit eine unterschiedliche WA erzeugt wurde, so hat die erste m4 dort die Samsung 830 deutlich geschlagen.
Endurance_failed_drives_20120128.png

Wenn man die TB durch die Kapazität teilt, denn nur so sind die Ergebnisse vergleichbar, dann haben die Sandforce SSDs sich auch nur schlecht (F40A) bis mittelmäßig geschlagen und von der versprochenen, besseren Haltbarkeit ist ja gleich gar nichts zu sehen.
Marathon schrieb:
Laut PC-Welt soll allerdings beim zufälligen Schreiben die Rate auf 3184 Befehle/s = 12 MB/s abfallen.
http://www.pcwelt.de/produkte/Plextor-PX-M2P-SSD-256GB-PX-256M2P-SSD-Festplatte-Test-3525423.html
Toms Hardware misst mit 4.275 IOPS etwas mehr.
http://www.tomshardware.de/ssd-sandforce-marvell-performance,testberichte-240948-6.html
Schlechte SSD Tests voller Fehler gibt es eine Menge im Netz, bei PCWelt und Toms Hardware auf jeden Fall auch. Die haben mal die Leistungsaufnahme der m4 in Idle in einem Test mit 0.1W (stimmt bei entsprechenden Einergiespareeinstellungen sogar) und in einem anderen mit 1.2W gemessen. :freak:

Gerade wennn die mit IOMeter loslegen, dann kommen da die unsinnigsten Ergebnisse bei raus, in beide Richtungen. Mal messen sie angeblich mit QD 1 so hohe Werte, dass man sich fragt wieviele Worker da wohl gelaufen sind und mal kommen sie mit IOPS, die offenbar nur mit einem Worker mit QD 1 gemessen wurden, so wie es hier auch der Fall zu sein scheint.

IOmeter ist für deren Tester offenbar viel zu komplex.
Marathon schrieb:
Entweder testen PC-Welt und Toms Hardware da etwas falsch
Davon würde ich bei den Seiten und aufgrund des verwendeten Benchmarks mal ausgehen. Deswegen lobe ich mit Benchmarks wie AS-SSD, wo es nicht zu konfigurieren gibt und die somit wirklich idiotensicher sind. Wird dann noch ein Screeenshot gepostet, so weiß man wenigsten ob auch das Allignment stimmte und die SSD auch wirlich im AHCI Modus gelaufen ist.
Marathon schrieb:
Sandforce ist damit doch eigentlich unten durch.
Ja, denn wenn man liest was Intel bei der 520er da alles verbessert hat, dann weiß ja nun wohl endlich jeder, was im Umkehrschluss bei den anderen im Argen liegt.
Marathon schrieb:
Die "Plextor M2P" ist sozuagen eine "aufgebohrte" verbesserte, modernisierte Version der "Crucial M4", wobei Geschwindigkeit, Zuverlässigkeit, Qualität, Service verbessert worden sind.
Bei Qualität und Zuverlässigkeit hat die m4 keine Probleme, die Plextor ist aich keine verbesserte m4 sondern eine Marvell mit Toggle statt sync. NAND. Das Toggle NAND gerade bei den kleinen Kapazitäten (60 bis 128GB) Vorteile bringt, sieht man ja auch bei den SF-2281 SSDs, denn davon gibt es ja auch Modelle mit Toggle und solche mit sync. NAND. Bei 240GB ist der Vorteil von Toggle NAND bei denen dann aber praktisch verschwunden.
Hallo32 schrieb:
Die Rücklaufquote bei SF-Controllern basierten SSDs ergibt sich nicht immer nur durch defekten SSDs. Viele Kunden senden die SSD auch zurück, nachdem sie den Einbruch der Leistung bei komprimierten Daten festgestellt haben.
Wenn Du Dich auf die Statistik von behardware beziehst, dann solltest Du noch einmal die erste Seite genau lesen:
Es zählen nur Rückläufer, bei denen man von einem Defekt ausgeht oder diesen selbst festgestelllt hat.

Hallo32 schrieb:
Wirklich abheben kann sich Plextor von anderen Herstellen in meine Augen nicht.
Das gilt aber heute in der Spitzengruppe mehr oder weniger für alle Hersteller, gerade auch wenn die SSDs die gleiche Technologie verwenden. Deshalb mag Intels 520 für Sandforce Fans nun endlich die erste hoffentlich stabile Option sein, für alle anderen gibt es aber schon aufgrund des Preises eigentlich keinen Kaufgrund. Wer nicht die absolute Spitzenleistung bei den seq. Schreibraten verlangt, der hat mit der m4 eine günstige und zuverlässig Spitzen-SSD, die anderen greifen zur Samsung 830 und kommen immer noch billiger weg.
 
Zuletzt bearbeitet:
Die MTBF bei täglichem Schreibaufkommen von 20 GB soll 1,2 Mio. Stunden (137 Jahre) betragen, die Lebensdauer der NAND-Flash-Chips dabei aber nur 5 Jahre? Irgendwas passt da nicht zusammen.
 
Ich würde gerne den Gedanken noch einmal aufgreifen, der weiter oben schon geäußert wurde.

Ist es eigentlich möglich, daß ein begnadeter Hacker die Firmware der neuen Intel für andere SSDs zugänglich macht?

Wenn ich daran denke, daß meine SSD den gleichen Controller und gleichen Speicher besitzt...

...geil wäre das auf jeden Fall, eine "goldene" Intel zu haben.:rolleyes::D
 
BlackWidowmaker, beim Indilinx ging das wohl noch, so wurde ja bei xtremesystems.org eine Crucial M225 auch mit FW der OCZ Turbo betrieben.

theorist schrieb:
Die MTBF bei täglichem Schreibaufkommen von 20 GB soll 1,2 Mio. Stunden (137 Jahre) betragen, die Lebensdauer der NAND-Flash-Chips dabei aber nur 5 Jahre? Irgendwas passt da nicht zusammen.
Die MTBF ist ein theoretischer Rechnenwert und nur für den Einsatz unter ganz klar definierten Bedingungen gültig. Dazu gehören auch Temperatur, Einschaltdauer, etc. und dann ist sie nur für die geplante Einsatzzeit nach Ende der Burn-In Phase gültig. Die Ausfallraten aller technischen Geräte sind ja zu Beginn besonders hoch, falllen dann rasch stark ab um für eine ganze Zeit stabil zu bleiben. Gegen Lebensende steigen sie wieder stärker an (Wear-Out Phase) und dieser Zeitraum wird von der MTBF schon nicht mehr erfasst, weshalb sich die MTBF schon gleich garnicht in Jahre umrechnen läßt!

Das ist ein rein theoretischer Wert der nur berechnet wird (aufgrund der verbauten Komponenten und deren Werten) und keine Lebenserwartung sondern nur eine Ausfallwahrscheinlichkeit für einen bestimmten Zeitraum angibt und zwar genau für den Zeitraum wo die Badewannenkurve der Ausfallraten am tiefsten ist. Heimuser können mit diesem Wert praktisch nichts anfangen, IT-Profis orientieren sich mehr an der AFR.
Ergänzung ()

Da die MTBF bei geringeren Schreibvolumen am Tag höher sein soll, kann daraus eigentlich nur den Schluß ziehen, dass die SSD beim Schreiben in ein besonderes Ausfallrisiko hat. #

"Die typische Leistungsaufnahme bei Aktivität gibt Intel mit 850 Milliwatt an, im Idle sollen die Solid State Drives noch 600 Milliwatt benötigen." Das schreibt Intel zwar in die Datenblätter, aber alle Reviews bei denen die Leisutungsaufnahme gemessen wurde, zeigen über 800mW in Idle, aber ich habe noch keinen Review mit Leistuungsmessung gefunden, bei dem die Energiesparoptionen auf sparen optimiert (also LPM aktiert) waren. Man siehst das im Vergleich, SSDs wie die Samsung 830 und die Crucial m4 brauchen dann nur 0.1W statt so 0.6W.

Jedenfalls ist die Leistungsaufnahme der Intel 520 schon höher als bei anderen SF-2281 SSDs, was darauf hindeutet, dass man die Probleme des SF mit den Energiesparoptionen wohl durch Verzicht darauf umgeht. Für Notebook sollte man also auch die Intel 520, sie alle SF-SSDs besser nicht nehmen.
 
Holt schrieb:
Die MTBF ist ein theoretischer Rechnenwert und nur für den Einsatz unter ganz klar definierten Bedingungen gültig. Dazu gehören auch Temperatur, Einschaltdauer, etc. und dann ist sie nur für die geplante Einsatzzeit nach Ende der Burn-In Phase gültig. Die Ausfallraten aller technischen Geräte sind ja zu Beginn besonders hoch, falllen dann rasch stark ab um für eine ganze Zeit stabil zu bleiben. Gegen Lebensende steigen sie wieder stärker an (Wear-Out Phase) und dieser Zeitraum wird von der MTBF schon nicht mehr erfasst, weshalb sich die MTBF schon gleich garnicht in Jahre umrechnen läßt!
Ich weiß schon, dass die MTBF nur eine statistische Kenngröße ist. 1,2 Mio. Stunden bedeuten z.B., dass in 5 Jahren rund 3,6% der SSDs ausfallen. Mir kamen nur die Größenordnungen so krass verschieden vor. Bei einem täglichen Schreibaufkommen von 20 GB ist dann wohl der starke Wiederanstieg der Ausfallraten (rechte Seite der Badewannenkurve) schon nach 5 Jahren erreicht. D.h. in den ersten 5 Jahren 3,6% Ausfälle, in den weiteren 5 Jahre nahezu 100% Ausfälle.

Holt schrieb:
Ergänzung vom 08.02.2012 16:00 Uhr: Da die MTBF bei geringeren Schreibvolumen am Tag höher sein soll, kann daraus eigentlich nur den Schluß ziehen, dass die SSD beim Schreiben in ein besonderes Ausfallrisiko hat.
Die Zellen sind halt nur für 5000 Schreibzyklen spezifiziert. Wenn man ein geringeres tägliches Schreibvolumen hat, erreicht man die 5000 Zyklen erst später und die Wahrscheinlichkeit eines Ausfalls in der gleichen Zeit sinkt.
Umgekehrt könnte man schließen, dass Intel keine künstlichen, lebensdauerbegrenzenden Maßnahmen einbaut.
 
Zuletzt bearbeitet:
theorist, egal ob man nun 5, 10 oder 20GB pro Tag schreibt, an die 5000 Zyklen kommt man in 5 Jahren nicht heran. Bei 20GB pro Tag sind es nur 36TB in 5 Jahren, was selbst bei der 60GB Version nur dem 610 fachen der Kapazität entsprich, womit man weit unter den 5000 Zyklen bleiben sollte. Selbst die bisher schlechteste SSD, die OCZ Vertex Turbo 64GB, hat über 100TB ausgehalten.

Der Grund muß woanders liegen. Ich vermute mal, dass es um mit den internen Aufräumarbeiten (der GC) nach dem Schreiben zusammen hängt. Beim Sandforce erfolgt das ja immer verzögert, wenn er eigentlich Idle sein sollte und wenn dann der Strom plötzlich weg ist, kommt es ja schon beim ersten SF immer mal zum Paniklock oder die SSD ist gleich ganz tod. Diese Probleme beim Energiemanagment spricht ja auch Anand in seinem Intel 520er Test an:


Der Fehler wird aber nicht wirklich behoben, man versucht ihn zu umgehen:
Und weiß auch klar, dass man nicht alle Umstände umgehen konnte:
Bei Anandtech gibt es ja noch genau so einen Fall, der eben nicht umgangen wurde, den Intels 520 aber eben auch umgeht, oder Intel hat wirklich die Wurzel des Problems gefunden und beseitigen können:

Die Frage ist eben, ob nur power state logic in SandForce's firmware das Problem ist oder ob es da auch ein HW Problem oder unüberwindbare HW Limits gibt. Ein reines FW Problem müsste doch auch SF selbst in den Griff bekommen können.
 
SSD sind Super und jeder menge Power von Geschwindigkeit, aber aber die Preise da muss sich noch viel tun, jedenfalls wenn Sie erreichen Preis Level von herkömmliche HD dann wird Interessant.
 
@Bomdia

Die Preise sind schon in Ordnung für die normalen Modelle. Der Speedup ist einfach genial.

SSDs sind keine Grundnahrungsmittel uns somit ist ein kleiner Preis Offset kein Problem.

Es beschwert sich ja auch keiner, dass ein Porsche mehr kostet als ein Polo. ;)
 
Eben und das SSD auf den GB Preis von HDDs fallen werden, dürften wir so bald nicht erleben. Das macht aber nicht wirklich so viel, denn die Videosammlung läßt sich auch von einer HDD ganz ordentlich streamen und eine für das Betreibssystem, die Programme und aktuell käufig genutzten Daten ausreichend große SSD ist schon im Preisbereich anderer zentraler Computerkomponenten wie CPU, MoBo und Graka angekommen.
 
Man sollte mal von dem Gedanken runter kommen, eine SSD müsste so günstig sein wie eine HDD. Wie Holt schon sagte, braucht man als Datengrab in aller Regel keine SSD. Die soll in erster Linie die Zugriffe in den Bereichen beschleunigen, in denen es darauf ankommt. Du haust Dir ja auch keine DRAM-SSD mit USV als Datengrab in den Rechner, nur weil die noch schneller arbeitet. ;)
 
SSDs werden sicher auch weiterhin durch die Verringerung der Fertigungsstrukturen beim NAND mehr GB pro Euro bieten können, aber solange auch die HDD Hersteller die Kapazität pro Plattern erhöhen können, werden die HDDs ihren gewaltigen Preis/GB Vorsprung halten. Deshalb ist es eben noch eine Weile so, dass man sich SSD nur für die Betriebssystem, Programme und aktuellsten Daten anschaffen wird und alles andere weiterhin auf HDDs hält. Bis auch die letzte HDD aus dem Rechner vertrieben wird, dürfte es noch sehr viele Jahre dauern. Zumindest sofern nicht eine gänzlich neue Technologie zum Speichern von Daten erscheint.
 
Zurück
Oben