Test SanDisk Extreme Pro im Test

Theoretische Unterschiede mit Testprogrammen wird man bei einer alten 60GB Vertex SSD und heutigen 240GB SSD schon feststellen können, mich würde aber eher interessieren wie hoch die Praxisunterschiede sind.
Also beispielsweise das Booten des PC incl. Starten von Firefox und IE und Photoshop, man könnte ja die Tests dann auch noch mit Windowsupdates machen und beide identische Test-PCs mit unterschiedlichen SSDs die Updates einspielen lassen incl. PC Reboot .
Ich denke wenn überhaupt merkt man erst dann signifikante Unterschiede oder wenn die alte SSD genauso flott unterwegs ist wird man kaum Unterschiede ausmachen.
@MichaG
Was hälst du von dem Plan, das wäre dochma ein Projekt ?
Aber ohne theoretische Tests, die kann man sich knicken...
 
Zuletzt bearbeitet:
Ceberus schrieb:
mich auch :D, aber wird sicher nicht so krass sein, aber doppelt so schnell sollte schon drinnen sein denke ich.

Nicht gefühlt.

Der große Effekt von HDD auf SSD ist einfach, dass die mechanischen Bewegungen vom Arm wegfallen und es keine Defragmentierung mehr gibt.

Die kleinen Daten die man im Alltag braucht, sind einfach viel schneller verfügbar.

Da merkt man jetzt auch keinen großen Unterschied zwischen einer ältern und einer neuern SSD mehr.
 
Der große Effekt von HDD auf SSD ist einfach, dass die mechanischen Bewegungen vom Arm wegfallen und es keine Defragmentierung mehr gibt.

Bei der SSD gibts deutlich mehr "Fragmentierung" und das ist dort sogar gewollt , sonst würde die SSD keinen Monat überleben wenn du in 30 Tagen immer diesselben Zellen beschreibst ;)
 
Voyager10 schrieb:
@MichaG
Was hälst du von dem Plan, das wäre dochma ein Projekt ?
Aber ohne theoretische Tests, die kann man sich knicken...

Ich bin auch schwer dafür! :)
 
Hangover schrieb:
Ich hatte noch vor allen Dingen die Samsung 840Evo im Hinterkopf, die ebenfalls in der engeren Wahl stand. Diese hat "nur" TLC und genauso wie die MX100(MLC)
Die NANDs der Evo haben in diesem Test über 3000 P/E Zyklen gehalten (ignorieren die TBW, das war ein Test im Steady State, also für Heimanwender irrelevant) und auch bei Techreport hat die 840 einige SSDs mit MLC überdauert. Die Lebensdauer reicht für Heimanwender dicke, auch bei TLC NAND.
Hangover schrieb:
eine geringere MTBF (SanDisk 2Mio h. ggü. 1.5Mio h.).
Die MTBF wird zwar in Stunden angegeben, ist aber eine Ausfallwahrscheinlichkeit und kann keineswegs in Betriebsstunden umgerechnet werden. Die bezieht sich ja auch nur auf einen bestimmten Zeitraum und der umfasst nur die mittlere Zeit der Badwannenfunktion der Ausfallrate technischer Geräte. Diese neigen dazu am Anfang besonders häufig auszufallen. Dann fällt die Ausfallrate aber steil ab und bleibt für eine Zeit, die der geplanten Betriebsdauer entspricht, auf einem geringen Niveau stabil und genau für diese Zeit gilt auch nur die MTBF. Gegen Lebensende (Wear-Out Phase) steigt sie dann wieder deutlich an. Schon diese Definition auf einen beschränkten Zeitraum verbietet jede Umrechnung in eine Betriebszeit.

Obendrein ist es theoretisch errechneter Wert der auch nur unter ganz genau definierten Bedingungen (Temperatur, Nutzung, etc.) gültig ist und praktisch keine Bedeutung hat, erst recht wenn diese Bedingungen nicht genannt sind und nicht eingehalten werden können. Plextor gibt sogar an, wie man die eigene Angabe ermittelt hat:
400 SSDs werden 500 Stunden lange getestet und mit einem wunderbaren Faktor 12 der vom Statistikerhimmel fällt, kommt man dann satt auf 200.000 eben auf 2.400.000 Stunden :evillol:

Zu Intels 520er Reihe gibt es bei legitreviews aber immerhin diese Information bzgl. MTBF und deren Abhängigkeit von der Nutzung:
Bei halber Menge an geschriebenen Daten pro Tag gibt es dann also die doppelte MTBF. Wie viele GB pro haben habe die anderen Hersteller also wohl unterstellt?

Die Angabe der MTBF alleine als Zahl ist damit nicht relevanter als die Frage wie viele Tierversuche bei der Entwicklung stattgefunden haben und sollte am besten ignoriert werden, denn das ist pures Marketinggewäsch. Wäre die Angabe seriös, müsste bei den Modellen mit größerer Kapazität auch eine geringere MTBF angegen werden, denn da sind mehr Komponenten (NAND Dies, oft Cache-RAMs) verbaut, es gibt daher mehr Verbindungs(Löt)punkte die allesamt natürlich auch ausfallen können, also das Ausfallrisiko erhöhen.

Hangover schrieb:
Daraus und aus Tests die ich gelesen hatte, habe ich dann die Verknüpfung zur Lebensdauer abgeleitet. War sicherlich etwas zu vage formuliert.
Es gibt halt immer Schreiberlinge die sowas dann ganz im Sinne eines Hersteller auch rüber zu bringen versuchen und natürlich immer vage genug formuliert, um nicht angreifbar zu sein.

Hangover schrieb:
Finde übrigens Deine Rechnung bezüglich des tatsächlichen Wertes einer Garantie zur Evaluation der Wirtschaftlichkeit sehr interessant, vlt. kannst Du ja mal per PN schreiben, wie Du diese berechnest und welche quantitativen und qualitativen Faktoren Du dabei berücksichtigst (insb. Gewichtung dieser).
Eine Garantie ist nichts anderes als eine Versicherung, nur bezahlt man die Prämie mit dem Kaufpreis. Es geht also nur darum, wie hoch die Wahrscheinlichkeit des Schadenfalls ist und wie hoch der zu erwartende Schaden. Versicherungen haben dafür eine Heer von Fachleuten und eine Unmenge an Erfahrungen um genau das für alle möglichen Policen zu ermitteln, ich kann hier nur grob aufgrund von Annahmen schätzen.

Die Annahmen hatte ich eigentlich geschrieben, aber hier noch mal:
1.) Der Preisverfall der SSDs geht nach dem Mooreschen Gesetz und etwa alle 18 Monate verdoppelt sich die Kapazität die man für das gleiche Geld bekommt. Vor 3 Jahren habe ich für meine m4 256GB noch 350€ bezahlt, heute gibt es die MX100 256GB für 84€. Das bisher also gut gestimmt, auch wenn die Preisentwicklung natürlich nie linear verlaufen ist.

2.) Habe ich unterstellt, dass eine SSD genau nach Ende der 3 jährigen Garantie mit einer 10%igen Wahrscheinlichkeit ausfällt, was sich übertrieben ist.

Die Garantiebedingungen sehen i.d.R. eine Reparatur, einen gleichwertigen Ersatz (kann auch eine aufbereitet gebrauchte "refurbished" sein) oder den Ersatz des Zeitwertes vor, so dass man den Neupreis nicht als Schadenshöhe ansetzen kann, zumal man sonst je auch einen gewaltigen Vorteil im Schadensfall hätte. Der eine oder andere Händler mag zwar den Neuwert unter bestimmten Umständen erstatten, aber das dürfte nach 3 oder mehr Jahren wohl flachfallen und geht in den Bereich Gewährleistung bzw. Kulanz und daher mit der Herstellergarantie nichts zu tun und um die geht es ja hier. Man bekommt Hersteller auch nach Jahren sicher nicht den Neupreis, vielleicht denn eine größere SSD, wenn keine mit der eigenen Kapazität mehr lieferbar ist, dann hat man Glück, aber darauf sollte man auch nicht bauen, vielleicht bekommt man auch nur eine Rabatt wenn man dann eine neue kauft.

Wer andere Annahmen unterstellen möchte, der darf und sollte das gerne für seine persönliche Einschätzung des Wertes der Garantie tun, darüber brauchen wir auch gar nicht zu diskutieren, denn keiner von uns kennt die Zukunft und damit bleibt es letztlich immer eine Wette darauf, was passieren wird.

Hangover schrieb:
Im Endeffekt wähle ich bei vergleichbarer Qualität(sowohl Produkt, als auch Service) und vergleichbarem Preis immer das Produkt mit besserer Garantieleistung, was vor allem psychologisch beruhigt ;).
Deswegen machen die Hersteller das ja auch.

Shaav schrieb:
Mich würde mal interessieren ob man den Unterschied zu einer uralt-SSD merken würde. Ich nutze eine 60GB OCZ Vertex die bestimmt schon drei Jahre alt ist.
Einen Unterschied könnte man vielleicht spüren, aber sicher keinen Sprung wie damals von der HDD auf die SSD. Interessant wäre wenn, dann vor allem die gewaltige Kapazitätssteigerung, denn heute sind SSDs mit 240-256GB für unter 100€ zu haben und kleiner sollte man eigentlich nicht mehr einsteigen. Bei der Vertex musst Du aufpassen, denn die hat den alten Barefoot und dessen teils agressive Idle-GC frisst die P/E Zyklen der NANDs, da die eine hohe Write Amplification und gleichzeitig ein schlechtes Wear-Leveling erzeugt. Die gehen also weniger durch die geschriebenen TB als durch die Betriebsstunden kaputt. Wenn Du eine Vertex2 hast, also eine mit dem Sandforce, dann beachte, dass die SF der ersten Generation an den Haswell Chipsätzen Probleme haben und es dafür keine Lösung gibt. Bei einem entsprechenden Systemupdate müsste die auf jeden Fall mit getauscht werden.
 
Zuletzt bearbeitet:
Anwendungsstart, alle gleich schnell.
Bootvorgang - schnellste
Entpacken - auch sehr schnell
Kopieren - auch weit vorne
Installation - weiter hinten
Virusscan - weiter hinten, aber alle recht eng beisammen

Das einzige Laufwerke was konstant vorne drin ist, ist die 850 pro. Das würde ich als schneller bezeichnen, so der Parcour denn so eine Aussage zulässt. Aber ok, "nur gut" interpretiere ich ja vielleicht auch einfach zu negativ.


Bei dem Stromverbrauch habe ich mich in der Tat verlesen. Bei der Extreme II kann man das gelten lassen.
 
MXE schrieb:
Die Garantie ist eh fürn Arsch wenn die SSD kaputt geht, die Daten sind dann sowieso futsch.
Dafür hat man ja regelmäßig Datensicherung zu betreiben, denn Datenverlust deckt keine Garantie ab. Bei SSD ist es noch wichtiger als bei HDDs die wichtigen Daten regelmäßig zu sichern, da diesen wenn, dann meist ohne Vorwarnung ausfallen und i.d.R. keine Rettung der Daten mehr möglich ist, bei manchen Modellen nicht einmal mehr für den Profi.

MXE schrieb:
10 Jahre hören sich toll an, ändert aber nichts daran, dass man eine SSD nicht kaputt schreiben kann!
Deswegen ist die Garantie ja auch bei 80TB Datenvolumen gedeckelt, die sollten Heimanwender u.U. zwar erreichen könne, aber wer seine SSD so intensiv nutzt, behält sie kaum 10 Jahre als Haupt-SSD im Benutzung. Profis sollen eben zu Enterprise-SSDs greifen, weshalb auch der Vorteil der Extreme Pro bei der Performance Consistancy, der natürlich auf der größeren OP beruht, auch irrelevant ist. Heimanwender nutzen ihre SSD nie so, dass sie da jemals hin kommen und Profis dürfen HW i.d.R. nicht außerhalb der Spezifikationen nutzen, so dass sie bei nur 80TBW die SSD vermutlich so oft wechseln müssten, das sich die Consumer-SSDs gegenüber einer Enterprise SSD mit vielen Hundert TBW oder gar einigen PBW dann doch nicht rechnet.

MXE schrieb:
Natürlich kann man es vorsätzlich machen, aber so kann man alles zerstören. Wer sich mit Wear Levelling von SSD beschäftigt wird feststellen, dass so eine SSD jeden Standard überleben wird, bis dahin ist vielleicht Google und Facebook Geschichte und SSD vielleicht selbst auch.
Heimanwender bekommen normale Heimanwender SSD nicht kaputtgeschrieben, solange der Hersteller nicht minderwertige Schrott-NANDs verbaut, deren Qualitätsstufe sie für SSDs eigentlich ungeeignet macht. Haltbarkeit ist kein Thema für SSDs, auch wenn manche Medien und Schreiber das immer noch anders sehen und versuchen mit irgendwelchen "OS Optimierungen" zu glänzen bzw. Zeitschriften zu verkaufen. Aber das man den Leuten ein künftiges Problem einredet welches es real nicht gibt um ihnen dann jetzt schon die Lösung dafür zu verkaufen, wird ja seid der Erfindung des Teufels erfolgreich praktiziert.
MXE schrieb:
Das ist sehr konservativ gerechnet, wenn man die Zahlen von den Endurance Tests zugrunde legt, hat man deutlich über 100 Jahre Lebenszeit.
So ist es, das sehen nur viele nicht.

Voyager10 schrieb:
Bei der SSD gibts deutlich mehr "Fragmentierung" und das ist dort sogar gewollt , sonst würde die SSD keinen Monat überleben wenn du in 30 Tagen immer diesselben Zellen beschreibst ;)
Man muss zwischen der Speicherung im NAND und der Fragmentierung des Filesystems unterscheiden. Letztere bremst auch bei SSDs die Performance, weil eben statt weniger, lange und damit schneller Zugriffe (ein ATA Befehl kann bis zu 32MiB adressieren!) eben viele kurzen und damit langsame (vergleiche mal 4k Leseraten mit denen bei seq. Zugriffen) Zugriffe passieren, wenn die LBAs der Datei nicht aufeinander folgend sind, sie also fragmentiert ist. Das die Fragmentierung des Filesystems, was ja bei SSD wie bei HDDs das gleiche (bei Windows NTFS) ist bei SSD keine Rolle spielt, ist ein Mythos. Entstanden ist der, weil der Effekt halt ungleich geringer als bei HDDs ist, bei denen die LBAs ja auch fest auf Zylindern, Kopf und Sektor umgerechnet werden und daher die Fragmentierung eben mit langsamen Kopfbewegungen verbunden ist. Bei SSDs spürt man die Fragmentierung allenfalls, wenn sie extrem geworden ist. Das wäre bei den üblichen 4k pro Zuordnungseinheit (Cluster), wenn eine Datei in Fragmente aufgeteilt ist, die nur je 4k lang sind. Dann aber hat man beim solchen große Datei aber auch nur etwa 30MB/s statt 500MB/s. So weit kommt es aber im Alltag zum Glück nie.
 
bensen schrieb:
Das einzige Laufwerke was konstant vorne drin ist, ist die 850 pro.
Sage ich doch, die Extreme Pro ist überflüssig, die 850 Pro schlägt sie in praktisch jeder Disziplin und beide sind nur was für Leute die nichts auf Geld schauen, die anderen greifen zur MX100 oder vielleicht zur Evo, wenn die Idle Leistungsaufnahme eine Rolle spielt. Wobei Enthusiasten wohl heute weniger von der schnellsten SATA SSD träumen, die haben andere Wünsche. Profis für die Haltbarkeit und die Performance consistency wichtig sind, werden eben die 850 Pro bevorzugen, wenn wie Anands Test der Performance consistency zeigt, ist die 850 der Extreme Pro schon dann überlegen, wenn man bei der die gleiche Nutzkapazität verwendet, also z.B. nur 480GB statt 512 oder 960 statt 1024GB. Aber solche Anwender werden i.d.R. noch mehr GB freilassen, denn OP ist alles wenn es darum geht und dann liegt ja nach Kapazität die 850 Pro mehr oder weniger vorne und preislich trennt beide zu wenig.
 
Zuletzt bearbeitet: (Link korrigiert)
@Holt

Man muss zwischen der Speicherung im NAND und der Fragmentierung des Filesystems unterscheiden.

Wo wird denn das Filesystem bei dir gespeichert , nicht im Nand ? Im Controller oder im DRam ? ;)
Verstehst du auf was ich hinaus will, du hast viel gesagt aber die eine Frage hast du nicht beantwortet wo dein Filesystem gespeichert wird wenn du sagst Fragmentierung im Nand Ja , im Filesystem Nein oder Njain... Wo ist denn da dein Filesystem, im Sata Kabel ? :D
 
Voyager10 schrieb:
wenn du sagst Fragmentierung im Nand Ja , im Filesystem Nein oder Njain... Wo ist denn da dein Filesystem, im Sata Kabel ? :D
Wo habe ich das gesagt? Fragmentierung gibt es nur im Filesystem, im NAND obliegt es dem Controller der SSD zu entscheiden, wo die Daten liegen und wie er sie verteilt, das erfährt man auch gar nicht. Wenn man da eine Fragmentierung sieht, weil er eben nicht aufeinanderfolgende LBAs in aufeinanderfolgenden Flashadressen ablegt, dann ist das vielleicht nicht ganz unberechtigt aber absolut irrelevant. Für optimale Leistung muss er das so machen um die Parallelität der Kanäle zu nutzen. Bei einem RAID 0 von HDDs ist es ja nicht anders, da liegt ein Teil eines Daten auf einer Platte, der nächste auf der nächsten, etc. und niemand würde behaupten, alle Dateien wären deshalb fragmentiert.

Eine SSD ist genau wie eine HDD nur eine Massenspeicher der eine bestimmte Anzahl an LBAs zur Verfügung stellt und pro LBA eine bestimmten Anzahl an Bytes (fast immer sind es 512) speichert. Damit darauf Dateien und Ordner abgelegt werden können und man diese auch wiederfindet, braucht man ein Filesystem, was normalerweise ein Teil des Betriebssystems ist. Das ist bei Windows normale NTFS, aber es gibt auch FAT oder exFAT. Die Fragmentierung passiert auch dem Filesystem und hat mit dem darunter liegenden Speichermedium nichts zu tun. Wenn Du das Filesystem Deines SSD noch nicht gefunden hast, dann gehen mal im Explorer auf C: und dann rechte Maustaste und Eigenschaften wählen, dort steht dann im Reiter "Allgemein" recht weit oben "Dateisystem: NFTS" und Dateisystem ist das deutsche Wort für Filesystem.
 
Ich glaube du hast nicht verstanden was ich gemeint hab , vll. sprechen wir einfach nur unterschiedliche Nerd Sprachen ?

Die SSD muss zwingend die Daten fragmentieren um die Zellen gleichmässig abzunutzen , egal mit welchen Filesystem die Blöcke (Zellen) adressiert werden , soweit verstehst du meine Nerdsprache ? ;) Da wird man kaum davon ausgehen können das "nach" der Adressierung der Blöcke und Zellen die Daten auf einmal schwuppdiwupp nichtmehr fragmentiert sind , wie soll das die SSD denn anstellen wenn sie gezwungen ist die zu beschreibenden Zellen so auszuwählen wie das vorgesehen ist und das führt numal zur Fragmentierung .
 
Voyager10 schrieb:
Die SSD muss zwingend die Daten fragmentieren um die Zellen gleichmässig abzunutzen , egal mit welchen Filesystem die Blöcke (Zellen) adressiert werden , soweit verstehst du meine Nerdsprache ? ;)
Nur ist das keine Fragmentierung, das macht ein RAID genauso und da nennt es auch keine Fragmentierung. Fragmentierung ist alleine eine Sache des Filesystems. Was Du meinst fällt unter die interne Anordnung der Daten und die ist nach außen weder bekannt noch relevant.

Voyager10 schrieb:
Da wird man kaum davon ausgehen können das "nach" der Adressierung der Blöcke und Zellen die Daten auf einmal schwuppdiwupp nichtmehr fragmentiert sind , wie soll das die SSD denn anstellen wenn sie gezwungen ist die zu beschreibenden Zellen so auszuwählen wie das vorgesehen ist und das führt numal zur Fragmentierung .
Es führt zu dem, was Du unter Fragmentierung verstehst, was aber keine Fragmentierung des Filesystems ist und eben nach außen auch unsichtbar und egal. Ob die Daten von LBA X auf NAND Die Y in Page Z stehen und die von LBA X+1 eben um selben Die Y und dort in Page Z+1 oder halt ganz woanders, ist doch total belanglos. Irgendwie ist das die typisch deutsche Mentalität nach der auch Wälder genau so angepflanzt werden, dass die Bäume alle gleichmäßig in Reih und Glied stehen müssen und wehe einer tanzt aus der Reihen, dann gefällt der ganze Wald den Leuten schon nicht mehr.

Wenn Du die interne Unordnung der Daten als Fragmentierung bezeichnen willst, dann mache das auch so kenntlich, denn die hat nichts mit der eigentlichen Fragmentierung auf der Ebene des Filesystems zu tun und die auf Filesystemebene gibt es bei SSDs genau wie bei HDDs und die beeinträchtigt auch bei SSDs die Performance, weil sie zu kürzeren Zugriffen führt, auch wenn der Effekt ungleich geringer als bei HDDs ist. Davon rede ich, nicht von der Unordnung der Daten in den NANDs die Du meinst, die vollkommen normal und auch nötig ist.
 
Shaav schrieb:
Mich würde mal interessieren ob man den Unterschied zu einer uralt-SSD merken würde. Ich nutze eine 60GB OCZ Vertex die bestimmt schon drei Jahre alt ist.

Voyager10 schrieb:
Theoretische Unterschiede mit Testprogrammen wird man bei einer alten 60GB Vertex SSD und heutigen 240GB SSD schon feststellen können, mich würde aber eher interessieren wie hoch die Praxisunterschiede sind...

Momentan ist leider wenig Zeit für solch einen Test, aber mir gefällt die Idee!

Die Vertex ist natürlich fast schon eine Antiquität :D Da müsste man mal schauen, wo die noch herzukriegen ist oder eben ein ähnlich altes anderes Modell. Fokus wäre dann natürlich der Praxiseinsatz.
 
Die Intel 320 ist noch in 40GB und 80GB zu haben, sogar sehr günstig.
 
Habe den Vergleich vom T61, T500 und zum High End Intel Quadcore@4,5GHz, also von SATA1-3.

Bootzeit nach Neustart (alle Festplatten an)

T61 W7 Crucial M4 128GB (SATA2 aber beschnitten praktisch SATA1) 35 Sekunden

T500 W7 SATA2 Samsung 840 250GB (SATA2) 31 Sekunden

Spielerechner W7 SATA3 Samsung 830 512GB 16 Sekunden

Firefox Start bei allen Rechnern ähnlich schnell, der Spielerechner ist etwas flotter, die Thinkpads schenken sich nichts. Bei anderen Programmen sieht es ähnlich aus. Uralt SSD habe ich nicht, bei mir limitiert Schnittstelle und CPU.
 
MikeMüller schrieb:
Meiner Meinung nach gibts nicht viele Gründe keine MX100 zu kaufen.

Die paar Prozent an Mehrleistung einer anderen Platte kosten einfach im Verhältnis viel zu viel.

Stimmt, die MX100 schlägt sich für den Preis überraschend gut.

Shaav schrieb:
Mich würde mal interessieren ob man den Unterschied zu einer uralt-SSD merken würde. Ich nutze eine 60GB OCZ Vertex die bestimmt schon drei Jahre alt ist.

Mich auch. Ich habe momentan noch eine Intel X25 Postville mit 80GB am werkeln.
 
Ned Stark schrieb:
Stimmt, die MX100 schlägt sich für den Preis überraschend gut.
Nicht nur für den Preis, gerade als 512GB ist die MX100 auch absolut gesehen eine Spitzen SSD und kann mit einer 840 Pro durchaus mithalten. Sehr erfreulich das Crucial es geschafft hat eine solche SSD zu dem Preis anzubieten und ein echter Problem für die Wettbewerber.

Ned Stark schrieb:
Mich auch. Ich habe momentan noch eine Intel X25 Postville mit 80GB am werkeln.
Die Postville scheint zwar nominal schwach zu sein, aber das war damals schon eine Spitzen-SSD und daher wird der Unterschied zur aktuellen Spitzen-SSDs im Alltag sehr viel geringer sein als in den Benchmarks. Ich würde vermuten, selbst zu einer 850 Pro wird man im Alltag nur bei wenigen Anwendungen einen Unterschied merken.
 
Zurück
Oben