News Hitachi erweitert Enterprise-SSD-Portfolio

Parwez

Admiral
Registriert
Jan. 2004
Beiträge
7.472
Hitachi hat die zweite Generation seiner „Ultrastar“-SSDs mit SLC-NAND vorgestellt, die für den Enterprise-Markt vorgesehen ist. Wie bereits bei der ersten Generation, hat sich Hitachi für die Entwicklung auch dieses mal wieder Intel ins Boot geholt, um von der Expertise in den Bereichen SLC-NAND und SSDs zu profitieren.

Zur News: Hitachi erweitert Enterprise-SSD-Portfolio
 
Ich muss täglich 19,2 TB über 5 Jahre lang schreiben, bis die SSD kaputt geschrieben ist oder habe ich das falsch verstanden ?

Der Wert scheint mir sehr optimistisch. Viele SSD's gehen doch schon nach TB beschreiben kaputt.
 
Ja, mit dem Unterschied, dass du (wir) billigen MLC einsetzen und Hitachi wohl SLC nutzt. Laut News.
 
Ob der wirklich der Sandforce drin ist? Die IOPS sind recht gering für diesen Controller und hohe seq. Schreibraten sind bei SLC ja sowieso kein solches Problem, die könnte der Marvell auch schaffen. Zwar arbeitet Hitachi bei SSDs eng mit Intel zusammen und Intel hat nun auch eine SF-2281 SSD gebracht, aber woher auch den Marvell verbaut. Obendrein war auch mal von einem eigenen SAS 6GB/s Intel SSD Controller die Rede.

Die Verteilung der NANDs auf dem Board könnte jedenfalls in diese Richtung deuten, denn da sind 2x5NANDs schön nebeneinander und dann nochmal zwei in die Ecke gequetscht. Da Intels bisheriger SSD Controller schon 10 Kanäle nutzte, wäre das wohl auch nötig um Platz für die übrigen 8 Chips und den Controller zu schaffen. Bei einem 8 Kanal Controller hätte man auch mit 10 Chips auf der einen Seite noch leicht Platz für die restlichen 6 und den Controller auf der Rückseite gehabt. So wären dann nur noch 4 Chips auf der Rückseite nötig und das würde nicht wirklich zur sehr engen Bestückung der Vorderseite passen, wenn dort aber nochmal 8 NAND Chips sich den Platz mit dem Controller teilen müssen, dann ist es schön nötig auch auf der sichtbaren Seite so sparsam mit dem Platz umzugehen, wie man es gemacht hat.

Das Hitachi nicht verrät, welcher Controller zum Einsatz kommt, ist aber schon seltsam.
Ergänzung ()

Racehead schrieb:
Viele SSD's gehen doch schon nach TB beschreiben kaputt.
Wohat hast Du diese Information? Die einzigen SSDs die nacht wenige TB schon wirklich die NAND Zyklen verbaucht haben, sind meines wissens die Indilinx Barefoot, aber weil der Controller so agressiv im Idle optimiert, dass die Write Amplification auch schon mal über 100 gehen kann und das Wear Leveling trotzdem nicht ordentlich ist.

Ansonsten empfehle ich mal sich mit dem Dauerschreibtest auf xtremesystems.org zu befassen, auch wenn dort das Faktor Zeit natürlich nicht realisitsch zum Tragen kommt und Controller wie der Indilinx dadurch keine solchen WAs erzeugen wie beim normalen User. Selbst die schlechteste SSD bisher, die OCZ Vertex Turbo 64GB hat über 100TB geschriebene Daten ausgehalten, die anderen noch mehr:

Endurance_failed_drives_20120128.png


Man muß allerdings die geschriebenen TB durch die Kapazität der SSDs teilen um einen wirklichen Vergleich anstellen zu können.
 
On-the-fly Datenkompression ist für das Enterprise Segment je nach Workload eine echt gute Sache, das noch kombiniert mit SLC Speicher und die Haltbarkeit kann somit recht hoch ausfallen.

Aber welche SSD-Controller hat den LSI noch so im Angebot? An eine SATA-SAS Bridge will ich nicht so recht glauben, und Holt ja auch einige nachvollziehbare Zweifel geäußert..
 
Artikel-Update: Offenbar gab es bei Hitachis Presseagentur ein wenig Verwirrung. Es handelt sich nicht um einen Controller von LSI, er wird lediglich bei LSI gefertigt, ist aber eine Eigenentwicklung von Hitachi und Intel.
 
Das Update der News passt schon ehr ins Bild und wenn da nicht ein noch ein grosser Kondensator oder gar Akku auf der anderen Seite versteckt ist, würde ich mal auf ein Design mit 10 Kanälen setzen. Nur schade, dass Intel den nicht auch mit SATA 6GB/s Interface für die 520er Reihe gebracht hat.
 
Racehead schrieb:
Ich muss täglich 19,2 TB über 5 Jahre lang schreiben, bis die SSD kaputt geschrieben ist oder habe ich das falsch verstanden ?

Der Wert scheint mir sehr optimistisch. Viele SSD's gehen doch schon nach TB beschreiben kaputt.

Das hast du richtig verstanden da es sich hier um Enterprise Laufwerke mit SLC Speicher handelt.

Aber auch aktuelle Consumer SSDs gehen nicht nach ein paar TB kaputt ;) Siehe Link von Holt weiter oben.
 
das vermutete "kaputtschreiben" dürfte in dem segment eh egal sein...gelegentlich defekte "platte" aus dem raid tauschen und eine neue schicken lassen wird ja durch die performance mehr als ausgebügelt
 
Andreas75, wenn man die SSDs im RAID wirklich kaputt schreibt, dann muß man aber wohl alle sehr schnell hintereinander tauschen, denn wenn die erste wegen der NANDs ausfällt, sind die anderen dann auch schon kurz davor. Aber gerade bei Heimanwendern zeigt sich ja, dass die allermeisten Ausfälle eben nicht auf den Verbrauch der P/E Zyklen der NANDs zurückzuführen sind. Ob die Enterprsie SSDs da besser dastehen?
 
Holt schrieb:
Aber gerade bei Heimanwendern zeigt sich ja, dass die allermeisten Ausfälle eben nicht auf den Verbrauch der P/E Zyklen der NANDs zurückzuführen sind. Ob die Enterprsie SSDs da besser dastehen?

Aber welche Qualitäts-SSD für Heimanwender fällt denn überhaupt im großen Maße aus? Ab und zu liest von Ausfällen neu gekaufter SSDs, die erst seit wenigen Tagen in Verwendung waren, aber das ist ja bei elektronischen Geräten normal.

Bei Enterprise SSDs kommt es eben stark auf den Workload an. Da gibt es einige Anwendungen, die ich jetzt nicht genauer benennen kann, aber welche SSDs relativ schnell schrotten können. Datenbanken mit vielen typisch kleinen Zugriffen sind bestimmt immer "gut" für sowas. In solchen Fällen sind die Ausfälle höchstwahrscheinlich meistens auf den Verschleiß des Flash zurückzuführen.
 
Zuletzt bearbeitet:
c't testet übrigens auch schon seit einiger Zeit SSDs im Dauereinsatz.

Aus 03/2012:
Obwohl unser Testsystem die SSDs mit hoher Geschwindigkeit tagaus, tagein befüllt und bis zum Redaktionsschluss schon Hunderte Terabyte geschrieben hat, meldet noch keines der Laufwerke Schreibfehler. Es dürfte wahrscheinlich noch viele Wochen oder Monate dauern, bis erste Ausfälle zu beobachten sind. Das deckt sich mit den Beobachtungen von xtremesystems.org, die bereits seit Mitte letzten Jahres SSDs foltern.
Bei einigen SSDs ist allerdings die Schreibperformance gesunken (Life-Time-Throttling).
Somit wird auch hier die Tatsache bestätigt, dass SSDs eher aus anderen Gründen ausfallen als dass sie "kaputtgeschrieben" werden.
 
Zuletzt bearbeitet:
uNrEL2K schrieb:
Throttling hat ja noch lange nichts mit kaputt zu tun, aber deswegen vllt. auch die Anführungszeichen, powerfx ;)
Ne, ich hab das überhaupt nicht aufeinander bezogen.
Das LTT war mehr als Randnotiz gedacht.
 
uNrEL2K schrieb:
Aber welche Qualitäts-SSD für Heimanwender fällt denn überhaupt im großen Maße aus?
Nicht jeder Heimwanwender hat ja nur Qualitäts-SSDs bzw. welche, die man heute als solche ansehen kann. Die Indilinx wurde früher auch mal hoch gepusht und heute fallen die schon genau wegen den P/E Zyklen aus, was aber Schuld der FW ist. Übrigens habe ich in diesem Post gerade die S.M.A.R.T. Werte einer Samsung 830 gesehen, die auch eine WA von fast 8 erzeugt hat.

Das ist schon sehr, sehr viel wenn man bedenkt, dass die m4 im Dauerschreibtest auf xtremesystems.org so bei 1.1 bis 1.2 lagen und dabei ja auch ein bestimmter Adressbereich mit statischen Daten gefüllt ist und nur ein Teil der Kapazität ständig überschrieben wird.

powerfx schrieb:
c't testet übrigens auch schon seit einiger Zeit SSDs im Dauereinsatz.
Zwar kenne ich den Test nicht, aber c't und seine sonstigen Ergüsse über SSDs und die sind alles andere als von Kompetenz gezeichnet.
powerfx schrieb:
Bei einigen SSDs ist allerdings die Schreibperformance gesunken (Life-Time-Throttling).
Somit wird auch hier die Tatsache bestätigt, dass SSDs eher aus anderen Gründen ausfallen als dass sie "kaputtgeschrieben" werden.
Da halte ich mich doch ehr an den Dauerschreibtest auf xtremesystems.org, auch wenn es da einiges zu verbessern gäbe und die Jungs dort immer mal wieder die falschen Schlüsse aus ihren Beobachtungen ziehen.

Aber immerhin sind dort schon einige SSD kaputt geschrieben worden (das Bild hatten wir weiter oben ja schon einmal):

Endurance_failed_drives_20120128.png


Wenn man sich die Sandforce SSDs drunter ansieht und die geschriebenen TB durch die Kapazität teilt (denn nur so werden die Ergebnisse vergleichbar), dann haben die nicht wirklich gut abgeschnitten. Die F40A war sogar sehr unterdurchschnitlich (Intels gleichgosse 320er hat dreimal soviel geschafft und beide haben 25nm IMFT NAND!) und die beiden SF-2281 SSD allenfalls Durchschnitt, zumal die ganzen Testdaten ja auch so ungefähr zur Hälfte komprinierbar waren, was der SF zwar nur mit 70% aufs NAND im Vergleich zur vom Host geschriebenden Datenmenge umsetzen kann, aber immerhin ist das wohl noch besser als für die meissten Laufwerke im Praxiseinsatz. Man schreibt ja auch mal größere Archive auf die SSD, die sich nicht komprimieren lassen, z.B. im TEMP wenn man solche erstellt oder im Downloads wenn man welche aus dem Netz zieht (wie Windows regelmäßg seine Updates, auch wenn die nicht im Downloads landen).

Aber wer sich eine gute SSD kauft, der braucht sich als Heimanwender um die geschriebenen Datenvolumen keine Gedanken machen, die üblichen Volumen hält auch eine MLC SSD über viele Jahre hinweg aus.
 
Dass SFs nur unterdurchschnittlich schlecht performen könnte ja eventuell auch an dem Faktor Zeit liegen. Dass fast permanent und ohne Pause geschrieben wird kommt den Indilinx vielleicht zugute und die WA bleibt niedriger als in der Realität, aber der SF reagiert darauf möglicherweise genau umgekehrt, weil dieser aufgrund seiner anderen GC darauf ausgerichtet ist, immer wieder in Idle-Phasen aufzuräumen. Ohne Zeit dafür zu haben sieht es vielleicht hier im Test schlimmer aus, als es im Alltagsgebrauch tatsächlich ist.

Samsung scheint im Vergleich zu Intel und Crucial seit der 470 nicht wirklich auf eine niedrige WA optimiert zu haben.

Anand hat zum Thema Endurance ja auch wieder einen interessanten Artikel parat. http://www.anandtech.com/show/5518/a-look-at-enterprise-performance-of-intel-ssds
 
uNrEL2K, das könnte angehen, aber ob die WA durch das dauernde Beschreiben wirklich so viel höher ausfällt? Im Moment weiß ich nicht, ob das Testprogramm die Dateien einfach überschreibt oder löscht und neue Dateien anlegt, aber durch die Datenkompression sollten gerade die SF über viel mehr Freien Platz zur Verringerung der WA zur Verfügung haben als die anderen SSDs und dann haben ja auch nur so 70% des Datenvolumens wirklich auf die Flash geschrieben.

Was die WA angeht, so ist Samsung da wohl deutlich schlechter als Crcuial, deren m4 trotz der sehr geringen WA sowohl die Schreibrate sehr konstant hoch hält (im Relation zum Maximalwert) als auch offensichtlich noch ein gutes Wear Leveling zu erreichen scheint. Leider macht es das schwer zu beurteilen, wie alleine die P/E Zyklen der NANDs im Vergleich sind, aber da man die Samsung NANDs ja sowieso nicht in einer SSD mit Marvell Controller und m4 FW bekommt und auch keine Version des Samsung 830 mit IMFT NANDs, ist das zu verschmerzen.

Der gute Anand ist manchmal schon komisch drauf. Da bringt er gerade erst auf der zweiten Seite des Intel 520er Reviews diese uralte und unsinnige Werbegraphik von Sandforce, wonach andere Controller (oder zumindest ein misteriöser Standardcontroller, was der Betrachten dann mit allen Wertbewerbern gedanklich gleich setzen soll) eine WA um 10 haben:
durawrite2.jpg


Dann kommt er kurz darauf in dem von Dir verlinkten Artikel mit diesem Bild von Intel, wo es nur so bei 1.1 sind:

writeamplification.png


Das scheint für den alten Intel und den Marvell, zumindest in der m4, auch besser besser zu passen als die 10 des "Standardcontroller", mit dem Sandforce sich vergleich. Sieht man sich dann die S.M.A.R.T. Werte an, so kommen die meisten SF in den Bereich von 0.7. Statt einer 20fachen Überlegenheit sind das dann nur 30%.
 
Wen es interessiert: Ist eine neuere Version des bereits in den bisherigen Ultrastar-SSDs eingesetzten Controllers.
 
Zurück
Oben