News Seagate Nytro 5060: Neue SSD-Generation mit bis zu 13 GB/s und 30 TB für Server

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.926
  • Gefällt mir
Reaktionen: Grimey, PietVanOwl, boxte30:Goas und eine weitere Person
mist ich fange zum sabbern an
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR, Alpha.Male, nERdWIN und 4 andere
Sowas hab ich schon drin...

CrystalDiskInfo_20230814183115.png
 
  • Gefällt mir
Reaktionen: flo.murr, aklaa, Weby und 7 andere
Und trotz steigender Kapazitäten und sinkender SSD-Preise dümpeln mein Webspace und VPS noch immer bei den selben geringen Kapazitäten und steigen jährlich im Preis ...
 
Falls sich jemand die gleiche Frage wie ich stellt, was denn
Laut dem Typenschild nutzt die neue Generation der Enterprise-SSDs von Seagate PCIe 5.0 im Single- oder Dual-Port-Modus. Letzterer sorgt bei halbiertem Durchsatz für Redundanz, während im Single-Port-Modus die maximale Leistung zur Verfügung steht.
Hier die Antwort:

Im Dual-Port Modus kann die SSD an zwei HBAs (=Computer) gleichzeitig angeschlossen werden. Die Idee ist: Fällt der erste Server aus, übernimmt der zweite ohne Ausfallzeit.

Dazu muss man wissen, dass in der Vergangenheit kommerzielle Storage-System wie bspw. eine NetApp ihre Redundanz dadurch erhalten haben, dass es quasi zwei komplette Storage Systeme in einem waren (schön zu sehen in
). D.h. man hat zwei Server und bspw. 2x die gleiche Anzahl an Festplatten. In der Folge hat man quasi zwei unabhängige RAID-Systeme die sich gegenseitig schützen. D.h. fällt ein Storage aus, übernimmt sofort das andere. Das ist natürlich nur bedingt effizient: Man hält quasi die doppelte Menge an Festplatten vor, welche die meiste Zeit ungenutzt sind. Da die Systeme auch noch im gleichen Rack stecken, hat man nicht einmal einen Disaster-Schutz wenn dieses Rechenzentrum ausfällt.

Die Dual-Port Lösung (http://www.ssdformfactor.org/docs/SSD_Form_Factor_Version1_00.pdf) sieht nun vor, dass man statt einem Medium pro Server, nun ein Medium mit zwei Servern verbinden kann. Man muss also nicht länger die doppelte Menge an SSDs vorhalten. Das verringert die Kosten.

Natürlich geht das auf die Redundanz: Wenn bei der im Video gezeigten NetApp eine Festplatte ausfällt, greift vereinfacht gesagt erst einmal der normale RAID-Schutz. Dementsprechend können je nach RAID-Level entsprechend viele Festplatten ausfallen. Sollten mehr kaputt gehen, hat man dann eben noch einmal eine Kopie des gesamten Storage als Zweitsystem.

Genau das fehlt bei der Dual-Port Lösung. Sollten hier also zu viele SSDs ausfallen, war es das.

Ich bin gespannt ob sich das in der Praxis durchsetzen wird. Dual-Port ist ja nicht neu. Aber ich kann mir kaum vorstellen, dass die Storage-Preise sinken werden :) Und am Ende des Tages kostet Dual-Port eben auch 50% an Leistung.

Allerdings: SSDs nutzen sich eben im Gegensatz zu herkömmlichen Festplatten ab. Hat man also ein klassisches redundantes Storage mit SSDs gebaut, werden beide Storages ihre SSDs gleichzeitig erschöpft haben. Somit hätte man die doppelten Kosten was wiederum für die Single-Port Lösung sprechen würde.

Bleibt spannend :)
 
  • Gefällt mir
Reaktionen: flo.murr, chaser767 und fox40phil
Whistl0r schrieb:
Allerdings: SSDs nutzen sich eben im Gegensatz zu herkömmlichen Festplatten ab.

wenn man sich den workload rate limit der aktuellen HDDs anschaut gibt es etliche SSDs die haltbarer sind.
 
  • Gefällt mir
Reaktionen: Cool Master
Whistl0r schrieb:
Und am Ende des Tages kostet Dual-Port eben auch 50% an Leistung.

Also nur 6.5GB/s bei dieser SSD. Ich denke nicht, dass das fuer viele eine Einschraenkung ist. Ich kann mir auch vorstellen, dass es sogar mehr sind, die Beschraenkung auf 13GB/s bei single-port kommt ja nicht von PCIex4, sondern vom Controller. Wenn der mit PCIex2 angesprochen wird, klappt ja vielleicht die volle PCIex2-Geschwindigkeit.

Was ich mich eher frage: Wie lang duerfen die Kabel sein, um die SSD mit den Servern zu verbinden. Letztlich muessen das wohl zwei Server sein, die ziehmlich nah zusammen im selben Rack sind.

Allerdings: SSDs nutzen sich eben im Gegensatz zu herkömmlichen Festplatten ab. Hat man also ein klassisches redundantes Storage mit SSDs gebaut, werden beide Storages ihre SSDs gleichzeitig erschöpft haben. Somit hätte man die doppelten Kosten was wiederum für die Single-Port Lösung sprechen würde.

Wer soviel schreibt, kann sich die 3DWPD-Version kaufen. Die Lebensdauer ist wohl auch nur fuer wenige eine Einschraenkung.

Was den Disaster-Schutz angeht, wird man wohl zu Loesungen wie DRBD greifen muessen. Und ich schaetze, wenn man tatsaechlich 6.5GB/s schreiben will, wird sowas teuer, wenn es ueberhaupt moeglich ist. Bei geringeren Anforderungen ist das jedenfalls machbar.
 
Whistl0r schrieb:
Allerdings: SSDs nutzen sich eben im Gegensatz zu herkömmlichen Festplatten ab.

Das stimmt so nicht ganz. Auch HDDs haben ein Workload. Dies betrifft sogar Read und Write, bei SSDs ist es aber nur Write. Enterprise HDDs haben in der Regel 550 TB/Jahr workload. Das bedeutet man kann 275 TB Schreiben und Lesen oder irgend eine Kombination daraus.

Im Falle von anderen 30 TB SSDs die eine garantierte TBW von bis zu 104.55PB haben wären das über 3000 vollständige Schreibvorgänge. Selbst wenn es nur 50PB wären sprechen wir noch von über 1700 vollständigen Schreibvorgängen. Das passiert in der Regel eher nicht und wenn sind das nur garantierte Werte. Die Realität sieht deutlich anders aus siehe z.B.:

https://www.computerbase.de/2021-12/dauerschreibtest-sechs-nvme-ssds-schaffen-1.5-petabyte/

Wenn also Consumer Platten schon über das doppelte packen sind Enterprise SSDs denke ich noch besser. Daher kann man eigentlich sagen, dass HDDs in diesem Bezug schlechter als SSDs sind.
 
Whistl0r schrieb:
Falls sich jemand die gleiche Frage wie ich stellt, was denn Hier die Antwort:

Im Dual-Port Modus kann die SSD an zwei HBAs (=Computer) gleichzeitig angeschlossen werden. Die Idee ist: Fällt der erste Server aus, übernimmt der zweite ohne Ausfallzeit.

Dazu muss man wissen, dass in der Vergangenheit kommerzielle Storage-System wie bspw. eine NetApp ihre Redundanz dadurch erhalten haben, dass es quasi zwei komplette Storage Systeme in einem waren (schön zu sehen in
). D.h. man hat zwei Server und bspw. 2x die gleiche Anzahl an Festplatten. In der Folge hat man quasi zwei unabhängige RAID-Systeme die sich gegenseitig schützen. D.h. fällt ein Storage aus, übernimmt sofort das andere. Das ist natürlich nur bedingt effizient: Man hält quasi die doppelte Menge an Festplatten vor, welche die meiste Zeit ungenutzt sind.
Das ist Blödsinn, ich habe das Video nicht gesehen, aber wenn Typ das behauptet hat er von NetApp genau so wenig Ahnung wie du.
Man hat zwei Controller, (bei einem HA-Paar) jeder Controller kann über mehrere Pfade auf jedes Shelf zugreifen und damit auf jede Platte zugreifen.
Jetzt kann man Aktiv/Aktiv fahren und beiden Controllern die Platten gleichmäßig zuweisen. I.d.R Controller-1 alle ungeraden, Controller-2 alle geraden Platten. Fällt ein Controller aus, übernimmt der Andere den Dienst des ausgefallen, mit all seinen Platten, IP-Adressen und SVMs.
Man kann auch alle Platten nur einem Controller zuweisen, das ist dann ein Aktiv/Passiv Betrieb und hat den Vorteil große Aggregate bauen zu können. Beim Controllerausfall passiert hier genau das Gleiche, der andere übernimmt die Platten und die IPs des anderen und damit seine Funktion.
Hier werden überhaupt keine Platten doppelt im Leerlauf vorgehalten, was macht das auch für einen Sinn?

Eine NetApp arbeitet mit Aggregaten, Raidgruppen und Volumes.
Das Aggregat ist ein Verbund aus Raidgruppen, eine Raidgruppe ist ein Verbund von Festplatten und das Volume der logische Speicher innerhalb des Aggregates in dem die Daten liegen.

Ich kann jetzt ein Aggregat aus bspw. 96 SSD zu je 3,8 TB bauen.
Raidgruppen sollten symmetrisch sein, bedeutet, ich baue ein Aggregat mit einer Raidsize von 23 und Raid-DP. Das ergibt in Summe ein Aggregat aus 4 Raidgruppen, mit je 23 SSD (92 SSD insgesamt), 4 SSD verbleiben als Spare. Das Aggregat hat dann eine Rohkapazität von 349,6 TB und eine Nutzkapazität von 319,2 TB (8 x 3,8 TB für die Paritätsplatten müssen abgezogen werden).
In diesem Aggregat mit rund 320 TB Kapazität kann man nun Volumes erstellen, für CIFS, LUNs usw. und diese über eine, oder mehrere SVM nach außen geben.
Jede Raidgruppe ist ein eigenes Raid mit eigener entsprechender Redundanz. Man kann Aggregate auch Spiegeln, und über ein Raid-DP Aggregat noch ein Raid-1 legen, das kommt aber nur bei MetroCluster Lösungen zu Einsatz. Aber auch da, wird mit allen vorhandenen Platte gearbeitet, es läuft nichts im Leerlauf.
Der Unterschied ist nur, dass die andere Hälfte (Spiegel) des MetroClustern mehrere 100 Kilometer entfernt stehen kann, die Synchronisierung passiert aber in Echtzeit und dementsprechend schnell ist die Verbindung dazwischen.
 
Zuletzt bearbeitet:
Ja ich weiss nicht in wie fern sich sata da noch eignet oder auch m.2 offenbar gibts zumindest bei letzterem bisschen Probleme.

Ich mein Sata gehts und gibts auch aber ist halt vom Speed bei der groesse schwierig, aber gut Festplatten benutzen ja auch diesen Minderwertigen Standard aber die sind ja generell extrem lahm da ist die Schnittstelle nicht der Flaschenhals.

Und M.2 gibts immerhin FÜNF mit >4TB (8TB) also machbar ist das auch, aber gibts ein Grund warum Consumerboards kein U.2 Anschluss haben ist das so teuer?

Aber ja 8TB für 200 Euro für Mainstream wäre mal ein Anfang dann könnte man Festplatten für Consumer endlich komplett begraben.
 
Würde mich freuen, wenn es endlich mal 20TB SSD mit Sata Anschluss gibt. Da geht es seit Jahren kaum vorwärts. Zumindest im Konsumer Bereich. Schön das es zumindest in der Server Welt voran geht.
 
Dr. MaRV schrieb:
Das ist Blödsinn, ich habe das Video nicht gesehen, aber wenn Typ das behauptet hat er von NetApp genau so wenig Ahnung wie du.
Es gibt, wie du selber beschreibst, mehrere Möglichkeiten. Und die in dem Video gezeigte NetApp arbeitet auf beschriebene Weise: Alles doppelt.
 
@Whistl0r
Es gibt nur eine Möglichkeit, die die NetApp vorgibt (best practise). Das Gefrickel in dem Video zählt nicht dazu. Ist ein NetApp System aufgebaut, muss man den Config Advisor drüber jagen und solange der einen Fehler bei seinen über 400 Tests meldet, ist man auch nicht fertig, geschweige denn sauber mit der Vorgabe. Der Bericht geht nach dem Aufbau an NetApp. Weicht der Aufbau von den Vorgaben ab, benötigt man eine Sonderfreigabe, andernfalls hast du ein Speichersystem, für im schlimmsten Fall millionen von Euro, das nicht suported ist. Dann gibt es auch keinen Support, wenn er benötigt wird.
 
Zurück
Oben