18tb ssd raid

/root

Lt. Commander
Registriert
Okt. 2007
Beiträge
1.295
Hey,

Wir benötigen für einen dedizierten Applikationsserver ein RAID mit insgesamt 18TB an Nutzdaten.
Nachdem der Flaschenhals der Spezial Applikation idR die READ IOPS sind soll als Storage Technologie zur Gänze auf SSD gesetzt werden. Gedacht hätten wir an einen Dell Power Edge R940 mit H740P RAID-Controller, die könnten wir mit beliebig vielen 1.92TB SSDs bestücken.

Der Ausfall einer Platte soll zu keinem Ausfall des Storages führen, Performance Steigerung via RAID ist nicht notwendig aber sie soll nicht herabgesetzt werden.
Die Frage ist jetzt, welche RAID Konfiguration?

Der Controller unterstützt:
RAID levels 0, 1, 5, 6
RAID spans 10, 50, 60

Ich hätte ja eigentlich auf RAID 5 gedacht aber offenbar wird das für große Arrays nicht empfohlen? (ausfallsrisiko?)
RAID 50?
 
Da Geld ja scheinbar keine große Rolle spielt würde ich RAID-6 nehmen (mit ein paar Hot-Spare-SSDs). Da können 2 SSDs ausfallen ohne das was passiert.
 
Das soll ein einzelner Server bleiben mit lokalem Speicher ?

Die besten IOPS ergeben sich aus RAID10 Verbünden, da ist RAID5 nicht so gut.
 
Würde auch auf Raid6 gehen, plus so viele Hot-Spares wie ihr finanzieren wollt (mind. 1).
 
hmm, da du ja schreibst, dass der Flaschenhals die IOPS sind, waere es bei normalen Platten ein Raid10.
Ob sich dieses Raid-Set bei SSDs noch merkbar auf die Performance auswirkt, musst du entscheiden/dir ueberlegen.

Raid 6 ist schon mal einiges besser wie ein 5er... Da hier zwei Platten ausfallen koennen und das Raid-Set immer noch funktioniert.

Ist auch eine preisliche Frage xD
 
Er hat doch schon geschrieben, dass SSDs grundsätzlich reichen.

Was ich mich aber bei dem Server frage: Man kann 12 Platten/SSDs einbauen. Mit 2TB SSDs, ist bei 24TB schluss. Und wenn du Raid 6 nimmst mit 1-2 Hot-Spares, dann ist die Kiste voll!

Sind die 18TB jetzt schon erreicht, oder liegt das noch in weiter Ferne? Oder kommt da groß nix mehr zu?

Wenn es nämlich zu eng wird, würde ich ein externes SAN oder einen größeren Server nehmen.
 
Wenn es nämlich zu eng wird, würde ich ein externes SAN oder einen größeren Server nehmen.

Was auch noch eine Frage wäre, bei so einer grossen Datenbank, wie es mit Hochverfügbarkeit aussehen soll, Stichwort SQL Cluster.
Denn wenn der einzelne Server, als SPOF, mal ausfällt... :)
Und wenn man dann natürlich ein externes Storage hat kann man das jederzeit aufstocken, so es dafür ausgelegt ist.
 
Ja, ein guter Punkt.

Die Kisten können so viel Redundanz haben wie sie wollen, irgendwann fällt immer mal ein Teil aus, welches nicht redundant ist. Murphy halt :rolleyes:

Ist hier leider auch immer so. :D
2x Netzteile, 2x Raid-Controlle, massig RAM redundant, doppelt angebundene USV, usw. und trotzdem hat es in den letzten ca. 8 Jahren 2x zum richtigen Ausfall eines Servers gereicht.
Aber auch hier laufen die Kisten immer doppelt, beide an ein SAN angeschlossen, dank VMware kann man selbst dann mit sehr geringer Downtime problemlos weiterarbeiten.
Aber bei so einer Kiste wie da oben, tut Redundanz natürlich kostentechnisch sehr weh. Da kostet der 2. Server mal schnell 30.000€+ ohne Storage.
Muss man halt wissen, was einem eine Downtime wert ist oder nicht.

Wir hatten vor ein paar Monaten mal einen richtigen Ausfall (das SAN :D), da ging knapp 1,5 Tage nix, bzw. nur lokale Daten + Internet. Das ging gerade noch so, hätte aber auch nicht länger dauern dürfen, sonst wäre es wirklich zu Problemen gekommen.
 
Wie schaut denn der Rest eurer Umgebung aus? Lokaler Storage hat ja schon einige Nachteile, auch wenn die Performance lokal angebunden natürlich besser sein kann.
Außerdem werden wirklich die kompletten 18TB performant gebraucht oder sind es immer nur wenige Blöcke? Ein tiered Storage oder einfach nur SSDs zum Cachen könnten auch schon helfen und kommen wesentlich günstiger.
 
Danke schon mal für die vielen Antworten!

xone92 schrieb:
Da Geld ja scheinbar keine große Rolle spielt würde ich RAID-6 nehmen (mit ein paar Hot-Spare-SSDs). Da können 2 SSDs ausfallen ohne das was passiert.

ok, klingt gut.
12 Disks davon 2 Spares sollten also reichen?

Loopman schrieb:
Er hat doch schon geschrieben, dass SSDs grundsätzlich reichen.

Was ich mich aber bei dem Server frage: Man kann 12 Platten/SSDs einbauen. Mit 2TB SSDs, ist bei 24TB schluss. Und wenn du Raid 6 nimmst mit 1-2 Hot-Spares, dann ist die Kiste voll!

Sind die 18TB jetzt schon erreicht, oder liegt das noch in weiter Ferne? Oder kommt da groß nix mehr zu?

Wenn es nämlich zu eng wird, würde ich ein externes SAN oder einen größeren Server nehmen.

Der R940 kann 24 Platten aufnehmen
Mit Erweiterung +12NVME, also mehr als genug Platz für Upgrades
Die 18TB werden übrigens nach etwa einem Monat vollgeschrieben und die ältesten Daten überschrieben wenn der Speicherplatz voll ist. Mehr Speicher würde nur eine längere retention time ergeben.

leipziger1979 schrieb:
Was auch noch eine Frage wäre, bei so einer grossen Datenbank, wie es mit Hochverfügbarkeit aussehen soll, Stichwort SQL Cluster.
Denn wenn der einzelne Server, als SPOF, mal ausfällt... :)
Und wenn man dann natürlich ein externes Storage hat kann man das jederzeit aufstocken, so es dafür ausgelegt ist.
Es wurde bewusst gegen Ausfallsicherheit entschieden, das System darf kurzfristig ausfallen.
Die Hot Spares im RAID sollen nur den Betrieb vereinfachen.
Hochverfügbarkeit würde in diesem Fall bedeuten den Server an einem zweiten Standort komplett redundant aufzubauen + einen Master Node d.h. etwa 250% Anschaffungskosten (ein Server liegt schon bei etwa €50k Hardware)

Masamune2 schrieb:
Wie schaut denn der Rest eurer Umgebung aus? Lokaler Storage hat ja schon einige Nachteile, auch wenn die Performance lokal angebunden natürlich besser sein kann.
Außerdem werden wirklich die kompletten 18TB performant gebraucht oder sind es immer nur wenige Blöcke? Ein tiered Storage oder einfach nur SSDs zum Cachen könnten auch schon helfen und kommen wesentlich günstiger.
Es werden wirklich die ganzen 18TB performant verwendet, leider kein Datengrab.
 
Zuletzt bearbeitet:
Zurück
Oben