Windows Server 2012 R2 Storage Space extrem langsam

Ser1ous1

Cadet 4th Year
Registriert
Dez. 2017
Beiträge
95
Hallo,

nachdem ich seit gestern versuche Openmediavault 3 per Hyper-V und vhdx auf meinen 3 Festplatten in einem "Raid 5" bzw. Parity Pool laufen zu lassen und die Performance mehr als schlecht war, möchte ich hier kurz zeigen wie die schreibe Geschwindigkeit der 3 unterschiedlichen Arten "simple mirror parity" aussieht.

Leseraten kann ich morgen nachsenden.

Also ich möchte aufjedenfall Ausfallssicherheit und eine halbwegs gute Geschwindkeit (1GBIT locker..) erreichen. Was könnt ihr mir empfehlen? Mainboard ist ein Consumer MSI b250m vdh. Soll ich mir ein Serverboard kaufen mit Onboard Raid oder einfach einen Raidcontroller nachrüsten? Gibt es eventuell einen mit 4 Ports auf Pcie 3.0 x 1 ? Möchte wenn ich das Mainboard behalte nachträglich eine 10Gbit Netzwerkkarte verbauen und leider habe ich nur 2 * Pcie 3.0x1 + 1* Pcie 3.0x8, somit würde der Platz für den Raidcontroller wegfallen und ich müsste mich für eines von beiden entscheiden.

Eventuell gibt es ja eine andere Lösung?

Danke für eure Hilfe.

Parity

parity.jpg

Mirror
mirror.jpg

Simpe
simple.jpg
 
Windows SW RAIDs sind extrem lahm, die ist schon länger bekannt. Die Alternative wäre ein HW RAID Controller oder eben ein RAID über den Chipsatz zu realisieren, dies ist zwar nur ein Fake RAID, aber die Performance ist bei denen gut. Die Virtualisierung kann ggf. weitere Performanceverschleichterungen bewirken. Consumer HW und vor allem Mainboards sind für Serveranwendungen natürlich auch nicht optimal, die Performance sollte dies aber nicht beeinträchtigen. Ein paar Informationen zu den verwendeten HDDs wäre aber schon hilfreich und die Kopiergeschwindigkeit des Explorer ist auch kein wirklich sinnvoller Ersatz für einen richtigen Benchmark wie z.B. CrystalDiskMark.
 
Storage Spaces werden erst mit SSDs als Write Cache schnell: https://sp.ts.fujitsu.com/dmsp/Publ...ndows-storage-spaces-r2-performance-ww-de.pdf
Schneller wird es wie schon gesagt mit dem Chipsatz Raid, hier gibt es allerdings keinen geschützten Schreibcache, das heißt es können Daten verloren gehen wenn der Server abschmiert oder der Strom ausfällt.
Richtig geht es dann erst mit einem vollwertigen Raid Controller und einen durch Akku oder Kondensator geschützten Cache.
 
Oder man nimmt richtige Enterprise SSDs mit Full-Power-Loss Protection wie z.B. die Intel DC S oder Samsung PM863/SM863.
 
Masamune2 schrieb:
Storage Spaces werden erst mit SSDs als Write Cache schnell
Ja, WBC ist die Lösung, dafür muss nicht mal eine komplette SSD dafür verbaut werden
25438958_10212261735553332_4310845991674526440_o.jpg
(siehe die VHD-Laufwerke)

VHD auf der SSD anlegen, dann in der Powershell
"Set-PhysicalDisk -FriendlyName "Msft Virtual Disk" -MediaType SSD"
und zum SS hinzufügen.
Mehr ist es nicht.

Holt schrieb:
Windows SW RAIDs sind extrem lahm, die ist schon länger bekannt. Die Alternative wäre ein HW RAID Controller oder eben ein RAID über den Chipsatz zu realisieren, dies ist zwar nur ein Fake RAID, aber die Performance ist bei denen gut.
Dafür ist das alles im Gegensatz zu SS ein übelstes Gefrickel, wenn man was ändern will. Beim SS ist es null Problem, Laufwerke (und damit Space) hinzuzufügen oder zu tauschen.
 
Zuletzt bearbeitet:
Also ich komme mit meinem P212 RAID Controller mit Akkupack im RAID 5 auf um die 550MB lesen und schreiben. Ich denke nicht, das ein Chipsatz Fake RAID hier ne Chance hat.
Wie flott der Storage Space mit SSD Cache wird, weiß ich allerdings nicht.
 
Oder man nimmt richtige Enterprise SSDs mit Full-Power-Loss Protection wie z.B. die Intel DC S oder Samsung PM863/SM863.
Für den Schreibcache bei Storage Spaces ja, beim Hardware Raid Controller bleibts beim Flash bzw. Battery Backed Write Cache.
 
Fard Dwalling schrieb:
Wie flott der Storage Space mit SSD Cache wird, weiß ich allerdings nicht.
Ich hab schon Schreibraten von 350-400MB/s gesehen (Parity!), bei mir aber durch die Quellmedien limitiert.
 
Zuletzt bearbeitet:
Die Schreibraten mit SSD Cache entsprechen weitestgehend dem was die SSDs schreiben können, bei guten Enterprise SSDs sind also auch 500MB/s konstant drin.
Ob sich das dann lohnt ist die andere Frage... um eine möglichst hohe konstante Schreibrate zu erreichen müssen die SSDs entsprechend groß sein und viele Flashzellen haben. Dann kosten sie aber auch direkt richtig viel Geld...
 
So viele Antworten, super!!

Ich war am überlegen ob ich den RAM schmeiße und mir ein Server Board hole (ist aber in meiner Umgebung keines Lagernd mit m.2. pcie)

Was würdet ihr mir eher empfehlen eine SSD mit 500 GB oder ein Mainboard mit q270 oder z270 chipsatz mit Chipset Raid5?


(Consumer SSD 850 pro oder EVO) habe bis jetzt sehr gute Erfahrungen gemacht.

LG
 
Masamune2 schrieb:
Die Schreibraten mit SSD Cache entsprechen weitestgehend dem was die SSDs schreiben können, bei guten Enterprise SSDs sind also auch 500MB/s konstant drin.
Bei SS mit Parity sind die IOPS der Knackpunkt.

Ser1ous1 schrieb:
Was würdet ihr mir eher empfehlen eine SSD mit 500 GB oder ein Mainboard mit q270 oder z270 chipsatz mit Chipset Raid5?

(Consumer SSD 850 pro oder EVO) habe bis jetzt sehr gute Erfahrungen gemacht.
Die Frage ist doch: ist es nur für dich im privatem System? Dann spar dir die ganzen Ausgaben und hänge nur eine SSD dazu (ich persönlich würde in dem Umfeld auch nicht zu nem HWRaid raten, da SS dtl. flexibler ist)

Wobei das
Ser1ous1 schrieb:
Consumer MSI b250m
ein ziemliches Billigboard ist (muss mich mit dem auf Arbeit auch grad in einem Sys rumschlagen...). Muss ja nicht gleich ein MSI XPower Z270 Gaming Titanium wie in meinem Heimrechner sein^^ Aber ein gutes Board um die 150€ sollte es schon sein, und da ist eigentlich egal ob Q oder Z. (Z ist nur bei OC von Bedeutung). Das größte Problem sind eigentlich in dem Zusammenhang die Anschlussmöglichkeiten (Anzahl) für Platten.
 
Zuletzt bearbeitet:
FoooBar schrieb:
Bei SS mit Parity sind die IOPS der Knackpunkt.

Die Frage ist doch: ist es nur für dich im privatem System? Dann spar dir die ganzen Ausgaben und hänge nur eine SSD dazu (ich persönlich würde in dem Umfeld auch nicht zu nem HWRaid raten, da SS dtl. flexibler ist)

Wobei das
ein ziemliches Billigboard ist (muss mich mit dem auf Arbeit auch grad in einem Sys rumschlagen...). Muss ja nicht gleich ein MSI XPower Z270 Gaming Titanium wie in meinem Heimrechner sein^^ Aber ein gutes Board um die 150€ sollte es schon sein, und da ist eigentlich egal ob Q oder Z. (Z ist nur bei OC von Bedeutung)

Privates System aber habe gerade gelesen das man bei Parity 2 SSD's benötigt?

Ja das Board ist günstig, ich habe am falschen ende gespart (ist nicht mein erster Homeserver) :(, das Geld ist nicht so das Problem eher meine Geduld, wenn ich was habe möchte ich es sofort haben.

In meinem "Heimrechner" hab ich auch ein z270 gaming pro carbon mit einem i7 7700k geköpft auf 4,8 GHz laufen. :)


https://geizhals.at/asrock-z270m-extreme4-90-mxb3x0-a0uayz-a1544863.html?v=l&plz=1100&t=a&hloc=at

https://geizhals.at/asus-prime-q270m-c-90mb0sz0-m0eaym-a1558275.html?v=l&plz=1100&t=a&hloc=at

Diese beiden wären verfügbar, prinzipiell wäre es mir lieber wenn ich keine SSD Anhängen muss (Mini Tower mit 5 * 3,5 Zoll)

Damit funktionieren aber die Speicher Pools nicht mehr oder? Wenn ich das Mainboard Raid 5 nutze? Gibt es da auch ein Limit von 4 Festplatten eventuell?
 
Ser1ous1 schrieb:
Privates System aber habe gerade gelesen das man bei Parity 2 SSD's benötigt?
Wäre mir jetzt so nicht bewusst. Und falls doch, die SSD (wie oben von mir geschrieben) auf zwei VHDs aufteilen, das ist dann von der Verwaltung wie 2 SSDs^^

Ser1ous1 schrieb:
Damit funktionieren aber die Speicher Pools nicht mehr oder? Wenn ich das Mainboard Raid 5 nutze? Gibt es da auch ein Limit von 4 Festplatten eventuell?
Wie meinst du das mit dem Limit?

Ser1ous1 schrieb:
Platz sollte bei einer SSD ja das geringste Prob sein (m.2 zB).
Welches Board ist prinzipiell egal, man muss halt zB schauen, wie viele Platten man anschließen will und wie viele ans Board dran gehen (beachten, dass oft zB für die m.2 SATA Ports deaktiviert werden). Handbücher wälzen (sind ja auf Geizhals immer verlinkt, ein Grund warum ich die Seite mag^^)
 
Zuletzt bearbeitet:
FoooBar schrieb:
Wie meinst du das mit dem Limit?

Meinte gelesen zu haben, dass die Consumer Mainboards ein Limit von 4 Festplatten haben, wenn man Raid aktiviert im Bios.


Kannst du mir das genau erklären wie ich die SSD einbinde? vhd in Hyper-V erstellen und dann? Wie viel Speicher bräuchte sie bei 10 TB?

Verwendet wird das ganze für meine OMV 3 NAS VM. Sprich Single File vhdx. Ich befürchte es gibt dennoch Probleme mit der SSD? Die Parity Performance ist halt extremst schlecht und die IOPS möchte ich gar nicht wissen wahrscheinlich nur 50, so wie die Zugriffszeit sich momentan ändert?
 
Zuletzt bearbeitet:
Wie sieht die Performance aus, wenn du ein 100 GB File kopierst und liest? Über eine VM die Shares freigibt? :D

Edit: Hab mir das z270 Board weglegen lassen, werde mir das holen. Berichte dann ob der Server läuft oder aus dem Fenster gefallen ist. :D
 
Zuletzt bearbeitet:
Da ich es als reinen Speicher nutze... keine Ahnung. (VMs liegen auf meinen SSDs)
Aber ich kann von zwei extra HDDs 30 bis 40GB Files gleichzeitig drauf kopieren, wo beide HDDs am Leselimit hängen. (anders rum limitiert das Schreiben auf die Platten noch eher als das Lesen vom SS)
Und ich denke, das reicht als Perf. im Home-Umfeld.

Deshalb fragte ich ja ob privates Sys. Wenn du im Profibereich wirklich Performance brauchst, sehen die Lösungen anders aus (und vor allem kostspieliger).
 
Zuletzt bearbeitet:
Ja da hätte ich schon meine Rabatte im Profi bereich, aber ist mein Homeserver. :)
 
Nur wann benötigst du da mehr als ~300MB/s sequentielles R/W außer beim Hin- und Kopieren? Da ist doch eher die Frage ob Raid1/5 (Mirror/Parity, also Sicherheit) oder "Raid"0 also Performance.
Und wenn du massiv IOPS benötigst, kommst du um SSDs (bzw ein SSD-Raid) nicht herum.

PS: das 4-Platten-Limit wird daher kommen, dass nur 4 Ports am "Raidcontroller" vom Board hängen, die anderen an nem Eigenen/Anderen.
 
Zuletzt bearbeitet:
Zurück
Oben