Projekt: Heimserver auf HyperV Basis mit Server 2012 R2 Datacenter und Storage Spaces

@glacios
Einen Raid Controller hatte ich nun lange Zeit im Einsatz. Er verbraucht ~16W mehr an Strom, egal ob idle oder nicht. Mein Anspruch ist nicht so hoch, dass es einer bleiben müsste, daher möchte ich gerne die Features vom OS nutzen.

Eine SSD für das OS habe ich auch noch, habe ich nicht explizit erwähnt.

Ich komme an dem Schritt nicht weiter, wenn der Write Cache für das Dual pairty eingerichtet werden soll. Wenn ich nur eine SSD nehmen würde, wie du vorgeschlagen hast, wie soll das funktionieren?
 
Zuletzt bearbeitet:
16 W ist natürlich eine Ansage.

Nur eine SSD im Pool ist nicht die beste Wahl, ich wollte nur vorschlagen, dass man die VMs nicht im Parity laufen lassen sollte, sondern im Mirror oder evtl. gar nicht im Pool. Da du allerdings nur 3 SSDs hast und nicht 4, wären folgende Option denkbar:

1x OS SSD + VMs
Parity mit 2x SSD + HDDs

Wenn die OS SSD für die VMs zu klein ist geht natürlich auch:

1x OS SSD
1x VM SSD
Parity mit 1x SSD + HDDs

und die letzte, inzwischen von mir favorisierte Lösung:

1x OS SSD
1 Pool aus 2x SSDs + HDDs
Auf dem Pool erstellst du einen Mirror und ein Parity

Die letzte Lösung hat Krautmaster auch so gemacht. Aufs Mirror kommen dann die VMs. Schau mal weiter vorne im Thread, da sind die Befehle für Powershell angegeben (imo Seite 4 oder so). Damit müsstest du dann eigentlich zurecht kommen.
 
hab eben mal getestet mit 10 virtuellen Platten.

Wenn man zb einen Pool mit 5 Platten angelegt und darauf ein Parity hat dieses 5 Columns und kann nur erweitert werden bei zusätzlichen 5 Platten.

Ich schau grad mal wie man gezielt mit weniger Columns anlegen kann. Einzelne Platten einem Parity zuzufügen scheint jedoch nich zu gehn.

Edit:

Wenn man erweitern will muss man das also bei Mirror mindestens mit 2 Platten, bei PArity geht unter 3 Platten leider nix.

Default nimmt er bei Parity Columns = Plattenanzahl. Man kann das aber ändern

Get-StoragePool Pool1 | Set-ResiliencySetting -Name Parity -NumberOfColumnsDefault 3

Edit:

Ich bekomme wohl demnächst das hier:
http://geizhals.de/inter-tech-3u-3316l-a790246.html
+
http://www.sona.de/407708

Könnte mri vorstellen dass 3 Columns bzw ungerade Anzahlen deutlich fixer sind als gerade. Das war beim Windows raid auch schon immer so...
Ergänzung ()

4 Columns 4 Platten Parity (default)


3 Columns 4 Platten parity


-> nur 4 Virtuelle Platen auf einer SSd also vielleicht nicht 100% realistisch
-> 3Columns scheint beim Schreiben n tick besser zu sein was auch meine Erfahrung ist. Lesen ber GBE dürfts eh juck sein ob 3 oder 4 Columns.

Ich teste noch 5 columns.
 
Zuletzt bearbeitet:
Gut dass du dich mal wieder hier blicken lässt, vor allem gleich mit so einem Knaller-Test. Das erweitert ja dann doch noch die Möglichkeiten.

Neben WBC, Journals, gibt es jetzt noch Columns...toll wer blickt da noch durch - und was wirds wohl demnächst geben, wenn sich jemand noch weiter reinfuchst?!

Wenn du Columns erstellst, brauchst du dann auch nur die Anzahl der Columns hinzufügen, um einen RAID zu erweitern? Also könntest du Parity mit 1 Column erstellen, bei dem man dann auch 1 Festplatte hinzufügen kann? Und wenn nicht könnte es ja evtl. anders gehen:
Dein Parity hat sagen wir mal 4 Columns und du willst eine Festplatte hinzufügen, und dieser weist du dazu dann 4 Columns zu. KP ob das so oder so ähnlich funktioniert.

Allerdings weiß ich nicht, was Columns für eine Auswirkung auf die Datenintegrität und Verfügbarkeit hat. Könnte sich u.U. im Fehlerfall als suboptimal erweisen, daran rumzuspielen.

Dahingehend wäre ja auch mal Thin Provisioning zu testen....jetzt wo du das neue Board bekommst.....:D

PS. Wieso überhaupt nen neuen Server, der alte ist doch gerade erst "fertig" geworden?
 
Zuletzt bearbeitet:
Weiß eigentlich jemand, warum bei einer Spiegelung (egal ob jetzt via Storagespaces oder RAID1) immer nur von einer Platte gelesen wird, anstatt wie beim RAID0 die Last zu verteilen?
 
Warum werden im Dual Parity eigentlich drei mal Platten Kapazitäten abgezogen?
 
Ja ist echt absurd. Niemand weiß wofür die 3. Platte gebraucht wird. Man muss beinahe schon sagen, typisch für Storage Spaces.

OT: Microsoft macht aber auch nur noch Müll!
 
@glacios:
Falls dem nicht so ist, wären die Übertragungsraten ziemlich grottig: Das kopieren von mehreren GB großen Dateien von 2 WD Reds (mirror) auf eine SSD erfolgt bei mir unter Windows mit 90 bis 150 MB/s (je nachdem wo die Dateien liegen). Ich hab allerdings noch keinen Benchmark laufen lassen oder einen Vergleich mit einer einzelnen gemacht. Hat das Kopieren via Explorer echt so viel Overhead?
 
Puuh, da bin ich auch überfragt. An sich sind aber immer beide Platten aktiv in einem Mirror (bzw. eben alle). Bei den bisherigen Benchmarks (z.B. hier: klick) ist ein Mirror eigentlich immer recht fix. Teste doch bitte mal CrystalDiskMark.
 
Miuwa schrieb:
Weiß eigentlich jemand, warum bei einer Spiegelung (egal ob jetzt via Storagespaces oder RAID1) immer nur von einer Platte gelesen wird, anstatt wie beim RAID0 die Last zu verteilen?

Erstmal moin moin,

bei RAID 1 ist das recht simpel.

Die Schreib-/Leseköpfe zweier oder mehr Festplatten im Mirror sind synchronisiert. Deshalb würde die zweite Platte die gleichen Daten lesen wie die erste und du hast damit die gleiche Performance, als würdest du nur von einer einzigen Platte lesen bzw. schreiben!

StorageSpaces dürfte es OS seitig nicht anders machen, wenn es ein RAID1 simuliert.

RAID0 striped die ganze Geschichte. Die Schreib-/Leseköpfe der Platten sind bei manchen Herstellern (SW/HW egal) ebenfalls synchronisiert, spielt aber keine Rolle, denn Platte A liest ja Part1 von der angeforderten Datei während Platte B Part2 an seiner Stelle liest (bzw. schreibt), ergo Performance zuwachs!

Nutzt man jetzt VHDs sind die Auswirkungen in Performance zuwachs bzw. abfall natürlich viel extremer zu beobachten, da Mechanik ansich ja mehr arbeiten muss (SSDs mal außenvor gelassen).

Greetz S99

EDIT: Vielleicht hilft ja das, ein bisschen Licht ins dunkle zu bringen:
http://globalsp.ts.fujitsu.com/dmsp...ndows-storage-spaces-r2-performance-ww-en.pdf

Seite 13
 
Zuletzt bearbeitet:
nee das sind schon richtige Raidcontroller nur halt etwas älter mit dem P400 musst du aufpassen der kann soweit ich weiß keine 3TB Platten aufwärts.
 
werd ich testen bei Gelegenheit. Ich hab nur gelesen dass man ein neues FW Update braucht das zudem die Raid5 Performance extrem verbessert haben soll...
 
Schongewusst99 schrieb:
Erstmal moin moin,

bei RAID 1 ist das recht simpel.

Die Schreib-/Leseköpfe zweier oder mehr Festplatten im Mirror sind synchronisiert. Deshalb würde die zweite Platte die gleichen Daten lesen wie die erste und du hast damit die gleiche Performance, als würdest du nur von einer einzigen Platte lesen bzw. schreiben!

StorageSpaces dürfte es OS seitig nicht anders machen, wenn es ein RAID1 simuliert.

RAID0 striped die ganze Geschichte. Die Schreib-/Leseköpfe der Platten sind bei manchen Herstellern (SW/HW egal) ebenfalls synchronisiert, spielt aber keine Rolle, denn Platte A liest ja Part1 von der angeforderten Datei während Platte B Part2 an seiner Stelle liest (bzw. schreibt), ergo Performance zuwachs!

Nutzt man jetzt VHDs sind die Auswirkungen in Performance zuwachs bzw. abfall natürlich viel extremer zu beobachten, da Mechanik ansich ja mehr arbeiten muss (SSDs mal außenvor gelassen).

Greetz S99

EDIT: Vielleicht hilft ja das, ein bisschen Licht ins dunkle zu bringen:
http://globalsp.ts.fujitsu.com/dmsp...ndows-storage-spaces-r2-performance-ww-en.pdf

Seite 13


Servus,

soweit ich weiß, hängt das stark von der Implementierung ab. Ich nutze beispielsweise ein Softwareraid mit mdadm (inkl. pv, lvm).
Ich habe zwar (bin gerade noch am suchen), keinen wirklichen Beweis gefunden, aber ich glaube mich daran erinnern zu können, dass man in einer mdadm config einstellen kann ob die Köpfe syncron laufen oder nicht.


Anmerkung: Ich will hier nicht klugscheissen, nur was zum Thread beitragen ;)

@TE: Sehr interessantes Projekt. Ich nutze zurzeit KVM als Hypervisor innerhalb eines Ubuntu-Servers (7*2TB verbaut).

Edit:

"mdadm is software RAID so there is actually no "RAID controller" but it will provide a good read boost when doing multplie reads in parallel" (https://superuser.com/questions/385519/does-raid1-increase-performance-with-linux-mdadm)

Zusätzlich habe ich noch das gefunden:
"Technically you could do a "RAID 10" with only two drives. Utilize 1/2 the space of each drive to do a stripe and reverse the stripe on the second 1/2 of the drives." (http://www.tomshardware.co.uk/forum/271573-32-raid)

So hätte man ein Raid10 mit 2 drives. Ob das wirklich besser (Performance etc.) ist müsste man diskutieren. Bin gerade auch nicht mehr so hart drin in der Thematik.
 
Zurück
Oben