Projekt: Heimserver auf HyperV Basis mit Server 2012 R2 Datacenter und Storage Spaces

Das ist natürlich übel. Ich fürchte, da wird dir nix anderes übrig bleiben als das Board abzustoßen oder eine andere SSD auszuprobieren. Oder du steckst eben die SSDs in die Marvell-Controller und die HDDs in die Intel.

Bios-Update hast du gemacht, oder? Bios-Reset mal probiert? Aggressive Link Power Management im Bios mal deaktiviert?
Die SSDs funktionieren am Desktop-PC auch normal?
 
die Intel ist meine Test-SSD, in "zig" Rechner ist die schon gelaufen. Die Crucial war nagelneu, auf der ich gerade in einem B85-Rechner Win8 installiere. Geht auch. Am Samstag hab ich eine 120GB 530 aufgerissen und da ist es das selbe Spiel. Eine Crucial MX100 hätte ich noch in meinen Zock-PC, aber ich befürchte, das Ausbauen kann ich mir sparen ;)

Settings alles probiert inkl. Aggressive LPM und Hotplug aus.
Bios ist up-to-date, Reset ebenso mehrfach probiert.

Ich will ja von einer SSD booten und das will ich nicht am Marvell. Gefällt mir einfach nicht :) Und es sollte ja gehen.

Ich steh schon mit dem deutschen Vertrieb in Kontakt, mal sehen was rauskommt.
 
Dann ist das für mich ein klarer Fall von RMA. Sorry, aber wenn du schon beinahe alles im Bios getestet hast, mehrere SSDs nicht funktionierten, und auch ein Bios-Update nichts geholfen hat, dann liegts einfach am Board. Tu da am besten auch nicht lange rum, kostet eh nur Zeit und Nerven und raus kommt meistens auch nix.
Merkwürdig ist halt nur, wenn andere ebenfalls das Problem haben...spätestens das und die zahlreichen Problemthreads zu dem Board würden mich verunsichern - so genial das Board auch eigentlich ist.
 
glacios schrieb:
Lässt sich denn der Cache nur für Pools mit SSDs erhöhen? Eigentlich müsste doch über Powershell der WBC unabhängig geregelt werden können.

Was ich mich überhaupt bei dem ganzen Setup frage: Können später noch HDDs/SSDs problemlos hinzugefügt werden, um die Kapazität zu erweitern, oder ist das Setup dann mehr oder weniger fixed?

ich glaub erweitern sollte immer problemlos gehen. Den Cache kann man auch ohne SSDs via Powershell (glaub ich) auf 1 GB setzen, ob das dann aber was bringt keine Ahnung.

Ich dneke auch dass diese 32MB default sich auf den festplatteninternen Schreibcache beziehen.
 
Ich habe gerade nur mal kurz getestet und erweitern ging zumindest per GUI nur, wenn der Tier auf "Thin" und nicht auf "Fixed" gestellt wurde. Keine Ahnung, ob das mit Powershell noch anders geht.
 
http://technet.microsoft.com/en-us/library/dn454978.aspx

hmm

Detailed Description
The Resize-StorageTier increases the size of one or more storage tiers that are associated with a virtual disk. You cannot use the cmdlet to decrease the size of a storage tier.

Ein Storage Tier muss ja auf jeden Fall erstmal fixed angelegt werden, vergrößern sollte aber schon gehen. Mir fehlts aber noch etwas an Praxis.
Ergänzung ()

http://www.miru.ch/why-column-size-does-matter-with-storage-spaces/

onsider a single 24-bay JBOD filled with 8 SSDs and 16 HDDs. You Create a Storage Pool across 8 disks per type. On top you create a dual-mirrored, tiered space. It doesn’t matter if you use the Server Manager GUI or Powershell, by default you will have a column size of 4. This means, that data is written and read to/from 4 disks simultanously while the other 4 disks per type keep the copy of each data stripe on the space. So what if you want to extend the column size at a later stage to have more disks accessed at a time? This doesn’t work, You can’t change the column size for an exsiting space, so think wise before you click or run your Powershell Scripts. So what if you just want to extend the size of your tiered space? Of course you can do that. But in the scenario above, you’re limited to extend just the HDD tier by another 8 disks. The SSD tier can’t be extended referring to the image above. If you want to extend just the SSD tier, you could replace the unused 8 HDDs with SSD, but then there is no way to extend the HDD tier in the mean time? Why’s that?

A space or virtual disk has always to be extended with respect to the resiliency- and the column size setting. You cannot just replace two HDDs with SSDs and extend the SSD tier. So what’s the way here to extend both tiers?

wenn ich es richtig verstehe hab ich bei 2xSSD + 2x HDD als Mirrored Tier ne Column von 1, muss also mindestens auch wieder 2 HDDs reinhacken wenn ich extenden will was ja Sinn ergibt...
 
Zuletzt bearbeitet:
Das möchte ich auch machen, aber mir fehlen noch SATA steckplätze auf dem A1SAM 2750 Board. Möchte meine Festplatten Sammlung einhängen und zusätzliche ssds. Könnt ihr mir was für pcie empfehlen? Muss nicht das teuerste System sein. Oder lieber sogar ein ext. Gehäuse für die Festplatten, da mein Platz im Server auch schon voll ist.
 
Tatsache. Das hat mich auf die Idee gebracht, das Ganze nochmal mit VHDs zu testen. Zuerst habe ich aus 4x2TB VHDs ein Pool erstellt und darauf ein Parity mit fixed und maximaler Dateigröße (alles mit GUI).

Dann habe ich zwei weitere VHDs dem Pool hinzugefügt -> Das Parity ließ sich in der GUI nicht erweitern (dann wahrscheinlich auch nicht in Powershell).
Nochmal zwei VHDs hinzugefügt, so dass ich zu den 4 originalen VHDs jetzt insgesamt 4 weitere VHDs hinzugefügt habe -> Parity ließ sich erweitern auf jede beliebige Größe, allerdings nur bis 12TB.

Wenn man aber direkt einen Parity aus 8 HDDs erstellt, erhält man die maximalen 14TB an Speicher. Was Windows mit den verlorenen 2TB beim späteren Aufrüsten macht, weiß ich nicht direkt, ich vermute, dass Windows im Prinzip zwei Paritys erstellt und die miteinander koppelt (evtl. das, was du mit Columns meintest), d.h. aber nicht dass ein Dual Parity (aka RAID 6) vorliegt, das wäre nämlich bei 10TB verfügbarem Speicher.
Hier liegt dann eher sowas wie RAID 50 vor, bei dem nur dann zwei HDDs gleichzeitig ausfallen dürfen, wenn die in den unterschiedlichen "Columns" liegen. Ob das so stimmt, kann ich natürlich nicht sagen.
 
glacios schrieb:
Dann ist das für mich ein klarer Fall von RMA. Sorry, aber wenn du schon beinahe alles im Bios getestet hast, mehrere SSDs nicht funktionierten, und auch ein Bios-Update nichts geholfen hat, dann liegts einfach am Board.

Intel hat wohl was rausgefunden und der deutsche Vertrieb ist auch dran, steh mit denen in Kontakt.
Bin da eigentlich guter Dinge. Mal abwarten ;)
 
Asrock & der deutsche Vertrieb sind dran.
Ich teste gerade, die SSD die vorher nicht im Windows-Setup aufgetaucht ist, taucht jetzt auf. Wird eine neue Bios-Version geben.
 
Hallo Leute,
ich bin etwas ratlos und hoffe hier ein paar Tips zu bekommen. Ich habe zwar nur Windows 8.1, aber die Storage spaces Technik ist ja ähnlich wie bei Windows Server oder?

Folgendes Hardware habe ich im Einsatz für meinen reinen Datenserver:

1 x ASRock Z97 Extreme6 (90-MXGTE0-A0UAYZ)
1 x Intel Core i3-4130, 2x 3.40GHz, boxed (BX80646I34130)
1 x Kingston HyperX blu. DIMM XMP Kit 8GB, DDR3-1600, CL10 (KHX16C10B1K2/16X)
1 x Samsung SSD 840 EVO 250GB, SATA 6Gb/s (MZ-7TE250BW)
Festplatten:
3 x Western Digital WD Green 4TB, SATA 6Gb/s (WD40EZRX)
4 x Western Digital WD Green 3TB, SATA 6Gb/s (WD30EZRX)
1 x Western Digital Caviar Green 2.5TB, SATA 6Gb/s (WD25EZRX)
1 x Western Digital Caviar Green 2TB, 64MB Cache, SATA 3Gb/s (WD20EARS)

Ich habe also Windows 8.1 installiert, alle Treiber installiert und direkt danach ein Storage pool erstellt mit allen Festplatten, also 9 Platten und eine Größe von 50TB angegeben. Windows ist auf die SSD installiert, welche natürlich nicht mit im Pool ist. Ging auch alles problemlos nur eine Sache ist extrem negativ:
Die Schreibgeschwindigkeit diese Pools ist wahnsinnig langsam. Ich befülle gerade die vorhandenen 14TB und die Schreibgeschwindigkeit liegt sein 3 Tagen bei ca. 9-12 MB/s.

Frage an die Experten:
- habe ich was falsch eingestellt?
- ist der Speed normal? (auch goße Dateien mit über 10GB sind so langsam)
- kann ich irgendwie die SSD sinnvoller einsetzen?`

Bin über jede Antwort dankbar.

gruß
m0bbed

Nun habe ich gelesen, dass dies zum Teil an der großen Anzahl der Platten liegt und die Parität deswegen so umfangreich wird. Stimmt das?
 
Sag mal, hast du dich vorher nicht informiert? Das ist doch nun wirklich keine Neuheit mehr. Storage Spaces ohne SSD im Pool = Schreibgeschwindigkeit unter 30 MB/s.
SSD-Tiering unterstützt Windows 8.1 meines Wissens nach aber nicht, dafür ist ein Server-Betriebssystem notwendig. Von daher wirst du - wenn du bei Storage Spaces bleiben möchtest - wohl oder übel mit der Geschwindigkeit leben müssen.
 
@m0bbed

An diesem Board würde ich das Intel Raid onboard nutzen, das ist super vom Speed her, vorallem bei einer ungeraden Anzahl von Platten im Raid5 + erweiterbar. Zb 5x4 TB irgendwann. Das sollte echt fix sein.
https://www.computerbase.de/forum/threads/16-w-core-i3-530-komplettsystem-standard-v.685231/

Wenn ich das richtig sehe hast du alle 10 SATA Ports belegt. Ein Pool allein hat ja noch garkeine Sicherheit, das haben ja die Datenträger auf dem Pool. Was hast du da angelegt?

Ich würde in deinem Fall vielleicht folgendes machen.

1x Raid 5 an Intel ICH aus den 3x4 TB = ~ 8TB effektiv und vermutlich recht fix.

der Rest ist schwer da so viele verschiedene Platten.

zb 4x3TB im Raid 1 (über storage spaces) -> Gespiegelt = 6TB = fix!

Dann entweder 2x2 TB gespiegelt (vielleicht auch an der Intel ICH entweder Storage SPaces oder Intel Raid.

Die Frage ist wie deine Wunschaufteilung aussieht. Vielleicht kannst du die Daten in perfromance kritische und weniger kritische Daten aufteilen. Was muss wie gesichert sein, was vielleicht garnicht. Wenn du einfach einen Pool machst und da 1 Parity drauf... weiß ich eh nicht ob das bei so unterschiedlichen Platten gut hinhaut.
Aus den 4x3 Tb kannste auch n Parity machen (in storage Spaces) - is halt langsamer. Du kannst auch folgedes versuchen.

SSD nicht an ICH sondern 4x4 TB im Raid5 an Intel ICH Raid5 + 2x2 TB Spiegel an Intel ICH. Speed am Intel Raid is meiner Erfahrung nach im Parity wesentlich fixer.

Parity bei Storage spaces wird erst schnell wenn man wirklich mehr als 5 Platten einsetzt und am besten noch SSD cache. Installier dir mal den Rapid Storage von Intel, da kannste super bequem aus Windows heraus mal deine Möglichkeiten an der Intel ICH testen.

Generell sind viele verschiedenen Plattengrößen immer etwas komplex - da muss man vielleicht auf der Powershell viel machen und Platten fix zuweisen, zb ein Pool und dann gezielt sagen Parity auf den 4x4 TB. Aber Parity sollten an deiner Intel ICH gerade bei 3 oder 5 Platten besser sein. Storage SPaces wäre bei dir interessant wenn du zb 9x4TB betreiben würdest + deine OS Platte.
Dann würde er auch im Parity sicher ne Ecke fixer wegkommen da er dann auf mehrere Platten schreiben kann.
Ich hoffe aber noch auf MS, die sollten bei Parity wirklich etwas Hirnschmapz reinstecken und das Optimieren. ZFS schafft da teils auch gut 100MB/s +, das Intel Raid auch, möglich ist es also ohne weiteres.

Edit: Das waren meine 5x2 TB am Intel H57 im Raid5 (!)
raid5stripe16kcluster657e9.jpg
 
Zuletzt bearbeitet:
Erst mal Danke @Kraut!
Ich muss noch dazu sagen, dass ich alle Platten in einem Volume zusammenfassen möchte und darüberhinaus ich für alle Daten die selbe Geschwindigkeit brauche. Aufteilen in Raid5 und den Rest Parity ist keine Option, dann nehm ich lieber den langsamen Speed in Kauf.

Mein Speed ist also normal, richtig? Das ist ja schon mal ne Erkenntnis, ich dachte ich habe was falsch eingerichtet. Mit 30 MB/s könnte ich noch halbwegs leben, da meistens eh nur gelesen werden soll. Aber ich habe halt beim Schreiben aktuell nur ca. 10 MB/s
 
Nein, Lesen kommst du bei 9 HDDs + Parity bedeutend schneller als 30 MB/s raus. Ich tippe eher auf 200-300MB/s. Nur Schreiben ist halt endslahm.
10 MB/s kann natürlich auch an der Dateigröße liegen, die du gerade kopierst. Wenn das gerade Bilder oä sind, dann ist der Wert zu erwarten.

Nur bei Dateiein über 1GB sollten dann die besagten 30 MB/s auftreten, wobie auch das sicher wieder abhängig vom Setup ist: Plattengröße, Plattengeschwindigkeit, Plattenanzahl etc.

PS Bei den unterschiedlichen Plattengrößen wäre Synology evtl. die bessere Wahl. Steht das irgendwie zur Debatte (auch in Form von Xpenology)?
 
Zuletzt bearbeitet:
@m0bbed

alle Platten zu einem Volume zusammenfassen... als einfachen Stripe oder mit Redundanz wie Parity / Mirror?

Alle Platten in ein Pool werfen ist kein Problem, auch ein Stripe darüber machen auch nicht nur dann darf erstmal nichts ausfallen.
Du hast

3 x Western Digital WD Green 4TB, SATA 6Gb/s (WD40EZRX)
4 x Western Digital WD Green 3TB, SATA 6Gb/s (WD30EZRX)
1 x Western Digital Caviar Green 2.5TB, SATA 6Gb/s (WD25EZRX)
1 x Western Digital Caviar Green 2TB, 64MB Cache, SATA 3Gb/s (WD20EARS)

Wenn du ein Parity Volume auf dem Pool erstellst, was ist dessen maximale Größe? Bei dem bunten Mix an Platten stelle ich mir die Frage was Windows dir überhaupt anbietet. Damit meine ich... es gibt ja ein Limit. Wie er das errechnet frag ich mich da bei dem Platten mix.

Er kann ja über alle 9 Platten 2 TB abgreifen mit einer dabei als Paritätsplatte, wären dann 8x2 TB. Was ich nicht weiß, ist ob Storage Spaces dann noch weiter macht, also zb weitere 8x500GB @ Parity = 7x500GB = 3,5 TB.
Dann noch 7x500GB für die verbleibenden wären nochmal 3 TB und dann noch die 4 TB Platten mit 3x1TB = 2 TB im Parity.

In Summe wäre bei der Aufteilung bei deinen Platten eine Parity Größe von

8+3,5+3+2 = 16,5 TB möglich auf welchem du dann ein Thin oder Thick Volume anlegen kannst. Aber ob er das auch so anlegt bezweifle ich - theoretisch wärs aber möglich.

Bei meinen 3x2 TB und 4x4 TB hat er das glaub ich nicht gemacht, also 7x2 TB @ Parity = 12TB + 4x2 TB @ Parity = 6 TB. -> in Summe 18 TB.

Was MS da intern rechnet, denke müsste man mit Recherche eventuell rausbekommen aber verstanden hatte ich das beim Einrichten nicht. Musste meine 4x4TB explizit "pinnen" damit die für das 4x4 Parity genommen werden.

@glacios

such mal nen Synology mit 9 Platten :D
 
Zuletzt bearbeitet:
Also ich habs als Parität angelegt und habe effektiv ca. 17TB zur Verfügung. Wenn eine Platte ausfällt, bleiben alle Daten erhalten, wenn 2 Platten ausfallen, ist alles weg :(

Habe mehrere Konstellationen (mit weniger Platten) getestet und bei Parität bleiben immer ca. 2/3 des Gesamt-Festplatten Volumens effektiv übrig. 1/3 geht für Parität drauf...
 
@m0bbed
Du kannst ja auch Dual Parity (Raid6) anlegen, falls gewünscht.


@Miuwa
Tja gute Frage. Muss wohl am WBC liegen. Komischerweise kriegen onboard-RAIDs das aber ja auch hin.
Ich schätze MS wollte unbedingt auf Nummer Sicher gehen, damit im Falle eines Stromausfalls nichts weg ist, weil irgendwas in flüchtigen Speicher abgelegt wurde.


EDIT: Von insgesamt 28,5 TB bleiben nur 17 TB übrig? Es sollten eigentlich 24,5 TB übrig bleiben! Bei Synology wäre das zumindest so. Das solltest du dir nochmal genauer anschauen, das ist doch Platzverschwendung.

EDIT2: Weil ich ein guter Mensch bin, habe ich das Ganze mal für dich @m0bbed mit VHDs an meinem Server gegengecheckt. Ich bekomme bei Parity aus den 28,5TB insgesamt 22,9TB nutzbaren Speicher. 1,74TB bleibt dann übrig und wird nicht genutzt. Bei dieser komisch krummen Zahl habe ich natürlich keinen Plan, wie sich das Parity jetzt genau zusammensetzt, aber es ist in jedem Fall deutlich mehr Speicher übrig als 17TB.
 
Zuletzt bearbeitet:
Zurück
Oben