Projekt: Heimserver auf HyperV Basis mit Server 2012 R2 Datacenter und Storage Spaces

DDD schrieb:
Wie bekommst du die 200 MB übers Netz?

die 200MB waren lokal, von R5 auf SSD. Übers Netz gehen von PC A nach PC B recht genau 113MB/s max. Wenn ich nen 2. PC dazu nehm dank Teaming etwa 1,2Gbit zusammen. Mehr packt der Switch nicht.

Die 200MB/s + waren , wie drunter steht, NAS auf SSD aber im Server selbst. Wurde ja gewünscht ohne Netzwerkflaschenhals.
Ergänzung ()

glacios schrieb:
Kann man denn ungefähr sagen, abwieviel GB der WBC vollgelaufen ist bzw. der Speed merklich abnimmt?

wenn ich mir das Schreiben aufs NAS anschaue, dann geht meist mehr "Fullspeed" als ich als WBC angegeben hab, was zum einen natürlich daran liegt, dass er im Hintergrund den Cache schon etwas leeren kann und zum Anderen, dass er sicher auch viel in den RAM läd - gerade über Netzwerk.

Bei meinem Konstrukt hab ich nun ja 2x256GB im Pool, die heute nicht mehr so viel kosten.

http://geizhals.de/samsung-ssd-840-evo-250gb-mz-7te250bw-a977940.html

116€ - und 128GB tuts ja genauso.

Standard Cache ohne SSDs im Pool sind übrigens 32MB.

Ich kann dir jetzt nicht sagen ob er die 1GB WBC (Default ohne manuelle Angabe) auch nimmt, wenn man nur eine SSD im Pool hat. Glaubt man der PDF von oben dann braucht es für den WBC bei Parity und Mirror Volumes ja auch min 2 SSDs. Klar, du kannst sicher auch zwei Virtuelle SSDs auf einer physikalischen erstellen... kann dir aber nicht sagen wie ausfallsicher das ist. Das Volume dürft kaum kaputt sein wenn er dann nur den WBC bei Ausfall verliert.

Wenn man zwingend 2 SSDs braucht und nicht grad wie ich 12 SATA hat dann is das natürlich etwas... blöd.

So ist jetzt quasi meine Finale Einstellung:



und man sieht auch dass er beim Kopieren von ~ 200GB Daten (intern) auf das Parity in der Einstellung nen guten Durchschnitts Schreibwert draufbekommt von um die 100MB/s. Der Zweite Ausreißer nach oben (300MB/s +) kommt daher, dass er kurz gefragt hatte ob er was Überschreiben soll und sich dann der Cache geleert hatte.

Zu deiner WBC Empfehlung also. Wenn du kein Tiering machst... schadet mehr WBC sicher nicht. Wenn Tiering ne Option ist dann eher mim WBC geizen und den Spaces fürs Tiering nutzen ;)
 
Zuletzt bearbeitet:
Hallo Krautmaster. Ich muss sagen, ich finde die berichte hier richtig interessant - vielen Dank dafür.
Was ich dich zum Thema Storagespaces mal fragen wollte ist, ob du einen Weg kennst, wie man ein physisches Laufwerk austauschen kann, auf dem virtuelle LW ohne Redundanz liegen. Im Prinzip sollte es ja ganz einfach sein Windows zu sagen, dass es alle virtuellen LW bzw. die Teile, die auf dem jeweiligen physikalischem LW liegen von einer Festplatte aus der SP auf eine andere kopieren soll. Aber bisher hab ich den entsprechenden Befehl noch nicht gefunden.
 
Ich denke das geht wie bei allen Austauschaktionen im Storage Zeugs von MS... so wie ich gelesen habe muss man das entsprechende LW "Veraltet" setzen, danach dann entfernen - wobei ich nicht genau weiß ob das "veraltet" setzen bei Einfachem Austausch nötig ist.

Siehe auch

http://social.technet.microsoft.com...ons-faq.aspx#How_do_I_replace_a_physical_disk

Mag sein, dass du die "veraltet" Methode anwenden musst, wenn du nicht die Möglichkeit hast 1. die neue Platte zusätzlich in den Pool zu nehmen und dann erst die alte zu entfernen, also sozusagen deine Sicherheit aushebeln musst für die Zeit des Austauschs.

Ich überlege gerade ob ich das mal testen kann. Würde mich ja auch selbst interessieren. Ich denke ich kopiere dazu meine Benutzerdaten weg und spiel mit dem 2x256GB + 2x2Tb Mirror rum da ja eh noch ne 3. 2TB Platte im System ist die ich eig für nen "Austausch" nehmen könnt.

Hier ist der Prozess des "veraltet" setzen beschrieben:

http://www.foo-bar.net/?p=15

Basically, the process is to set the disk to be removed as “retired”, migrate the data off of it, and remove it from the storage pool.

To figure out the names of the disk, you can use the Windows PowerShell command Get-PhysicalDisk. This will output the list of drives attached to your storage spaces. I’ll be removing an old 2TB drive, named ST2000DL003–C to make room for a larger drive.

Now, use the PowerShell command (you’ll need to be running PowerShell as an administrator) to mark the disk as retired:

Set-PhysicalDisk -FriendlyName ‘ST2000DL003–C’ -Usage Retired

Windows will chug for a few seconds, and you’ll see the drive marked as retired in the Storage Spaces control panel.

storagespaces-retire0

Now, we’ll need to repair the Virtual Disks (IE “move” the data on the retired disk elsewhere on the storage pool. We’ll need to know what Windows calls our Virtual disks, and we can figure that out with the PowerShell command Get-VirtualDisk. Next, we’ll issue the repair command for ach Virtual Disk within this Storage Space.

Repair-VirtualDisk -FriendlyName ‘DomainData’

Repair-VirtualDisk -FriendlyName ‘ServerData’

etc…

The jobs are queued, so only one runs at a time.

Im Prinzip sollte das genauso laufen wenn du in einem einfachen Pool ohne Sicherheit ne Platte durch ne größere ersetzen willst.

Beim Reparieren versucht er dann die Daten der "veralteten"-Disk auf die anderen zu schieben, danach kann die veraltete entfernt werden.
 
Zuletzt bearbeitet:
@Krautmaster
Der Preis der SSDs spielt keine Rolle für mich - eher eben, dass durch 2 physikalische SSDs wieder zwei Sata-Ports verloren gehen. Von daher bin ich eher für 5xHDD + 1xSSD als für 4xHDD + 2xSSD, auch weil das dann ein ungerader Raid 5 wäre - sicherlich Performancemäßig mal intressant, ob das wirklich nen Unterschied bei Storage Spaces machen kann.

Ich kann mir trotzdem nicht erklären, warum für einen harmlosen WBC zwei Festplatten nötig werden, aber das heißt ja erstmal nichts.

Deinen Ergebnissen zufolge scheint es ja leider doch so zu sein, dass mehr als 5 GB WBC zu Problemen führen kann (siehe 30 GB WBC). Woran das aber liegt, weiß wohl nur MS selbst.

Zu den virtuellen Festplatten: Diese benutzt du in deinem jetztigen Setup nicht mehr, sehe ich das richtig? Würde mich nämlich echt mal interessieren, ob das in Sachen Ausfallsicherheit Probleme bereiten könnte.
 
glacios schrieb:
Deinen Ergebnissen zufolge scheint es ja leider doch so zu sein, dass mehr als 5 GB WBC zu Problemen führen kann (siehe 30 GB WBC). Woran das aber liegt, weiß wohl nur MS selbst.
Probleme würd ichs gar nicht nennen. Wenn der Cache groß ist... und dieser große vollläuft - muss ja das System eig mehr einbrechen als bei einem kleinen Cache. Imho muss er dann auch erstmal massig Daten wegschaufeln. Ob mit nuer einer SSD + R5 ein WBC funzt hatte ich jetzt gar nicht richtig getestet.
Zu den virtuellen Festplatten: Diese benutzt du in deinem jetztigen Setup nicht mehr, sehe ich das richtig? Würde mich nämlich echt mal interessieren, ob das in Sachen Ausfallsicherheit Probleme bereiten könnte.

Sind beide virtuellen SSDs getrennt is das Raid auch weg. Als ich im alten Setup die "SSDs" virtuell hatte und als Journaling dran war das so. Ohne min 1 dieser 2 SSDs war der Space off.
 
Danke für den Hinweis. Ich werde das bei Gelegenheit mal testen. In den Kommentaren schreibt ein Nutzter allerdings, dass es bei ihm nicht funktioniert hat. Nunja, ich melde mich, sobald dich den Test durchgeführt habe (kann aber noch ein bis zwei Wochen dauern).
 
Krautmaster schrieb:
Probleme würd ichs gar nicht nennen. Wenn der Cache groß ist... und dieser große vollläuft - muss ja das System eig mehr einbrechen als bei einem kleinen Cache. Imho muss er dann auch erstmal massig Daten wegschaufeln. Ob mit nuer einer SSD + R5 ein WBC funzt hatte ich jetzt gar nicht richtig getestet.
Das gibt natürlich irgendwo Sinn. Schade, dass du den WBC nicht mehr nur mit einer SSD getestet hast. Wäre interessant.
Dann könnte ich bspw. den Cache auf der System-Festplatte als einfache, virtuelle Festplatte laufen lassen. Ob das in punkto Ausfallsicherheit so sinnvoll ist, sei da mal einen andere Frage.

Krautmaster schrieb:
Sind beide virtuellen SSDs getrennt is das Raid auch weg. Als ich im alten Setup die "SSDs" virtuell hatte und als Journaling dran war das so. Ohne min 1 dieser 2 SSDs war der Space off.
Dauerhaft off oder nach hinzufügen der beiden virtuellen SSDs wieder zugänglich?
Müsste ja eigentlich ersteres sein.
 
glacios schrieb:
Dauerhaft off oder nach hinzufügen der beiden virtuellen SSDs wieder zugänglich?
Müsste ja eigentlich ersteres sein.

ich hatte davor 2 Virtuelle SSDs (Journaling) gepaart mit den 4x4TB. Diese werden beim Boot nicht automatisch gemountet deswegen war das Raid erstmal "off". Eine per Doppelklick "geladen / gemountet" und schwups war das Raid/der Virtuelle Datenträger da.
 
Heißt das, dass virtuelle Disks im Pool nie automatisch gemountet werden? Kann ich mir eigentlich gar nicht vorstellen.
Das wäre ja sonst sehr nervig jedesmal per Doppelklick oder per Batch die SSDs zu mounten, geschweige denn von dem Risiko sich mal das Storage komplett zu zerschießen.

Interessant finde ich aber, dass trotz 2 fehlender Platten der Parity-Pool nicht aufgelöst wurde. Bei Raid 5 wäre das nämlich der Fall gewesen.
 
wie meinst "aufgelöst" - selbst killen tut er sich nicht ;) auch nicht wenn du 3 von 5 Platten entfernst... das system kapiert halt erst dass es vollständig verfügbar ist wenn mindestens N-1 Platten da sind.

Mounten kannste glaub schon iwi automatisch, hatte da iwas gelesen. Da gibts glaub genug Möglichkeiten

https://www.google.de/webhp?sourceid=chrome-instant&ion=1&espv=2&ie=UTF-8#q=mount virtual disk auto

Wichtiger ist eher, dass du beide virtuellen Disks auch auf verschiedene Platten aufteilst. Hatte nicht getestet was passiert wenn beide virtuelle Platten "hopps" gehen, macht vielleicht auch noch nen Unterschied ob Journaling oder wirklich als Tier.
 
Zuletzt bearbeitet:
Das ist ja schön zu hören. Da wäre jedes Raid 5 schon längst in die Knie gegangen und da kann man bei SS noch munter Festplatten entfernen.

Das ist mir klar, dass man virtuelle Festplatten nicht auf einer SSD erstellt, wenn einem Datensicherheit irgendwie lieb ist. Daher ja auch die Frage, ob man den WBC auch nur mit einer SSD-Festplatte abfertigen kann.
 
Noch etwas: Könntest du mal den aktuellen Status deines Projekts posten. Soll heißen, wie genau sieht jetzt dein Storage-Setup aus?

1x 2way Mirror mit 2 SSDs als Journal + 5GB WBC
1x Parity ohne SSDs mit 4x4TB + 4GB WBC

Ist das richtig so?

PS. Ich weiß nicht, ob du noch Hyper-V aktiviert hast - wenn ja: Laut meiner Recherche und nach eigenen Tests schrottet Hyper-V WoL. Soll heißen, solange die Hyper-V-Rolle aktiviert ist, funktioniert kein Wake on LAN. Das ist von M$ auch so bestätigt worden (siehe z.B. hier: http://social.technet.microsoft.com/Forums/windowsserver/en-US/67811666-9bc6-4825-88fd-8629bf43debb/wakeonlan-wol-how-to-wake-a-virtual-machine-via-lan?forum=winserverhyperv).

Dies gilt auch für den Hostserver, dieser ist ebenfalls nicht weckbar (http://www.seffner-schlesier.de/news/hyper-v-auch-core-und-wol-wake-on-lan/). WoL ist für einen Heimserver imo aber zwingende Voraussetzung!
 
Zuletzt bearbeitet:
Echt toller Bericht, der mich inspiriert hat auch nach dem gleichen Schema zu verfahren.
Habe noch nie Kontakt zu win Servern oder überhaupt Servern gehabt.
Ich lese mich ein und möchte ebenfalls Zuhause eine ähnliche Konfiguration aufbauen.
Hardware habe ich auch schon.
Dreamspark-Zugang vorhanden.
Dachte an tiers mit zwei ssds und diversen hdds.
Ich werde als erstes hyper-v installieren und dann win Server 2012 r2 datacenter als vm. Hoffe ich kann den Server genauso installieren wie core Server auch.
Oder muss ich mit großem Aufwand noch die Hardware durchreichen?

Anschließend werde ich eine tv Karte cine s2 einbinden.

Für Tipps und Ideen bin ich sehr dankbar!
 
Nee lass das mal bleiben! Ohne Kontakt zu Servern gehabt zu haben, würde ich niemals mit Hyper-V einsteigen, da wirst du nur Probleme kriegen. In Hyper-V kannste ja nichtmal USB-Sticks einbinden, dann viel Spaß bei dem Ärger mit PCI-TV-Karten.

Nenene vergess das mal lieber gleich. Achja: Hyper-V als Coreserver ist gleich der komplette Overkill - undenkbar für einen Neueinsteiger.

Installiere dir lieber einen normalen Server 2012, da hast du schon genug mit zu kämpfen! Das ist zwar nicht so "sauber", aber im Heimnetzwerk macht Virtualisierung sowieso keinen Sinn.

PS. Der TE hat ebenfalls das Hyper-V-Core-Host ad acta gelegt, da Storage Spaces sich nicht durchreichen lassen.
 
glacios schrieb:
PS. Ich weiß nicht, ob du noch Hyper-V aktiviert hast - wenn ja: Laut meiner Recherche und nach eigenen Tests schrottet Hyper-V WoL. Soll heißen, solange die Hyper-V-Rolle aktiviert ist, funktioniert kein Wake on LAN. Das ist von M$ auch so bestätigt worden (siehe z.B. hier: http://social.technet.microsoft.com/Forums/windowsserver/en-US/67811666-9bc6-4825-88fd-8629bf43debb/wakeonlan-wol-how-to-wake-a-virtual-machine-via-lan?forum=winserverhyperv).
Das kann ich mit der aktuellen Hyper-V-Version nicht bestätigen. Mein NAS mit Windows Server 2012 R2 lässt sich problemlos mit WOL hochfahren. Nur wenn der Strom vorher weg war funktioniert es nicht. Das ist soweit ich weiß aber eine Limitierung vieler Mainboards, da das im WOL-Standard nicht vorgesehen ist.

glacios schrieb:
In Hyper-V kannste ja nichtmal USB-Sticks einbinden, dann viel Spaß bei dem Ärger mit PCI-TV-Karten.
USB-Passthrough am Client gibts seit Windows Server 2012 R2. PCI-Passthrough gibts in der Tat noch nicht.
 
@TheCadillacMan
Fährst du mit WoL den Host hoch oder die VM? Sehr merkwürdig, bei mir hat beides dann nämlich nicht mehr geklappt. Wird auch von MS selbst so gesagt, warum das jetzt bei dir funktioniert, kp. Bzw. hast du zufällig zwei Ethernetanschlüsse am Board?

Das mit USB wäre mir neu, wie soll das gehen? Kannst du diesbezüglich mal nen Screenshot posten? Ich habs jedenfalls nicht geschafft den USB Stick durchzureichen (offline schalten in der Datenträgerverwaltung geht ja nicht).
 
Stimmt, mit USB-Sticks geht das tatsächlich nicht, außer man schaubt am "Removable Media Bit" rum.
Aufwecken des Hosts (Gigabyte GA-B85N) geht problemlos. VMs aufwecken funktioniert nicht (benutze ich allerdings nicht, sobald der Host läuft kann ich die VMs auch per RDP oder PS starten).

Wenn man aus irgendwelchen Gründen unbedingt WOL für VMs braucht kann man das theoretisch über ein einfaches Programm/PS-Job lösen: Ein UDP-Client der auf WOL-Pakete (im wesentlichen Broadcast, Port 7) lauscht und anschließend z. B. ein PowerShell-Script ausführt, das die entsprechende VM anhand der MAC sucht und startet. Das ist keine Zauberei und vielleicht gibt's das auch schon. Wenn ich mal langweile hab, schreib ich sowas vielleicht sogar mal. ;)

PS: An dieser Stelle übrigens noch ein Danke an Krautmaster für seine Mühe mit seinem Projekt und diesem Thread.
 
Zuletzt bearbeitet:
glacios schrieb:
Nee lass das mal bleiben! Ohne Kontakt zu Servern gehabt zu haben, würde ich niemals mit Hyper-V einsteigen, da wirst du nur Probleme kriegen. In Hyper-V kannste ja nichtmal USB-Sticks einbinden, dann viel Spaß bei dem Ärger mit PCI-TV-Karten.

Nenene vergess das mal lieber gleich. Achja: Hyper-V als Coreserver ist gleich der komplette Overkill - undenkbar für einen Neueinsteiger.

Installiere dir lieber einen normalen Server 2012, da hast du schon genug mit zu kämpfen! Das ist zwar nicht so "sauber", aber im Heimnetzwerk macht Virtualisierung sowieso keinen Sinn.

PS. Der TE hat ebenfalls das Hyper-V-Core-Host ad acta gelegt, da Storage Spaces sich nicht durchreichen lassen.

Naja glaube nicht, dass das virtualisieren von heimservern keinen sinn macht.
Dachte an ein Linux zusätzlich für ein nas os und vieles mehr, was sich mir noch so erschließen wird, eben auch zum ausprobieren.

Dass mit Storage spaces ist natürlich ein Argument.

Ist das core hyper-v als tv-server und allen ws R2 2012 Funktionen tatsächlich Overkill für mich?
*krass wie das klickibunti bei ws 2012 dazu animiert professionell server anzulegen mit meinem octacore avoton mit derzeit 16gb ecc, 120gb SSD, 5 hdds (2x2 identisch, 6te platte steckt, aber keine Anschlüsse mehr)*

Ich weiß, ich kann ja fast genauso gut mit einem ws R2 2012 als Core virtualisieren. Dachte ich spare mir den Zwischenschritt.
 
Zuletzt bearbeitet:
Zurück
Oben