Projekt: Heimserver auf HyperV Basis mit Server 2012 R2 Datacenter und Storage Spaces

@TheCadillacMan
Jau das mit dem Removeable Media Bit hab ich damals, als ich noch HyperV benutzte, auch schonmal probiert (zum Glück inner VM). Das zerschießt u.U. sofort und unwiederbringlich dein OS, kann ich also niemandem empfehlen.

Dass WoL bei dir noch funktioniert ist aber zumindest noch ein Hoffnungszeichen, dass nicht jeder Onboard-LAN-Chip von dem "Feature" betroffen ist. Ich habe aber seriöse Rückmeldung u.a. von Firmen bekommen, die ebenfalls Probleme mit Hyper-V und WoL haben.


@Chatt
Wieso willst du unbedingt virtualisieren? Nur wegen dem Basteltrieb? Ja das hatte ich auch schonmal und das Ende vom Lied war, dass ich etliche Stunden in die Virtualisierung meines Servers gesteckt habe, ohne dass es jemals so sauber lief wie zuvor. Deswegen bin ich wieder zurück. Manchmal muss man sich einfach fragen, was das überhaupt bringen soll und nicht immer seinem Techniktrieb nachgeben, auch wenn ich zugeben muss, dass das ziemlich schwer fällt. :)

Frag dich doch mal ernsthaft, was dir persönlich eine Virtualisierung deines Systems bringt? Außer einer sauberen und optisch gefälligen Trennung hat das nur Nachteile.
Keine TV-Karten durchreichen, keine Storage Spaces durchreichen, keine USB-Sticks durchreichen, keine Grafikkarten (mit deiner CPU), WoL gibt evtl. Probleme, etliche andere Einstellungen (LightsOut z.B.) funktionieren ebenfalls nicht richtig, du brauchst mehrere Lizenzen (okay als Student unerheblich), hast evtl. Probleme mit der Aktivierung virtualisierter Systeme, brauchst doppelten Speicherplatz, mehr Festplatten, deutlich mehr Konfigurationsaufwand, musst min. 2 Systeme gleichzeitig administrieren etc etc.

Glaub mir, im Privatbereich bringt das nichts. Virtualisierung ist dafür da, die Ressourcen eines sonst brachliegenden Servers aus Kostengründen optimal auszureizen. Nicht mehr, nicht weniger.
 
glacios schrieb:
Glaub mir, im Privatbereich bringt das nichts. Virtualisierung ist dafür da, die Ressourcen eines sonst brachliegenden Servers aus Kostengründen optimal auszureizen. Nicht mehr, nicht weniger.
Würde ich so nicht sagen. Virtualisierung hat auch den Vorteil, dass man einzene Funktionalitäten gegeneinander abschotten kann und gerade wenn man noch im "Bastelstadium" ist ist es ganz praktisch, wenn man ein System bequem zurücksetzten kann ohne gleich alles wieder neu aufsetzten zu müssen. Mit einem virtualisiertem TV-Server würde ich aber auch nicht gleich anfangen.
 
Miuwa schrieb:
gerade wenn man noch im "Bastelstadium" ist ist es ganz praktisch, wenn man ein System bequem zurücksetzten kann ohne gleich alles wieder neu aufsetzten zu müssen.

Genau dafür benutzt man es ja auch im Privatbereich. Aber nicht produktiv auf einem privaten Fileserver/NAS, die VM kann ich nämlich genauso gut, eher besser, aufm Desktoprechner liegen haben. Das NAS soll schön im Hintergrund stromsparend und ohne viel Gefrickel die Daten bereitstellen.

Das, was @Chatt über Virtualisierung so umsetzen wollte, wird erstens nicht funktonieren und zweitens sinnlos sein. Gegen eine Buildserver-VM auf Linuxbasis ist ja sonst nichts einzuwenden...

Soft- oder Hardware gegeneinander abzuschotten mag anno 2000 mal sinnvoll gewesen sein, heutzutage sind die Treiber bis auf einige exotische Konfigurationen nicht darauf angelegt, sich gegenseitig aufzufressen :).

BTW. Systeme lassen sich auch über die Systemwiederherstellung oder ein Backup zurücksetzen - wobei ich zugeben muss, nicht so elegant und schnell wie bei einer VM.
 
glacios schrieb:
Dass WoL bei dir noch funktioniert ist aber zumindest noch ein Hoffnungszeichen, dass nicht jeder Onboard-LAN-Chip von dem "Feature" betroffen ist. Ich habe aber seriöse Rückmeldung u.a. von Firmen bekommen, die ebenfalls Probleme mit Hyper-V und WoL haben.
Das erwähnte Gigabyte-Board hat einen Intel I217-V (der Treiber lässt sich offiziell unter Windows Server gar nicht installieren, das lässt sich aber mit einem einfachen Trick umgehen). Mein ASRock Q1900-ITX mit Realtek RTL8111GR lässt sich bei aktiviertem Hyper-V ebenfalls aufwecken (sofern vorher nicht stromlos).
Mit welcher Windows Server-Version hast du denn getestet? Der Thread aus dem Microsoft-Forum ist immerhin von 2008 und Microsoft schraubt immer noch so einiges an Hyper-V.

glacios schrieb:
evtl. Probleme mit der Aktivierung virtualisierter Systeme
Wenn man auf die Datacenter-Edition Zugriff hat (z. B. als Student) ist das dank Automatic Virtual Machine Activation überhaupt kein Problem.

glacios schrieb:
Virtualisierung ist dafür da, die Ressourcen eines sonst brachliegenden Servers aus Kostengründen optimal auszureizen. Nicht mehr, nicht weniger.
Für ein bisschen mehr schon. :)
Gerade Dinge wie Live Migration (Verschieben der VM auf einen anderen Host bei Bedarf) und das unter Umständen einfachere Backup-Konzept sind zumindest im Geschäftsbetrieb ganz nützlich. Zudem will man nicht nur Treiber sondern einfach Software von einander abschotten, sei es aus Sicherheits- oder Kompatibilitätsgründen.
 
Ok denke, dann wird mein core ws 2012 R2 sein und nas und andere Betriebssysteme zum testen dann mit hyper-v rolle.

Mir sind die onboard SATA slots ausgegangen. Was ist als Erweiterung sinnvoll, pci SATA oder SAS controller für günstiges geld oder ein ausgestattetes backplane ? Soll nur für einwandfreies fullhd streaming geeignet sein.
 
Jop ist sinnvoller so.
Ich bin mir nicht sicher, wieviel du über Virtualisierung schon weißt, bedenke aber, dass eine Festplatte immer nur einer VM zugewiesen werden kann oder zu dieser durchgereicht werden kann. Du kannst also nicht einen Storage Spaces Pool im Host erstellen und diesen in die VMs durchreichen (du kannst aber eine VHD darauf erstllen und diese zuweisen). Also wenn du eine NAS-VM planst kann das zu Problemen führen.

Da aber Server 2012 eh alle nötigen NAS-Optionen built in mitbringt, brauchst du an sich kein eingeschränktes Linux-billig-kostenlos-NAS-OS verwenden.

@TheCadillacMan
Das Problem besteht auch noch unter Server 2012 R2 (damit habs ich getestet). Hier siehst du bspw. eine Firma, die ebenfalls von dem Problem berichtet:http://www.seffner-schlesier.de/news/wake-on-lan-fuer-windows-server-2012-hyper-v-also-hyper-v-3/
 
glacios schrieb:
ZS: Bei hohem I/O-Load bricht die Sata-Verbindung zusammen -> RAIDs werden zerschossen.

ne wie gesagt ich musste nur die neusten Marvel SATA Treiber installen - davor hatte ich zwar keine zerschossenen Raids aber Fehlermeldungen im Eventlog und ein dubioses Verhalten, das mich zum Neustart des Rechners nötigte. Seither rennt es aber 1a.
Ergänzung ()

glacios schrieb:
Noch etwas: Könntest du mal den aktuellen Status deines Projekts posten. Soll heißen, wie genau sieht jetzt dein Storage-Setup aus?

1x 2way Mirror mit 2 SSDs als Journal + 5GB WBC
1x Parity ohne SSDs mit 4x4TB + 4GB WBC

Ist das richtig so?

fast.

Zunächst habe ich einen Pool aus allen benötigten Platten, 2x250GB SSD, 2x2TB, 4x4TB

darauf

1x 2way Mirror mit 2 SSDs -> zusammen als Storage Tier (Die SSDS nicht als Journal definiert das wäre einfacher Rückschreibecache)+ 10GB WBC

1x Parity mit 4x4TB + 10GB WBC

Das mit der Laufwerksangabe ist relativ. Beim Storage Tier sagt man zb nicht "Nimm die 2 HDDs und die 2 SSDs sondern viel eher mach ein Storage Tier mit 210GB SSD Kapazität und 1,8 TB HDD Tier.

PS. Ich weiß nicht, ob du noch Hyper-V aktiviert hast - wenn ja: Laut meiner Recherche und nach eigenen Tests schrottet Hyper-V WoL. Soll heißen, solange die Hyper-V-Rolle aktiviert ist, funktioniert kein Wake on LAN. Das ist von M$ auch so bestätigt worden (siehe z.B. hier: http://social.technet.microsoft.com/Forums/windowsserver/en-US/67811666-9bc6-4825-88fd-8629bf43debb/wakeonlan-wol-how-to-wake-a-virtual-machine-via-lan?forum=winserverhyperv).

Dies gilt auch für den Hostserver, dieser ist ebenfalls nicht weckbar (http://www.seffner-schlesier.de/news/hyper-v-auch-core-und-wol-wake-on-lan/). WoL ist für einen Heimserver imo aber zwingende Voraussetzung!

WOL hab ich nie genutzt da mein Server durchläuft. Denke vom Basis Rechner kann das schlecht WOL Abschotten da das ja komplett außen vor ist,vor OS etc. Also über die MAC vom physikalischen Adapter (oder gar beiden) sollte man den Rechner immer wecken können.
Ergänzung ()

@Chatt

Ich bin mir ketzt grad nicht mehr sicher, aber durchreichen von ner PCIe Karte wird ohne VD-D schlehct gehn und das kann glaub ich das Board+CPU nicht.

Da braucht es einen XEON mit passendem Board für, leider, das ist das einzige Manko und hät ich auch gern gemacht.
Bezüglich OS. Ein Linux ZFS Setup mit SSDs als Cache dürfte noch fixer sein, aber ich mach eben viele anderen Dinge auf dem Server sodass ich eig schon mehr als nur en reines NAS benötige. Deswegen Windows Server.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
1x 2way Mirror mit 2 SSDs -> zusammen als Storage Tier (Die SSDS nicht als Journal definiert das wäre einfacher Rückschreibecache)+ 10GB WBC

1x Parity mit 4x4TB + 10GB WBC

Das mit der Laufwerksangabe ist relativ. Beim Storage Tier sagt man zb nicht "Nimm die 2 HDDs und die 2 SSDs sondern viel eher mach ein Storage Tier mit 210GB SSD Kapazität und 1,8 TB HDD Tier.
Mich wundert gerade, wie du dann auf 100MB/s++ kommst, wenn du nicht explizit SSDs dem Parity-Volume zuweist. Die SSDs sind ja scheinbar vollständig im Mirror-Volume vertreten. Hab ich da gerade nen Denkfehler drin?!:confused_alt:


Krautmaster schrieb:
Ich bin mir ketzt grad nicht mehr sicher, aber durchreichen von ner PCIe Karte wird ohne VD-D schlehct gehn und das kann glaub ich das Board+CPU nicht.

Da braucht es einen XEON mit passendem Board für, leider, das ist das einzige Manko und hät ich auch gern gemacht.
Was du meinst, ist VT-d und das unterstützt die CPU leider nicht, wie ich auch weiter oben schon Chatt geschrieben habe. Die meisten aktuellen Desktop-CPUs von Intel unterstützten aber ebenfalls VT-d, das wurde bisher immer nur für die K-CPUs gestrichen (warum auch immer). Mit Devils Canyon haben aber aktuelle K-CPUs ebenfalls VT-d bekommen.
Von daher hängt es nur noch von den Board-Herstellern ab, ob sie ihre Desktop-Boards mit VT-d ausstatten (Asrock tut das z.B. zumeist, ASUS häufig nicht).
 
Was wollt ihr mit VT-d unter Hyper-V machen ? Hardware (Storage oder Netzwerk Controller) durchreichen unterstützt Microsoft eh nicht.
 
Klar wird das unterstützt.
Storage (aka Festplatten) kannst du problemlos durchreichen. Netzwerkkarten nicht, da hast du recht.
Bei Grafikkarten bin ich mir nicht so sicher, Stichwort RemoteFX. Da das für den Serverbetrieb sowieso unwichtig ist, bin ich darüber aber auch nicht informiert.

VT-d braucht man aber zum Durchreichen der Festplatten nicht, da hast du Recht. Aber Hyper-V ist sowieso Schrott im Vergleich zu ESXI.
Wenn ich virtualisieren möchte, dann sollte man sowieso auf ESXI setzen, das schränkt einen nicht so stark ein. Von daher ist es schon schade, wenn eine Server-CPU/Board wie das von Avoton/ASrock kein VT-d unterstützt.
 
Naja so schlecht ist Hyper-V jetzt auch nicht es ist halt von Microsoft eher auf größere Firmen ausgelegt und da braucht man sowas wie Hardware durchreichen nicht.

Wir haben zb in der Firma schon länger ESXi schon seit Version 3 aber werden jetzt nächstes Jahr wohl auch alles auf Hyper-V umstellen weil alleine bei den Microsoft Lizenzen etliches an Geld gespart wird.

Aber das Projekt hier ist sehr interessant leider habe ich nicht so viele Möglichkeiten sowas zuhause zu testen. Habe im Moment auch nur einen ESXi auf einem ML310e laufen und dort halt eher viele VMs zum Lernen und Testen und nicht massig Storage für Private Daten :)

Wenn mal größere Platten anstehen will ich das auch mal testen mit Hyper-V und Storage Spaces.
 
Projekt: Heimserver auf HyperV Basis mit Server 2012 R2 Datacenter und Storag...

Tolle Infos hier für mich. Danke. Ich bin von Berufswegen ein Laie und wollte nur meine heimrechner und den htpc vernetzen. Wichtig ist, wichtige Familien Fotos usw langfristig sichern. Möglicherweise noch Überwachungssystem mit Kameras aufbauen.

Edit:
Jemand etwas detailliertere Tipps zum Überwachungssystem? Es muss kein Hochsicherheitssystem sein...etwas als Hobby mit einem Mehrwert und Nutzen.
- welche günstigen Kameras (raspberry Pi Kamera?)
- Software über mein core ws2012r2 oder eine vm?
- Aufnahmen der Kamera regelmäßig vom Server, der sich ab und zu einschaltet, abrufen lassen
- livestreaming bei Bedarf vom Urlaubsort aus
- vielleicht auch eine Notfall sms oder Mail oder Message mit zB einer selbstgebastelten infrarot Schranke oder Ultraschall

...
 
Zuletzt bearbeitet: (neue ideen)
Moin Kraut, ich spiel z.Zt. auch mit dem Board rum, Ziel ist auch StorageSpaces zu nutzen,
glacios hat mich auf den Thread aufmerksam gemacht :daumen:

Hast du an den Intel-Anschlüssen SSDs im Betrieb?
Ich hab massive Probleme damit. Crucial M500 und Intel 530 - werden im Bios erkannt, im Windows-Setup sind sie dann weg. Ausm Windows-Setup heraus Neustart -> im Bios verschwunden. Lässt sich mit 2 Boards reproduzieren. Einmal ist die SSD aufgetaucht, hab 2012 R2 installiert, hat auch einige Boots funktioniert, bis dann auf einmal "inaccessible boot device" kam und die SSD wieder verschwunden ist. Die Crucial war nagelneu, die Intel lief bereits bei mir. Gibt bei Intel einen Thread, da hat jemand das selbe Problem - auch mit dem Board - zusätzlich meldeten sich dort noch andere, bei denen die 530 das Problem ist/war...
 
Ich hatte ja auch mal mit dem Board überlegt und mich hatten genau die Probleme abgeschreckt, die wohl viele haben. Die Sata-Controller scheinen teils einfach nicht stabil zu sein. Im Internet gibts viele Berichte über Probleme beim Einrichten (z.b. hier: http://lime-technology.com/forum/index.php?topic=32647.0).
Meist sind die Probleme aber im Zusammenhang mit den von Marvell kontrollierten SATA-Plätzen, die Intelsteckplätze sollten eigentlich rund laufen.
Unbedingt mal die neuesten Treiber von Intel installieren, falls noch nicht geschehen, Bios-Update auch, falls möglich.

Manchmal wurde im Netz behauptet, es läge an den Sata-Kabeln und das Board sei da sehr anfällig dafür - auch wenn ich das persönlich eher für Humbug halte.
 
glacios schrieb:
Mich wundert gerade, wie du dann auf 100MB/s++ kommst, wenn du nicht explizit SSDs dem Parity-Volume zuweist. Die SSDs sind ja scheinbar vollständig im Mirror-Volume vertreten. Hab ich da gerade nen Denkfehler drin?!:confused_alt:

100 MB/s + haste eig immer wenn er in den Cache schreibt. Wenn du SSDs im Pool hast, nimmt er natürlich auch bei Parity die SSDs für den Cache. Über lange Kopierprozesse bricht beim Parity ja wie schon gesagt der Speed dann ein, eher auf 60-90MB/s (große files) wobei ich nicht genau sagen kann von was das abhängt. Es ist dennoch schneller als Platten only da dann der Cache nur 32 MB groß ist.

@ SATA

wie gesagt, Windows only sind die Marvell SATA Platten auch alle da, aber instabil da dann der MS Treiber genommen wird. Bei mir is erst seit der Installation der Marvell Treiber gut.
 
Zuletzt bearbeitet:
Lässt sich denn der Cache nur für Pools mit SSDs erhöhen? Eigentlich müsste doch über Powershell der WBC unabhängig geregelt werden können.

Was ich mich überhaupt bei dem ganzen Setup frage: Können später noch HDDs/SSDs problemlos hinzugefügt werden, um die Kapazität zu erweitern, oder ist das Setup dann mehr oder weniger fixed?
 
Redest du von den 32MB internem Festplatten RAM? Oder wo soll der Cache ohne SSD herkommen? Windows cached natürlich auch noch einiges im normalen Arbeitsspeicher, aber das ist ja unabhängig von der Storage Pool konfiguration.
 
@SATA:
Treiber helfen hier nicht, da die SSD ja gar nicht mehr zu sehen ist. Weder Windows noch Bios. Und die hängt direkt an den Intel SATA.
Egal ob 6Gbit/s oder 3. Lässt sich mit 3 SSDs und 2 Boards reproduzieren. HDDs funktionieren. Kabel habe ich mittlerweile 8 verschiedene probiert. Und auch der von Asrock angebotene Barebone 1 HE hat das selbe Problem. (dort sind die Kabel ja "dabei")
 
Zurück
Oben