Kleines Office virtualisieren / Entscheidungshilfe

Reepo

Commander
Registriert
Nov. 2010
Beiträge
2.527
Mahlzeit,

ich hab hier einen kleinen Single-Socket Server mit einem Xeon 3430, 6x2GB Ram (startet leider nur mit 3x2, keine Ahnung wieso) und nem LSI Raidcontroller zu einem Raid5 aus 4x 500GB Platten. Ich hab jetzt Esxi drauf und diverse virtuelle Maschinen (XP Pro, Ubuntu) die ich mittels RDP von einem ThinClient anspreche. Das alles erstmal zu testzwecken. Schlussendlich wird alles auf Win7 oder Win10 angehoben.

Ziel ist es ca. 12 Arbeitsplätze zu virtualisieren. Wobei nicht alle den gleichen Workload haben, eher gedrittelt von leicht (Office) bis schwer (GFX-ler und VideoEditing, aber das noch im Rahmen - Präsentationen bauen, Bilder zuschneiden und leicht editieren etc.). Und vier Vms müssen noch SteamOS verpacken, da es vier begeisterte Zocker gibt, keine HighEndGames, sondern so Sachen wir BroForce! Daher möchte ich die Performance etwas hochziehen - -


#1 - - die SATA-Platten sind schon was älter, 7200.11 von Saegate. Wäre es sinnvoll das Raid aufzulösen und die VMs auf einer SSD laufen zu lassen, sagen wir einer 128/256GB und das Raid noch als Speicher anzuhängen. Die SSD würd ich dann regelmässig sichern oder Raid1 spiegeln (wohl eher sichern, nachher spiegel ich mir einen Fehler auf -.-). Dürfte auf jedenfall schneller wieder in Betrieb gehen, als n Raid5 aufzubauen. Das einzige was mich davon abhält die RaidBay zu entfernen ist der Speicherplatz. Ich tausch bei Zeiten die 500er gegen 1-2TB Platten.


#2 - - Passthrough einer Graka - leider hat das Board keinen pcie 16x Slot, sondern nur 8x. Ist es sinnvoll noch ein oder zwei Grakas nachzusetzen und diese durchzureichen um GPU-Berechnung zu unterstützen?


#3 - - Der RaidController selber ist auch nur ein Software seitiger. Es sind keine Chips oder Rams drauf, ich vermute es daher. Vielleicht ist es sinnvoll den RaidController zu entfernen und den mini-SAS Stecker direkt auf das Board zu setzen?
Obwohl die RaidConfig von LSI leichter ist als das von FSC -.-

Andere Ideen und Vorschläge sind gerne willkommen.
Ich kann mich nämlich nicht entscheiden. -.-

Vielen Dank und Mfg!
 
Läuft das schon so ähnlich?

Also eine Grafikkarte durchreichen wird schwierig bzw. ist eher Glückssache.
Poste mal die genauen Hardwaredaten.
 
Mit 12GB Ram (sofern denn alle zum funktionieren gebracht werden können) willst du 12 Arbeitsplätze virtualisieren? Das sieht in meinen Augen schonmal sehr eng aus. Selbst wenn jede VM nur 1GB bekommen soll, bleibt am Ende nichts mehr für den Host über ;)

Weiterhin sind 12 Maschinen auf vier Spindeln (sprich, Platten) auch ein bisschen eng bemessen. Das dürfte sich noch verschlimmern, wenn du mit einem Raid5/6 arbeitest, ohne einen gescheiten Raid Controller mit Pufferspeicher zu nutzen (Stichwort Write Penalty).

Hast du das GPU Passthrough schon getestet? Da müssen nämlich ne Menge Einzelteile von deinem System mitspielen. Sofern der Serverhersteller UND vmware für deine Kombination keine Unterstützung für das Passthrough anbieten, solltest du gründlich testen, bevor du damit planst.

Und jetzt sehe ich gerade, dass das auch nur ein Vierkerner ist... könnte auch knapp werden, wenn alle VMs gleichzeitig genutzt werden.

Insgesamt kommt es voll und ganz auf die zu erwartende Last bei allen beteiligten Systemen (CPU, RAM, IO) an. Vielleicht solltest du über ein bisschen potentere Hardware nachdenken. Ich würde aus dem Bauch heraus wenigstens 24-32GB Ram einbauen und auf wenigstens acht Kerne (echte Kerne) setzen. Bei den Platten wäre etwas auf SSD Basis für die OS Images vielleicht eine Möglichkeit. Die Nutzdaten können dann auf einem Plattenarray abgelegt werden, das nicht ganz so flink sein muss.

Das wäre meine Sicht der Dinge.

PS: Das mit dem Speicher kann eine Einstellung im BIOS sein. Serversysteme erlauben gerne das "Spiegeln" des Speichers, um Hardwareschäden etc automatisch ausgleichen zu können.
 
Bisher hatte ich Glück mit dem Pass Through. Ich mag Nvidia nicht (persönliche Einstellung) aber über eine PCI-Karte (ja, alter PCI Anschluss) hat der Host nach einem Start nicht gemeckert. Zu der Performance kann ich nichts sagen, ist eine alte PCI-Karte, ist eher zum Testen. Das System läuft derzeit so mit 4 VMs.


Ja, mit dem RAM wirds knapp. Aber ich will da auch nicht großartig Geld investieren, da das Teil+ThinClients eh schon aus meinem Bestand und dann als Spende weg geht (dritte Welt). Warum der nicht mit Vollbestückung startet - keine Ahnung. Bei einem normalen Board würd ich die Voltage anheben und Timings anpassen, aber das gibt das FSC-Bios nicht her. Werd vielleicht mal normalen RAM aus meinem Rechner ausprobieren.

Von den 12 VMs wird die Hälfte eh nur ein Xubuntu mit wenig Ressourcen bekommen, da auf diesen Systemen meist nur leichte Officearbeit gemacht wird. Keine 3D Anwendung. Und die Laufen auch wie Schmitzkatze. Auch ein abgespecktes XP hat keine Probleme. Kein Ruckeln oder ziehen. DesktopFeeling. Win7 und/oder 10 muss ich noch ausprobieren.

Gut, werd ich mal eine SSD für die VMs einbauen und schauen wie es dann läuft. Sobald 3D Anwendungen starten (Ubuntu+Steam=BigPictureMode, SteamOS stellt sich ja tot bei VM-Install) wirds etwas zäh. Dann wird die interne ServerGraka angesprochen und die war nie zum Gamen vorgesehen. ^^ Also, Passthrough für max. vier Maschinen nach der Arbeit.

Ist Passthrough vorher immer gefrickel gewesen? Also es ging leicht von der Hand...oder einfach nur Luck und die Probleme kommen noch.
 
Passthrough war ziemlich viel Glück! Die c't hat da mal Tests gemacht und es mit einer AMD-Karte geschafft, mit einer anderen AMD nicht. Mit einer NVidia gar nicht (kann aber trotzdem funktionieren).
Und es muss natürlich von Board, vom Treiber und vom VM-Host unterstützt werden, was bei dir ja der Fall ist.
 
Zuletzt bearbeitet:
12 VMs gleichzeitig?! dafür reicht die Hardware niemals aus..

schon mal darüber nachgedacht einen kostengünstigen Windows MultiPoint Server (Terminal-Sever) zu nutzen?
 
Zurück
Oben