ESXi Home Server

xuckz

Cadet 4th Year
Registriert
Sep. 2010
Beiträge
103
Joar ich bin nun schon seit längerer Zeit am überlegen ob ich es machen soll oder nicht....

Es geht um folgendes, derzeit habe ich 24/7 in Betrieb:

- einen Gaming PC (Games, F@H, Privates, Downloads)
- einen H340 (WHS; File-/ Backupserver, VPN)
- eine Sempron 2200+ Gurke (Linux Spielereien)
- einen vServer (HTTP/SOCKS-Proxy, Mehrere Websites + Datenbanken)

Nun hab ich mir überlegt, da ich auch beruflich mit ESXi zu tun habe mir einen heimzustellen und dort folgende VMs laufen zu lassen:

- Linux (spielereien, test, usw)
- Linux (webserver, Proxy)
- Linux (Fileserver)
- Linux (F@H)
- Windows 7 (Zugriff von ausserhalb für Privates / Downloads / alles weitere)

-> Dafür würde ich dann den Sempron und den vServer abschaffen und den H340 nur noch einmal wöchentlich für ein Full Backup des ESXi Servers / Gaming PCs einschalten.

-> Der Gaming PC müsste auch nicht mehr 24/7 rödeln da ich dann auf das virtuelle Win7 von ausserhalb zugreifen könnte um private dinge zu erledigen.


Erstmal: Da ich mir noch recht unschlüssig bin, was haltet ihr von der Idee?

Zweitens: Wenn ich mir das zu Weihnachten dann gönne, was würdet ihr mir an Hardware raten?

Ich dachte da an einen potenten 6-kerner (oder mehr?) 8GB Ram (oder mehr?) 350W Netzteil (oder mehr?) und ein Mainboard mit onboard Grafik.

Das ganze sollte natürlich recht billig sein ;P
(Billig im Sinne von gutes P/L)


Gibt es irgendwie Alternativen? Keine Ahnung xD bin immer für neues offen.


mfg
xuckz
 
Generell finde ich die Idee gut! :)
Denke mal, dass ein 6-Kerner ausreichen sollte, wobei ich beim RAM eher zu 12-16 GB tendiere, da 5 VMs drauf laufen sollen und jeder min. 2GB zur verfügung stehen sollten. Beim NT bin ich mir nicht sicher, aber nen 350W sollte da reichen.

Mfg Kae
 
Du musst aufpassen, dass alle Hardwareteile (speziell HDD-Controller und Netzwerkkarten) vom ESXi unterstützt werden. Ich wollte auf meinem ASUS M3N WS auch einmal den ESXi4.x installieren, was aber an den Netzwerkkarten scheiterte. Am Besten funktioniert es mit Intel Chipsätzen und Netzwerkkarten (mein alter P4 mit i875P und Intel 1000Pro läuft super unter ESXi3.x.
 
@ xuckz

Im Sinne von Stromkosten würde es sicherlich Sinn machen. Nur erschließen sich mir viele Dinge nicht. Linux zum spielen und arbeiten ist ja ok genauso wie Win 7. Aber : warum läßt Du die Datenbanken und Websiten nicht auf dem WHS laufen ? genau dafür ist er doch da. Und als Fileserver nutzt Du ihn ja eh schon. Nutze den WHS doch intensiver (wenn er zu langsam ist, rüste eher den auf als einen Rechner 24/7 laufen zu lassen).

Dann würde ich hingehen und den Rechner nur noch zum arbeiten/spielen laufen lassen. Spart Strom :)

Greets
 
Der Flaschenhals bei dem Vorhaben sind IMHO die Festplatten bzw. der Controller. Du müßtest testen, ob mehrere VMs rebungslos laufen. Speicher und CPU dürften heutzutage kein Problem darstellen.
 
Bei mir zuhause hab ich es ähnlich am laufen nur bei mir rennt nen Hyper-V mit einmal W2K8R2 der dann Exchange/AD/DC/DNS/DHCP bereitstellt und noch ne Win7 Maschine die dann als "Remote Server" läuft ... Also ne doofe Sache isses auf keinen fall :D

Beim ESXi musst halt aufpassen welche HW - zwecks HD Controller, NICs usw. von daher rate ich da eher zum Citrix Xen oder aber ebenfalls zu nem Hyper-V ;) Wobei da wohl die günstigere lösung die von Citrix ist.

Da du schon einige VMs laufen lassen willst: plane mehr RAM ein ... da wirste mit 8GB nicht weit kommen ... ich hab die beiden oben genannten am laufen mit 8GB und der RAm is voll (ok ... der eigentliche Server (Exchange usw.) zieht halt schon mächtig ;)) aber ich denke da wird es bei dir auch relativ knapp.
 
Soviele Antworten schon... fein :)

Danke erstmal, also ja das mit dem WHS und aufrüsten is so ne Sache, der WHS is ein H340 mit Atom Prozessor und 2GB Ram, ich fürchte viel Sinn macht das net den aufzurüsten.

Dazu muss ich sagen das ich das ganze Website gedöns damals unbedingt unter Linux laufen lassen wollte und da hat sich der vServer angeboten.

Das mit der Hardware hat ich noch gar nicht bedacht (puh aber am offensichtlichen Denke ich gerne mal vorbei :)

Aber gut zu hören das hier noch mehrere ähnliche Konstruktionen daheim stehen habe, dachte schon das wär bisschen übertrieben :D

Also danke schonmal ich werd gleich mal nach kompatibler Hardware schauen...


PS: Das mit dem Intel ist so ein Ding (eigentlich wollte ich nen AMD nehmen) aber jetzt wo ich so drüber nachdenke hab ich auch noch nie ESXi auf AMD laufen lassen/bzw gesehen.... Muss ich mal recherchieren

PS2: Das mit der Netzwerkkarte ist auch ein guter Stichpunkt danke. Das muss ich mir auch nochmal genauer anschaun.
 
Kerne sind nicht ganz so entscheidend, obwohl es da min. schon ein Quad-Core sein sollte.
Kann meinem Vorredner nur beipflichten, RAM ist entscheidend. Je mehr RAM umso besser.
Wobei wir er auch schon gesagt hat, in deinem Fall 12-16GB reichen sollte. Auf 8 würde ich nicht mehr gehen.

Ein gutes Speichersystem ist von Vorteil, und wirkt sich merklich auf die Performance der VM's aus.
Evtl. ne SSD wäre zu empfehlen, oder eben ein RAID mit passendem Controller für den ESXi
 
Ich habe mein Serverprojekt dann umgestellt. Ich habe ähnlich wie o$$!ram nun folgendes:

Win2k8R2 Enterprise (Athlon X4 mit 8GB RAM)
mit Hyper-V
- Guest-OS 1: Win2k3 Std. x64 mit Exchange 2007
- Guest-OS 2: Win2k3 Std. x86 mit WSUS und Virenscanner-Management

Das ganze läuft auf vielen Platten in RAID1 und RAID5-Verbunden.
 
Ich mach das per Virtualisierung.

Es gibt noch XEN Server und KVM. Ich bin nicht Fan von ESXi.

Ich habe mal ein bisschen gebencht (ja ok das waren keine Profi-Benches) und binn zum Schluss gekommen, das auf meiner Home-PC Hardware KVM erheblich performanter war als ESXi.

Das liegt laut Berichten aus Foren daran, dass ESXi nur auf Server-Hardware und deren Chipsätze (gerade solche mit IOMMU) optimiert wird.

KVM ist laut Benchmarks (google -> ESXi vs KVM) recht schnell, oft gar schneller.
Mit den richtigen Tools lässt es sich sogar einigermassen akzeptabel verwalten.

XEN Server wiederum hat den grossen Vorteil, dass es IOMMU richtig unterstüzt.
Das heisst, dass du z.B deinen VM's die echte Grafikkarte und andere PCI / PCIe Geräte zur Verfügung stellen kannst.

Was mich an ESXi auch sehr gestört hat: es verwendet extrem viele exotische Dinge, wie ein eigenes Dateisystem und Treiber.

Es war eine wochenlange Arbeit ESXi auf meiner Hardware zum laufen zu bringen.
Dafür lief sogar ein alter SCSI Controller.

Unter Linux ist das total einfach und das Treiberangebot gigantisch.
Ich verwenden die Distribution "Proxmox" (Debian basis) welche schon fast fertig eingerichtet ist.

Deren Vorteil: sie beitet ein simples, aber gutes Web-Management.
Mit wenigen Klicks ist sie installiert und die Leistung ist sehr gut.

KVM hat so seine Vorteile das es etwas anders aufgebaut ist.

Die Hardware meines Servers:

Athlon X4 630
8 GB DDR2 PC800
Foxconn A7DA-S
3Ware 9690SA-4I Raid Controller
HD 3200
Intel Dual Gbit Server NIC (PCIe x4)


So löse ich das:

File-Server: dazu laufen keine VMs, das macht der Host zuverlässig und schnell
Wenn ich nun was anderes benötige, starte ich einfach ne neue VM.

Jedoch hat mich die Performance beim Einsatz als COD4 Server etwas enttäuscht.

Windows Hyper-V kann man gleich vergessen wegen den enormen kosten.
Ausser Hyper-V Standalone, das ist wie ESXi oder Xen gratis und eigenständig.

Ich habe auch dieses angetestet.
Leider wollten die Management-Tools nicht auf meinem Win 7 Ultimate laufen. -.-
Ausserdem laufen Linux-VMs nur bescheiden und dürfen nur eingeschränkte HW haben.

Auch sonst, ich denke die Linux-Lösungen sind ein bisschen besser.

Der Vorteil der Linux Lösungen (KVM -> Proxmox oder what ever) ist, dass man sich auch ne Container-Virtualisierung (isolierte instanzen eines OS) nutzen kann. Z.B Virtuozzo

Und das ist dann meist das non-plus Ultra

Hardware-Empfehlungen:

HDDs:

Wenn du mehrere VMs auf der selben HDD hast, dann muss die verdammt schnell sein.
Also entweder du kaufst teure SSDs / 15k HDDs oder ganz viele normale.
Das musst du dann einfach anschliessen können...

Fürs Host-OS selber langt ein USB Stick oder kleiner Flash-Speicher aus.

Netzwerkkarten:

ESXi ist heikel und oft laufen nur wenige Netzwerkkarten.
Wenn sie einen Intel oder Broadcom Chipsatz hat, ists gut.
Die oft verbauten Onboard NICs von RealTek laufen nicht immer.

Bei Linux spielt es kaum eine Rolle.

Grafikkarte:

unnötig, Onboard oder keine (bzw. nach dem Aufsetzen ausbauen)

RAM:

Je mehr desto besser. Bei den aktuellen Preisen würde man mit 8 GB gut fahren.
Kauf 4GB Module, dann hast du freie Ram-Slots.

CPU:

Auch hier, mehr Kerne = mehr Leistung. Die Core-Zahl ist das A und O.
Mit nem Quadcore fährt man aber schon relativ gut. Der erfüllt deine Anforderungen.

Aber wenn du Geld hast, 6 Kernen schaden nie.

Mainboard / Chipsatz:

Hier wird schwierig.
ESXi tut sich teils immer noch schwer. Onboard Komponenten wie FireWire, Sound etc. laufen selten / nie. Machen aber auch keinen Sinn.

Ich würde ein Board mit vielen PCIe x16er Slots kaufen.
Es müssen ja nicht unbedingt auch soviele Lanes verfügbar sein, aber lange Slots.

Raid-Controller, NICs etc. finden immer gerne Platz.

Wenn es ein nicht total überteuertes Board mit mehreren NICs gibt, ist das oft auch billiger als diese nachzurüsten.

Gerade weil noch nen Webserver lafuen soll.


Gehäuse:

Hauptsache gross und gut / leise gekühlt.

Raid-Controller:

Unter ESXi tut der schon sogut wie Not. Weil Onboard-RAID taugt nix (ausser wenn Raid 0 / 1 / 10). Unter Linux kann man sich ein gutes Software-Raid basteln, und dies dann al VM-Speicher und / oder als Share benutzen.

Gute Raid-Controller kosten ne grosse Menge Geld und haben 512 MB Cache-Speicher.
Allerdings ist bei Verwendung des Cache die BBU (Backup Battey Unit) dringend zu empfehlen.
 
Zuletzt bearbeitet:
Also entweder ich kann nicht richtig lesen oder ich verstehe nicht wozu das ganze sinnvoll sein soll. Wieso lasst ihr nicht gleich alles unter einem OS laufen? Wieso startet ihr so viele BS und lasst auf jedem etwas anderes laufen?

Also der einzige "Vorteil" den ich sehen kann ist das man eine gewisse trennung der unterschiedlichen Programme hat und dadurch eine theoretische Sicherheit bekommt.

Als viel größeren Nachteil sehe ich aber das man eine wesentlich größere Grundauslastung bekommt und die Hardware wesentlich potenter sein muss. Sprich Ram, CPU Kerne etc...

Wäre super wenn mich da mal jemand aufklären könnte, denn sooooo tief stecke ich in VMs nicht drin. Und bei mir läuft Fedora 12 mit AMAHI und da ist alles drin. Torrent client, Webserver, Mailserver, Media Server, File Server etc
Außerdem könnt ich unter Fedora zusätzlich noch Game Server laufen lassen wenn ich denn viel spielen würde...

P.S.: Und natürlich alles über Remote erreichbar, über VPN oder aus dem Lokalen Netz. Und sonst über Webinterface.
Ich kann sogar über meine integrierte Page meine Musik in die Firma streamen und brauch die nicht mehr doppelt haben. Und alles läuft auf einem Gerät mit 2 Kernen und 2GHz Takt pro Kern mit 2gig Ram. Also warum sollte man alles getrennt über VMs laufen lassen?
Die Frage ist nicht als Kritik zu verstehen! Sondern ernst gemeint und dient zu meinem Verständniss!
 
Zuletzt bearbeitet:
Naja ich hätte das gerne getrennt laufen weil:
- Das Testsystem muss eh abgekoppelt werden
- Web und Fileserver will ich auch getrennt laufen lassen, da der Webserver recht wichtig ist und wenn da was ist, grad nen Snapshot laden oder VM hochspielen und weiter gehts (ohne den Rest in Mitleidenschaft zu ziehen)
- Win 7 brauch ich zusätzlich also muss da ach ne VM her


Hmm Hyper-V kann ich schonmal vergessen, da hatten wir in unserer Firma schonmal versucht Linux Systeme laufen zu lassen (und ein Webserver ist für mich ein Linux Server ;) ... es hat zwar funktioniert irgendwie, aber schön ist es nicht.

KVM - ESXi
Ja das Problem ist das ich einfach extremst faul bin ^^... Mit ESXi kenn ich mich (ok von der Hardware Seite nicht so) recht gut aus da ich schon mehrfach welche eingerichtet habe. Bei KVM oä müsste ich mich wieder extrems reinfuchsen....


Danke schonmal für die Antworten, um einen potenten RAID Controller mit schnellen Platten werd ich dann wohl nicht herumkommen.


mfg
xuckz
 
@TE:

Du wirst die Finger blutig tippen und teils halb verblinden (vor lauter Bildschirmstungen) weil es enorm lange dauert bis man ESXi so hingebogen hat, dass es läuft.

Ich bin ja nicht gerade dumm, und hatte trotztem Wochenlange jeden Tag ein paar Stunden gesucht etc. bis das Teil lief.

Eigentlich lief die HW gut, die Performance (gerade die IO Leistung) war bescheiden.
ESX(i) ist ne Eigenentwicklung von vmWare, und es ist schon ne Heidenarbeit das auf Server-HW anzupassen.

Wie erwähnt läuft KVM unter Linux, das passt schön auf "normale" Hardware.
Auch Benchmarks (bitte nicht hauen, es war PC-Mark 2005 & Sisoftware Sandra Benches) bewiesen mir, dass KVM doch schön schneller war.

Das bei der selben Hardware und selben Konfig.

Und die Arbeit bis Proxmox Linux läuft ist min. 100 mal geringer als die Treiber für ESXi zu suchen und korrekt zu integrieren etc.

Du warst bis jetzt wohl Anwender, also hast eifnach über das geniale vSphere den Server verwaltet.

Da verstehe ich schon, wieso du ESXi magst.
Aber alles nötig hat man bei Proxmox Linux übers WebGui.
Und man muss sich auch nicht registrieren (wie bei vmWare) und stundenlange suchen etc.

Aber für grosse Unternehmen kommt Proxmox (noch) nicht in Frage.
Für deine Zwecke ists aber mehr als genug.
 
Hmm.... das klint fast so als müsst ich mir doch mal KVM anschaun....

Werds mal auf der Linux Kiste teste, hab ja noch bis Weihnachten Zeit (theoretisch, aber wie ich mich kenn hol ichs mir doch schon vorher ;)


Danke für die Warnung und den Tip

mfg
 
Genau vor dieser Frage stand ich vor einiger Zeit ebenfalls. Hier mal meine Erfahrungen:

ESX: Das Verwaltungstool für den ESX ist echt gut.
Aber nicht unterstützte Hardware einzurichten ist eine heiden Fummelei und die Performance für so ziemlich alle Szenarien im Heimbereich zu schlecht.
ESX spiel seine Stärken erst in großen Installation aus, bei dem z.B. 100te Clients auf einen Server zugreifen müssen und man solche Features wie Load Balancing oder Failover braucht.

Xen: Nach meiner Erfahrung die Performancemäßig schnellste Lösung. Gerade bei paravirtualisierten Gästen.
Die aber Einzurichten, ist oft ein Kampf, da z.B. Installation von ISO nicht unterstützt wird und die Distri muss das halt unterstützten. Voll Virtualisierte Gäste dagegen sind einfach einzurichten und damit ist Xen noch minimal schneller als KVM.
Leider gibt es aber für kleine Installation kein richtig gutes Remote Verwaltungstool bzw. die Konsole ist meist besser.
Ein weiteres Problem ist, dass kaum eine Distri den Xen Server mehr von Haus aus mitbringt und es immer nen haufen Handabreit ist, den überhaupt zum Laufen zu bekommen.
Ausnahme ist der Citrix Xen Server, ist zwar kein Open Source aber kostenlos. Sehr einfach zu Installieren und das Verwaltungstool spielt in der gleichen Liga, wie das für den ESX Server.

KVM: Minimal langsamer als Xen, dabei aber VIEL einfacher zu installieren und die Gäste sind auch ruckzuck eingerichtet. Bei den Verwaltungstools siehts aber ähnlich mau wie bei Xen aus, auch hier ist die Konsole meist besser ;)
Ausnahme ist Proxmox, ich fand die Weboberfläche einfach zu bedienen. Problem mit der Distri ist aber, dass Stromsparmechanismen nicht out-of-the-Box funktionieren. Etwas Handarbeit ist also auch hier angesagt.

Hyper-V: Ähnlich schnell wie KVM und Installation ist Windows-typisch natürlich erstmal einfach. Linux funktioniert ebenfalls inzwischen gut, da die Linux Treiber bei neuen Kernel Versionen integriert sind.
Problematisch ist aber die Remote Verwaltung. Die Kostenlosen Tools erwarten erstmal, das Server und Remote Client sich in einer Domäne befinden, sonst wird man alle Naselang nach Benutzername und Passwort gefragt. Selbstverständlich gibts auch kein Tool-für-alles, z.B. um virtuelle Server einzurichten und zu starten braucht man ein Tool und dann noch eins wenn man die Auslastung prüfen will.
Besser ist erst ein kostenpflichtiges Tool von Microsoft, da geht dann aber ohne Domäne gar nichts mehr.

Fazit: Da du es sehr einfach haben möchtest, würd ich mir mal den Citrix Xen Server anschauen. Voll Virtualisierste Gäste sind, wie gesagt, unglaublich einfach einzurichten und für Paravirtualisierte Gäste findest du im Netz Templates, die du einfach nur importieren brauchst. Weiterhin sind die Treiber für Windows Gäste von Citrix wesentlich besser, als die Open Source Treiber von Xen oder KVM.

Zweite Lösung wäre Proxmox. Wie gesagt auch super einfach einzurichten und das Web-Front-End ist gut zu bedienen. Ob die Stromsparmechanismen aber gehen, musste ausprobieren. Vieleicht wurd es ja inzwischen eingebaut. Ansonsten baut die Distri auf Debian auf, es um diese Features zu Erweitern ist daher nicht schwer.

Dritte Lösung halt einfach KVM auf Linux schmeißen. Ist sehr einfach und Gäste lassen sich lokal gut über Virt-manager einrichten und über Konsole mit virsh starten, stoppen etc. ...

Ich hab mich übrigens für die Dritte Lösung entschieden :). Benutze den Server halt mit XBMC als HTPC und das geht mit den beiden anderen Varianten nicht.
 
Zuletzt bearbeitet:
Proxmox dürfte noch simpler sein als Xen.

Aber ich unterstütze die Meinung voll und ganz, dass Xen technisch besser ist.
Xen ist auch der einzige Hypervisor der die Grafikkarte an die Gäste durchreichen kann.

Aber ich zweifle schon fast daran, dass es simpler ist als Proxmox.
Proxmox ist einfach out of the box schon total eingerichtet.

Das kann man auch als nicht Linux-Kenner installieren etc.

Wobei, Xen ist das einzige, was ich mir nicht angesehen habe :(
 
Ja Proxmox ist sehr einfach, aber manchmal halt zu einfach. Mit der Weboberfläche kann man nicht alle Optionen nutzen, die KVM anbietet.
Hin und wieder muss man daher per Konsole drauf, um z.B. Einstellungen bei den Gästen zu aktivieren, die von Proxmox nicht vorgesehen sind.

Beim Cirtrix Xen dagegen, kann der komplette Server über ein Remoteverwaltungstool, das Xen Center, verwaltet werden. Das Tool ist dadurch sehr viel Umfangreicher und zugegeben nicht so einfach, wie die Proxmox Weboberfläche.

Aber vom Bedienkonzept erinnert das Tool stark an das vom ESXi und der Thread Ersteller meinte ja, dass er gut damit klar gekommen ist. Deswegen habe ich die Lösung halt auf Platz eins gestellt. ;)
 
Ich würde an der Idee mit dem ESX festhalten. Die Version 4 unterstützt eine Menge Consumer Hardware (einen richtigen ESXi (mit dem i) gibt es nicht mehr seit 4.0). Ich habe vor einem Jahr ein ähnliches Projekt gestartet und bin damit mehr als zufrieden (http://www.contes.eu/?p=163).

Ich würde dir ein Mainboard aus den gängigen Whiteboard Listen empfehlen. Für deine Zwecke reichen 8 GB RAM locker aus. Du wirst merken, dass viele Linux VMs mit sehr wenig Speicher (512MB) auskommen. Gerade so Dinge wie Proxy, Web- und Fileserver. Ich habe 3-5 aktive VMs und komme mit einem Dualcore ganz gut über die Runden. Empfehlen würde ich dennoch einen Quad.
 
@DonConto:

Doch ESXi ist weiterhin ein "Image" von ESX welches mann dann anpassen muss.

Die Performance und der Aufwand stimmt einfach nicht überein.
ESXi ist entweder mit nem Server / Workstation mitgeliefert oder man bastelt lange drumm herum.

Nur weil die HW auf der Whitelist ist, heisst das noch nicht, dass die Treiber schon drinn sind.
Oft muss selber Hand angelegt werden.

Und das ist mal alles andere als einfach.
Das ist wie mit ner Atombombe Fliegen weg zu klatschen wenns für zu Hause ist.

Firmen kaufen immer Workstations welche bereit sind für ESX(i). So spart man schon viel Zeit und alles läuft paletti.

In Unternehmen ist es auf Grund von Clustering und der tollen vSphere Software das non plus ultra.

Blöd nur, das einige, schöne Funktionen nur für teueres Geld zu haben sind (die sind aber für daheim nicht nötig).

Vorallem stimmt die I/O Performance bei ESXi iwie nicht.
Per RDP war es einigermassen zu bedienen (Win Server 2008R2 x64 Data Center angetestet).
Aber dennoch wars teils "laggy" und verzögert.

Proxmox war gaaaaanz anders.
Aber theoretisch Benches zeigten nur kleine Vorteile von KVM.

Xen wäre dann immer noch die schönere Variante.
Vorallem kann man unkritische Dienste (File-Server) gleich vom Host-OS erledigen lassen.

Das ist kein Problem und dank direktem HDD-Zugriff kein Problem.
 
Da habe ich ganz andere Erfahrungen gemacht. Eigentlich kann ich keinen deiner Punkte nachvollziehen.

Aufwand: Mainboard in der Whitelist checken und wenn drin DVD mit ESX einlegen und installieren. Danach mit dem vSpere Client die Konfiguration anpassen (Netzwerk und Storage) und die VMs anlegen. Fertig. Ich habe jetzt schon 4 ESXi auf Standard PC Hardware installiert und es war nie mehr als 30-60 Minuten Aufwand bis die erste VM lief.

Ob der Treiber drin ist oder nicht, steht in der Whitelist. Wichtig sind da nur die SATA Anschlüsse weil man sonst einen teuren Controller kaufen muss. Als NIC nimmt man ne 20 Euro Intel Karte mit PCI oder PCIx1 Anschluß. Mehr braucht man nicht.

I/O Performance ist relativ. Kommt halt drauf an wieviel VMs auf deiner Platte rödeln. Ich hab auch schon 600 Mbit auf meinen Fileserver geschrieben - für mich mehr als ausreichend.

Versuch mal nen anderen Display Treiber für 2008R2:
http://kb.vmware.com/selfservice/mi...nguage=en_US&cmd=displayKC&externalId=1011709
 
Zurück
Oben