Hardware für Virtualisierung von 11 Maschinen

Dann ist noch die Frage welches Budget du dafür hast und ob Lautstärke und Stromverbrauch irgendeine Rolle spielen. Hier würde sich nämlich ein gebrauchter Server anbieten.
https://www.servershop24.de/a-119434/

Du hast damit eine Plattform mit der man sowas gut lernen kann denn eine produktive Umgebung würde auch auf so einer Kiste laufen.
Aufrüsten müsstest du dann nur zwei SSDs und RAM nach Bedarf.
 
progr@mmer schrieb:
ob meine Konfiguration passt.

Bei der CPU und 128GB RAM bist ganz gut aufgestellt.

Ich habe ein i7-6850k mit 64GB RAM und virtualisiere da auch bis zu 10 VMs gleichzeitig, wenn mir mal danach ist. :D
Und es läuft hervorragend.

Ich würde jedoch überlegen, aufgrund der Preise, ob 2TB SSDs nicht besser wären.
 
@Masamune2 Budget < 4.000€. So leise wie möglich und so laut wie nötig. Stromverbrauch egal.
Aber ich will eine Workstation, da ich ihn auch als normalen Rechner verwenden werde.
Ergänzung ()

leipziger1979 schrieb:
Ich habe ein i7-6850k mit 64GB RAM und virtualisiere da auch bis zu 10 VMs gleichzeitig, wenn mir mal danach ist. :D
Und es läuft hervorragend.
Ok. Das bedeutet 3950x würde auch locker reichen.
Ergänzung ()

Worüber ich mir noch Sorgen mache ist die SSD.
Packt die SSD 11 Maschinen?
 
Zuletzt bearbeitet:
Da es ja nur Spielwiese ist erzeugen auch die angedachten Systeme kaum Last.
Von daher würde auch ein 3950x wohl locker reichen.
 
Ok. Das bedeutet 3950x würde auch locker reichen.
Wie oft noch, das wissen wir nicht, was brauchen deine VMs denn? Du kannst 11 VMs installieren in denen nichts läuft dann reicht jeder Quad Core oder 11 VMs mit zwei Datenbankservern, zwei Applikationsservern die permanent irgendwelche Auswertungen machen, Fileserver auf den Daten geschoben werden und noch Terminalserver auf denen jemand remote arbeitet.
Es gibt hier keine richtige Antwort, alles hängt davon ab was du damit machst.

Eine kleine Workstation mit 8-Kern CPU, 64GB RAM und zwei 1TB SSD bekommst du für etwa 1500 EUR:
1580942858931.png


Größer gehts ab da eigentlich immer:
1580942984148.png

3000 EUR

Die Anzahl fehlt hier leider, SSDs und RAM sind natürlich mehrfach vorhanden.
 
  • Gefällt mir
Reaktionen: Bob.Dig
Naja, n paar Kerne zum Verteilen an VMs sind schon ganz nett, da würde ich schon was großes nehmen.
 
Nichts, ich hab nur den Konfigurator genommen weils schneller ging damit alles zusammen zu klicken.
 
Ich würde die benötigte Bandbreite messen, also die Hardware entsprechend der benötigten Ressourcen plus Reserve ausrechnen und dementsprechend nach Hardware aus der Serversparte Ausschau halten und erst mal ein Mainboard suchen, welches die Anforderungen im Desktop-Bereich möglichst kompromisslos erfüllt.
Von diesem Mainboard hängt dann viel ab, da sollte man sich drauf fokussieren.
Die Frage nach der Leistungsaufnahme und dem geeigneten Netzteil ist anschließend einfach.
 
Danke an alle. Werde nun versuchen einen "idealen" Rechner zusammenstellen. Und meine mindestens 11 Maschinen virtualisieren.

Wahrscheinlich wirds der Threadripper (falls es mal 20 oder 30 Maschinen werden) mit 128GB RAM und ein Mainboard mit IPMI.

Domain Controller 1: 2 Cores + 4GB RAM
Domain Controller 2: 2 Cores + 4GB RAM
Applikationsserver 1: 4 Cores + 16GB RAM
Applikationsserver 2: 4 Cores + 16GB RAM
Datenbankserver 1: 4 Cores + 16GB RAM
Datenbankserver 2: 4 Cores + 16GB RAM
Client 1 - 5 jeweils: 1 Cores + 4GB RAM

Gesamt: 25 Cores + 92GB RAM

Bleiben für den Host 7 Cores und 36GB RAM.

Das sollte reichen 😉

Die einzige Sorge die ich noch habe ist die SSD. Hier habe ich keine Antwort bekommen, ob es reicht oder nicht.
 
Bleiben für den Host 7 Cores und 36GB RAM.
7 Kerne von was? Dir ist schon klar das man bei der Virtualisierung mehr virtuelle Kerne den VMs zuweist als man physikalische hat oder? Einfach addieren ist hier sinnfrei.

Zwei Domain Controller kannst du machen, ist zum kennen lernen ok, in der Praxis allerdings sinnfrei wenn beide auf der gleichen Hardware laufen würden. Das gilt natürlich auch für die anderen Systeme falls der zweite jeweils zur Redundanz da sein soll. Wie willst du den Cluster der Datenbankserver bauen? Welcher Server kommt überhaupt zum Einsatz? Wenns ein MSSQL wird gibt es verschiedene Optionen diesen zu clustern.

Die einzige Sorge die ich noch habe ist die SSD. Hier habe ich keine Antwort bekommen, ob es reicht oder nicht.
Auf die Gefahr wie eine hängende Schallplatte zu klingen: Können wir nicht wissen. Wenn du keine Daten in die Systeme packst musst du eigentlich nur die Serverinstallationen zusammen rechnen und etwas Puffer drauf schlagen. Da würden 500GB SSD schon reichen. Wenn mehr Daten drauf kommen nimm entsprechend größere, wo ist das Problem?
 
Masamune2 schrieb:
Auf die Gefahr wie eine hängende Schallplatte zu klingen: Können wir nicht wissen. Wenn du keine Daten in die Systeme packst musst du eigentlich nur die Serverinstallationen zusammen rechnen und etwas Puffer drauf schlagen. Da würden 500GB SSD schon reichen. Wenn mehr Daten drauf kommen nimm entsprechend größere, wo ist das Problem?
Du hörst dich eher genervt, als hängend an 😀.
Ich habe mich vielleicht missverständlich ausgedrückt. Mir geht's nicht darum, ob die 1TB reichen, sondern die GESCHWINDIGKEIT der SSD bei so vielen Rechnern. So viele Schreib- und Leseoperationen gleichzeitig. Geht das?
 
Auch hier können wir nicht wissen, was du vorhast.
Da dein Budget jetzt aber auch begrenzt ist, bringt es kaum etwas, Enterprise-SSDs da rein zu stecken.

Server-SSDs sind jetzt nicht unbedingt schneller.
Diese haben vor allem eine höhere MTBF und sind halt evtl. von der Firmware her eher auf Datenbanken ausgelegt.
Und man unterscheidet halt nach Anwendungsfall, ob mehr gelesen oder geschrieben wird oder eher beides gleich viel.

Zum rumspielen reichen die sicher.

Wofür ist eigentlich die Virtualisierung der Clients gedacht?
 
Von den Leseoperationen her sollte das noch kein Problem sein, beim Schreiben trennt sich dann die Spreu vom Weizen. Mit den Evo Plus hast du aber schon ziemlich gute SSDs, ich würde mal sagen das reicht solange das nur eine Testumgebung ist und nicht ständig Last drauf.
 
progr@mmer schrieb:
Domain Controller 1: 2 Cores + 4GB RAM
Domain Controller 2: 2 Cores + 4GB RAM
Applikationsserver 1: 4 Cores + 16GB RAM
Applikationsserver 2: 4 Cores + 16GB RAM
Datenbankserver 1: 4 Cores + 16GB RAM
Datenbankserver 2: 4 Cores + 16GB RAM
Client 1 - 5 jeweils: 1 Cores + 4GB RAM

Gesamt: 25 Cores + 92GB RAM

Bleiben für den Host 7 Cores und 36GB RAM

Hierfür dürfte für etliche Anwendungsfälle sogar ein Prozessor mit 12 Kernen reichen. (wäre aber ziemlich das Minimum!) Die meisten Hypervisoren laufen performant mit 3:1 overprovisioning. Manche mögen noch isolierte Kerne für sich selbst um den Verwaltungsaufwand immer bewältigen zu können.
Vielleicht wäre auch der 16-Kerner Epyc was für dich? Der kostet noch nicht die Welt und du bist näher dran am beruflichen Umfeld. Sprich du musst dich wohl weniger mit Problemen herumschlagen die nur auf consumer hardware auftreten würden und kannst dich voll auf deine eigene Weiterbildung konzentrieren.
 
Zum rumspielen wird die SSD ausreichend schnell sein. Selbst wenn du alle VMs gleichzeitig starten lässt.
Wenn du allerdings eine Last von 100 Usern auf einem geclusterten SQL Server simulieren willst, dann ist es zu langsam. Ich würd dennoch mehr als ein TB nehmen.
 
Mal zum Vergleich:
Ich habe mit meinem Lenovo T520 mit zwei HDDs (eine mSATA, eine 2,5 HDD), 16GB RAM und i7 EINIGE Servergeschichten virtualisiert.
Das war meine Spielwiese. Wenn es platztechnisch knapp wurde, hab ich die VMs direkt auf dem NAS abgelegt und davon gebootet. Das lief 1A, inkl 2x DC und 2x Exchange (Migrationsszenarien).
E
in simpler DC benötigt auch keine 2 Cores oder gar 4GB Ram....
Da reichen 1 Core und 2GB..
Zur Installation nicht verkehrt, aber wenn er mal durchgepatcht ist und läuft, reduziere einfach...

Und zur Geschwindigkeit: wer mal die Last eines laufenden DCs monitoren lässt wird feststellen, dass es kaum I/O Performance gibt. Hast Du nun natürlich Last auf dem SQL durch irgendwelche Berechnungen (QlikView), dann sieht's etwas anders aus....

Wie schon erwähnt: meine VMs liefen auf einem NAS mit 1G Anbindung.
 
Was machst du eigentlich wenn beim nächsten Projekt postgresql und ldap zum Einsatz kommen direkt in der Cloud? Du versteifst dich ziemlich auf eine geringe Anzahl von Produkten, sagst aber im Eingangspost dass dir das Verständnis für "Ops-Themen" fehlt. Idealerweise eignet man sich so etwas Hersteller-/Produktagnostisch an. Beispiel: Wer Virtualisierung verstanden hat kann x Jahre lang VMware gemacht haben, sollte in kürzester Einarbeitungszeit aber auch HyperV beherrschen. Das Prinzip ist identisch nur manche spezifischen Einstellungen heißen bei jedem Hersteller/Anbieter etwas anders.
So ein Aufwand um 2-3mal den Windows Cluster Manager durch zu klicken, aber ok musst du wissen. Am Ende hast auf jeden Fall ein paar mehr Einblicke wie man so etwas aufsetzt. Leider ist das der leichte Teil im Leben eines Ops/Admins. Betrieb, Patchmanagement und Migration von A nach B ist der eigentliche Spaß.

Du solltest dir mMn auch ein wenig das Thema Netzwerk ansehen. Layer 2, Layer 3, VLANs, Firewalls (stateless oder stateful, paket based oder auch inhaltsbasiert) sowie Alternativen zu deinen Produkten. Sprich was unterscheiden grob mssql, mysql/mariadb, postgresql und oracle voneinander, etc.
 
Zurück
Oben