Noob Frage Server Virtualisierung

Garack

Captain
Registriert
Mai 2006
Beiträge
3.583
Hey, absolute Noob Frage..

Ich verstehe grade nicht wie das Prinzip der Server Virtualisierung in Firmen läuft.

Alos nen Server hat sagen wir 5 virtuelle Gäste. Der Vorteil von Server Virtualisierung liegt ja u.a. im Hardware Sparen..

Aber die Gäste müssen ja auch jeweils einen Rechner haben da die Angestellten da ja vor sitzen.

Ich hab hier im pritav PC Virtual Box mit Win 8.1 laufen..aber jeder Gast bracht ja auch hardware also nen kompletten Recher..Wo ist dann der Vorteil sagen wir 5 Systeme üner inen dicken Server laufen zu lassen?

Geht das üperhaupt? Die gastsystem müssten ja per Netzwerk mit den Server kommunizieren, hab hier in Vritaulbox keine Knöpfe dafür--

Als Beispiel ich will auf meinem Hauptpc ne Virtaul Box für mein Notebook bauen, wie geht das mit VirtualBox?
 
Bei Programmupdates muss hier nur 1x am Server upgedatet werden, und nicht alle einzelnen PCs.
Eventuell ergeben sich hier auch Lizenzvorteile durch kauf einer Serverversion anstatt vielen Einzelversionen.
Der PC kann leistungstechnisch nicht gut aufgestellt sein, da er nur als Ein- und Ausgabegerät genutzt wird.

So meine Einschätzung.
 
Zuerst muss man unterscheiden zwischen Terminalserver und Virtualisierungsplattformen (wie z.B. ESX oder Hyper-V). Bei Terminalservern verbinden sich Clients auf einen Server, der für sie nur eine Session öffnet. Da hat man den Vorteil, dass man die Apps am Server nur einmal Updaten muss. Bei Virtualisierung bieten die Server eine gespielte Hardwareumgebung und dem Client somit ein eigenständiges Betriebssystem an, was mehr Freiheit bietet, aber gleichzeitig den Administrations- und Ressourcenaufwand steigert.

Um jetzt auf deine Fragen zurückzukommen. "Hardware sparen" ist nur ein Vorteil von vielen. Natürlich hast du recht, dass am Platz des Users trotzdem irgendetwas stehen muss um sich mit dem V-Server und somit zu deinem virtuellen System zu verbinden, aber da tuts dann auch ein s.g. Thin Client, der einen Bruchteil eines echten PCs kostet. Da muss man in größeren Dimensionen denken. Man macht einen VM Server nicht wegen 5 Clients, aber ab 50+ wirds dann interessant.

Als nächstes kommt die Datensicherheit ins Spiel. Da alle virtuellen Systeme eigentlich nichts weiter sind als eine Datei am Server kann ich zentrale Backups fahren. Weiter hat man bei VM Servern meistens 2-3 Stück wegen der Ausfallsicherheit. Sollte einer aufgeben übernimmt der andere die Clients, die User können also im Falle eines Hardwareausfalls schnell wieder weiter arbeiten.

Dann kommen noch die Stromkosten dazu. Ein PC verbrennt gerne mal 200+ Watt/h, ein Thinclient nicht mal 50 Watt/h. Das mag jetzt nicht nach viel klingen, aber übers Jahr gerechnet spart man sich 4stellige Eurobeträge.

Weiter kann ich nebst Clients ja auch Server virtualisieren. Der Vorteil liegt in der Konsolidierung, aus 10 mach 3 oder so. Bietet sich bei Servern an, welche die Hardware nicht ausreizen wie z.B. Fileserver, Webserver,... Auch die profitieren dann von der höheren Ausfallsicherheit.

Das waren jetzt nur ein paar der Vorteile von Virtualisierung.
 
Zuletzt bearbeitet:
Soweit ich weiß, kann man dann auch mit Clustern arbeiten, also z.B. eine einzelne VM für den Mailserver auf 4 physikalischen Servern laufen lassen. Der Witz dabei: wenn einer der 4 Hardwaregeräte defekt wird, läuft der Server als ganzes weiter und man kann die defekte Hardware einfach ersetzen und wieder in den Cluster einhängen, wie bei einem Festplatten-RAID.
 
nittels schrieb:
(...) (ein) Thin Client, der einen Bruchteil eines echten PCs kostet. (...)

Ist das so? Hättest du tatsächliche Beispiele für solche Systeme?

Ich hab mal aus Interesse bei IBM, HP & Co vorbeigeguckt, wo brauchbare Modelle zwischen 200-400 Eur liegen. Für den Preis bekommt man ja auch 4-8GB Ram, 128GB ADATA SSD oder sowas sowie irgendeine Intel/AMD APU, die für Bürorechner ja vollkommen ausreicht.

Mich würde das wirklich interessieren, da mal objektive Vergleiche anzustellen.
Die ThinClients die ich fand, sahen für mich nicht billiger als LowCost-Büro-PCs aus (zumal der Serverpart dazu dann ja -deutlich- teurer wird).


nittels schrieb:
Dann kommen noch die Stromkosten dazu. Ein PC verbrennt gerne mal 200+ Watt/h, ein Thinclient nicht mal 50 Watt/h. Das mag jetzt nicht nach viel klingen, aber übers Jahr gerechnet spart man sich 4stellige Eurobeträge.

Also auch hier: bei HP fand ich 40W als gemittelten Verbrauch bei einem seiner ThinClient-Systeme (ist jetzt natürlich unaussagekräftig, aber nur mal als groben Vergleich). Ein bei uns stehender Büro-PC mit 4GB RAM, SSD und AMD APU (DualCore, 3,2 GHz) hat bei uns am Messgerät einen Durchschnitt von 34,8W gehabt (einen Arbeitstag lang gemessen).

Also klar, sehr subjektiv jetzt alles. Man kennt hier das Testsystem nicht genau, die verwendete Software während des Tests etc. pp.
Aber 200W (im Mittel) verbraucht doch kein einziger moderner Bürorechner mehr (Grafikbearbeitungsteile und so mal ausgenommen, logischerweise - beschränkt auf Office-Büro-Systeme also).
Selbst bei voller Auslastung frisst besagter Office-PC nur ~100W (und wann hat ein Office-PC schon mal volle Last auf CPU, GPU, SSD, ...).


nittels schrieb:
Weiter kann ich nebst Clients ja auch Server virtualisieren. Der Vorteil liegt in der Konsolidierung, aus 10 mach 3 oder so. Bietet sich bei Servern an, welche die Hardware nicht ausreizen wie z.B. Fileserver, Webserver,... Auch die profitieren dann von der höheren Ausfallsicherheit.

Prinzipiell ja, aber hat man da tatsächlich solche Vorteile?

Ich mein mit RAID-Systemen und BackUp-Software u.s.w. kann man doch auch bei dedizierten Servern Ausfallsicherheit relativ gut gewährleisten.

Und Hardwareeinsparungen? Also wirklich ernst gemeinte Frage jetzt: Wenn ich aus 10 Servern 3 mache, dann müssen ja 3,33.. VServer-Instanzen auf einem Host-Server laufen...die brauchen doch genau die gleichen Ressourcen wie vorher?! Wo hab ich dann was gespart? Oder übersehe ich da gerade etwas?

Also ich könnte mir gerade höchstens vorstellen, dass es praktischer ist, wenn man die Kapazitäten upgraden will.



Bitte nicht falsch verstehen, viele Virtualisierungsvorteile sehe ich auch, bin allerdings auch längst kein Experte auf dem Gebiet ;)

Insofern wäre ich wirklich sehr an einer Aufklärung der Fragen interessiert :)
 
Zuletzt bearbeitet:
Bei ThinClients ist das Stromsparargument eigentlich hinfällig, hier geht's eher wirklich darum, dass es einfacher ist Updates zu fahren und zentrale Backups zu machen.
Wenn der Server ausfällt, übernimmt der Backup-Server. Und wenn ein ThinClient ausfällt, holt man eben ein Ersatzgerät aus dem Schrank. 2 Kabel umstecken, fertig.

Wenn es ein Standalone Bürorechner ist, müssen für jeden dieser Rechner laufend Backups gefahren werden und im Falle eines Ausfalls, muss nachdem Austausch des Geräts dann die Sicherung zurückgespielt werden.



Bei der Server Virtualisierung hingegen zieht das Stromsparargument. Wir haben 3 Server gemietet: 1x Web-Server (mit Datenbank), 1x Mail-Server, 1x Entwicklungs-Server. Es sind alles Root-Server, aber halt nicht auf eigener Hardware, sondern auf verteilter Hardware in einem Cluster.
Die Gründe erschließen sich von selbst: Jeder unserer Server lastet natürlich nur die CPU aus, wenn auf ihn zugegriffen wird. D.h. der Serverbetreiber lässt die "inaktiven" virtuellen Server nicht den Strom eines echten Computers verbraten, sondern dieser teilt sich die Systemressourcen mit anderen virtuellen Servern. So kann man locker 100 und mehr virtuelle Server auf einem echten laufen lassen (bei entsprechender Serverhardware mit 64 CPU Kernen, etc.). Und wenn dann doch mal Leistung gefragt ist, werden einfach zusätzliche echte Maschinen hochgefahren, die sich im Netzwerk einklinken und ihre Rechenleistung zur Verfügung stellen. Und danach legt man sie wieder schlafen.
Das ist auch sinnvoll, wenn ich mir die Hardwareauslastung z.B. unseres Webservers ansehe. Im Grunde sind es immer um die 1-3% CPU Last und dann gibt's alle halbe Minute mal 'ne größere Anfrage mit 30% Last. Die übrige Leistung muss dann nicht verpuffen, sondern kann von anderen virtuellen Maschinen auf demselben Server genutzt werden. (Dasselbe gilt natürlich auch für RAM und Festplattenspeicher)

Und weil das ganze so schön verteilt im Netzwerk läuft (man könnte es gaaanz grob mit einem P2P (= Bittorrent) Netzwerk vergleichen), interessiert es nicht wirklich, wenn mal Hardware ausfällt, weil dann einfach ein anderer Rechner die Aufgaben übernimmt. Also von außen bekomm ich nicht mit, auf welchem echten Server mein virtueller Server gerade läuft. Das ist dann "Transparenz".

Wenn man sich die großen Dienstleister wie Amazon AWS ansieht, wird das auch schnell deutlich. Man bezahlt da nicht nach verfügbarer Rechenleistung, sondern nach benutzter Leistung - also quasi wie viele Takte der CPU man benutzt hat mit seinem Programm. Dazu wird bei Amazon AWS auch die komplette virtuelle Maschine in den Ruhezustand versetzt, wenn diese nicht benutzt wird und bei Bedarf hochgefahren, was natürlich dann beim ersten Zugriff nachdem Schlaf längere Antwortzeiten mit sich bringt, aber dem Serverbetreiber enorm viele Ressourcen und Strom spart.
 
Zuletzt bearbeitet:
ascer schrieb:
Ich mein mit RAID-Systemen und BackUp-Software u.s.w. kann man doch auch bei dedizierten Servern Ausfallsicherheit relativ gut gewährleisten.

Und Hardwareeinsparungen? Also wirklich ernst gemeinte Frage jetzt: Wenn ich aus 10 Servern 3 mache, dann müssen ja 3,33.. VServer-Instanzen auf einem Host-Server laufen...die brauchen doch genau die gleichen Ressourcen wie vorher?! Wo hab ich dann was gespart? Oder übersehe ich da gerade etwas?

zur Ausfallsicherheit: hier denkst du zu "klein". Es geht nicht um Ausfall einer Festplatte, es geht darum, dass dir z.B. Motherboard/Netzwerkanbindung etc abschmiert. Bei Virtualisierung kannst du dann ohne Verzögerung (<1s) weiterarbeiten, mit allen Daten, offenen Sessions etc. das bekommst du mit Hardware nicht hin

zu den Ressourcen: die CPU läuft bei den meisten Servern >90% im idle. Wenn du jetzt 10 VMs auf eine CPU packst, dann läuft die im Schnitt immernoch unter 100% - du sparst dir aber 9x Hardware.
 
Wir haben hier Thin Clients von Wyse, die kosten 180€ und brauchen so 8-10 Watt. Der Vorteil ist halt, PCs muss man turnusmäßig (alle 3-5 Jahre) austauschen, um einem Hardwaredefekt vorzubeugen - Thin Client läßt Du laufen bis Sie kaputt sind (kann auch 7-8 Jahre sein) - Denn gehen Sie kaputt, kannst Du dem Anwender theoretisch ein Austauschgerät schicken, der stöpselt das an und kann mit seinem virtuellen PC sofort weiterarbeiten, weil Du die Zuordnung Thin Client/Kennung -> Virtueller PC zentral per ini-Dateien steuern kannst. Dazu laufen dann alle PCs im Serverraum, mit USV-Unterstützung, könnne jeden Abend gebackupt werden, Du kannst sehr einfach Cluster aus mehreren virtuellen Hosts bauen - auch über mehrere Standorte hinweg - fällt ein Host aus, fährt der nächste die virtuellen PCs selbstätig hoch (alle virtuellen PCs liegen dabei natürlich auf eigenen externen Platten). Für sagen wir mal 100 virtuelle PCs reichen Dir 3-4 Server, jeder mit 2 CPUs a 8-12 Kernen und 256-512 GB Speicher, für Office-PCs reicht die Leistung locker, die Server langweilen sich meist. Sollte ein Client sehr viel Leistung brauchen verschiebt das System die anderen Clients auf die anderen Hosts, bis alle Server gleich viel zu tun haben (Load Balancing) - haben viele Clients gar nichts zu tun, fährt das System alle Hosts-Server bis auf 2 (wegen der Redundanz) in den Standby - Das spart natürlich Strom ohne Ende.

Nachteil:

Nichts für Hochleistungssysteme (CAD, etc), USB- und DVD-Zugriffe + Videogucken ist mit Schwierigkeiten verbunden.
Aber für den normalen Büro-Arbeitsplatz ist Virtualisierung ideal.

Dann: Flaschenhals Hosts + zentrales Storage (wo die VMS gespeichert sind): Fällt das Storage aus - können halt gleich 100 Leute überhaupt nichts mehr machen - Da braucht man also ein Backupsystem auch für die virtuellen PCs (normale PCs würde man nicht backupen, die Daten liegen ja zentral und dass mehr als 1-2 PCs irreparabel auf einen Schlag kaputt gehen ist sehr unwahrscheinlich).
 
Zuletzt bearbeitet:
Garack schrieb:
Ich hab hier im pritav PC Virtual Box mit Win 8.1 laufen..aber jeder Gast bracht ja auch hardware also nen kompletten Recher

Als Beispiel ich will auf meinem Hauptpc ne Virtaul Box für mein Notebook bauen, wie geht das mit VirtualBox?

VirtualBox ist ein schönes Spielzeug, hat aber mit professioneller Virtualisierung nichts am Hut.
Wenn du schon Win8.1 hast, dann nehme Hyper-V - das ist die abgespeckte Version des Hyper-V eines Windows Servers und kommt professioneller Virtualisierung schon ein Stückchen näher.

Wenn du "einfach" eine VM für deinen Laptop bauen willst, dann zieh dir ein System am PC hoch und verbinde dich dann vom Laptop per Remotedesktop drauf - ist dann so ähnlich (aber nur ähnlich) wie Terminalserver (und das geht sogar mit Virtualbox)
 
Zurück
Oben