VMWare Performance probleme

hiho87

Lieutenant
Dabei seit
Nov. 2007
Beiträge
538
Hallo Zusammen

Wende mich an euch, da mein Verständnis am Limit ist :p

Hatte vorhin einen Nuc SkullCanyon mit einem ESXi USB-Stick, bei dem einige VM's darauf liefen. Nebenbei einen TS-453a von Qnap als Videotheke über Plex und Data Storage.
Da ich recht kostengünstig einen Supermicro Mainboard mit 2x E5-2660 und 64GB Ram bekam, entschied ich mich alles aufzuheben und einen Server/Nas zu bauen.
Aktuell hab ich mich für ESXi entschieden, aber bin offen für alles.

Zu den genauen Daten:
ESXi wurde vom NUC übernommen ohne etwas zu ändern.
Supermicro X9DR3-F
2x E5-2660
64GB Ram
500GB SSD Samsung Evo über OnBoard Sata
4x4TB WD Reds (aktuell nicht angeschlossen)

Diese VM's müssten sicher drauf:
Plex auf Linux Basis, TS03 Server auf Linux Basis, MGMT auf Windows Basis (Kollege der sich darüber Verbindet, Putty), Space Engineers/Rust usw. Server auf Windows Basis, Downloadstation zum Download von Files und entpacken (System noch nicht definiert).

Jetzt zu den Problemen:
Leide unter Windows 10 extrem an Leistungsprobleme. Die VM fühlt sich "Stockend/Laggy/Frezze" an. Hab etliche Einstellungen geändert, vCPU angepasst, mehr Ram, Graka auf 3D umgestellt!
Habs auch schon frisch installiert aber ohne Erfolg. Die VM Tools wurden auch installiert. Überladen wurde das System ja nicht, schliesslicht lauft im Moment nur eine VM neben Windows, TS03 Server über Linux.
Dort sind mir die Performanceprobleme nicht aufgefallen da die VM nicht viel leistung braucht für TS ^^, 1vCore und 2GB Ram.
Die SSD hab ich mit CrystalMark getestet, über Windows und read/write Speed waren bei 500mb/s also sollte es nicht an der SSD liegen.

Kann es sein dass die Performance von Windows am ESXi vom USB-Stick abhängig ist? Schliesslich war der Stick auf einem anderen Gerät konfiguriert?

Sonst stockt es auch noch bei dem Integrierten Raid Controller von Supermicro. Anscheinend kann ESXi mit Fake Raidcontroller (Software) nichts anfangen. Hier bin ich zwar auf eine Lösung gestossen, die heisst LSI Megaraid Raid Controller.
Damit die 4x4TB WD reds im VMWare erkannt werden, muss ich einen Hardware Raid Controller einbauen, istin meiner ToDo-Liste. Aber wirds danach funktionieren? Vorallem wenn ich eine VM aufsetze mit Linux und Plex Server, kann ich es so einstellen dass Linux die 4x4TB in einem Raid sieht/anspricht?

Bin echt einwenig überfragt immo.... Tut mir leid falles es einwenig Kaotisch ist :p aber Probiere seit einigen Tagen aber komme zu keinem richtigen Ergebnis. Vorallem, je mehr ich in Foren lese oder nach Fehlerquellen suche, desto verwirrter werde ich xD
 

visioo

Lt. Commander
Dabei seit
Okt. 2007
Beiträge
1.997
Moin,

verstehe ich richtig dass ESXi auf dem Stick installiert ist oder?
Hast du dann nach Hardwaretausch ESXi neu aufgesetzt?

LG
 

hiho87

Lieutenant
Ersteller dieses Themas
Dabei seit
Nov. 2007
Beiträge
538
Hallo Visioo
Ja genau richtig ;)
Emm eben nicht, dass ist mir Heute in den Sinn gekommen. xD war gestern nicht mehr fähig zu überlegen.
Hätte ich also am besten ESXi neu installieren sollen?
 

visioo

Lt. Commander
Dabei seit
Okt. 2007
Beiträge
1.997
Servus,

ja ich würde auf jedenfall ESXi neu installieren bzgl. Treiber etc...

Kannst du ja auf einem anderen Stick machen und testen. Ich denke das kann durchaus zum Problem führen wenn du den Stick vom alten System nutzt.

LG
 

snaxilian

Commander
Dabei seit
Jan. 2016
Beiträge
2.231
Hast du der Win-VM mehrere Sockel gegeben oder mehrere vCPUs auf einem Sockel? ESXi liegt auf dem Stick und die SSD ist als Datastore genutzt? Wird die auch im ESXi als SSD erkannt oder als HDD?

Es ist gut vorstellbar, dass der ESXi bestimmte CPU-Features nur bei der Installation erkennt, daher ist eine neue Installation sinnvoll.

Zu den WDs: Was genau hast du damit vor? Als ein Raid 5/6/10 verwenden als ESXi Datastore für mehrere VMs oder willst du die Disks durchreichen an eine einzelne VM? Ansonsten ja: der integrierte C606 und ESXi arbeiten nur zusammen, wenn du die Disks einzeln verwendest, im Raid-Betrieb wollen diese nicht zusammen, dafür brauchst du einen passenden Raid-Controller. Da schließt du die WDs an, konfigurierst das Raid und bindest das dann als Datastore an oder gibst diesen Raid-Controller explizit an eine VM durch.
 

andy_m4

Banned
Dabei seit
Aug. 2015
Beiträge
2.283
Wo kommt eigentlich der Wahn her alles (also wirklich ausnahmslos alles) in VMs packen zu wollen.
Meines Erachtens nach macht man sich das Leben nur unnötig schwer.
Wenn Du eh schon 2 oder 3 Linux-Services hast, dann installier doch Linux, pack sie da rein und mach nur den Windows-Kram als VM (KVM/QEMU).
 

visioo

Lt. Commander
Dabei seit
Okt. 2007
Beiträge
1.997
Wo kommt eigentlich der Wahn her alles (also wirklich ausnahmslos alles) in VMs packen zu wollen.
Meines Erachtens nach macht man sich das Leben nur unnötig schwer.
Wenn Du eh schon 2 oder 3 Linux-Services hast, dann installier doch Linux, pack sie da rein und mach nur den Windows-Kram als VM (KVM/QEMU).
Backups von VM´s ist zb. teilweise deutlich einfacher und komfortabler :)
 

snaxilian

Commander
Dabei seit
Jan. 2016
Beiträge
2.231
Naja.. bei VMware auch erst, wenn man nicht den kostenlosen Hypervisor nimmt ;)
 

hiho87

Lieutenant
Ersteller dieses Themas
Dabei seit
Nov. 2007
Beiträge
538
@visioo, werde es am Abend mal ausprobieren.

@snaxilian Also mag mich nicht genau erinnern was steht, glaube vCPU hab ich 2 (kann max 2 wählen) und vCore 4 (kann max 32 glaube ich) wählen. Genau ESXi liegt auf dem USB-Stick (nicht neu installiert) und die SSD als Datastore (VM's Festplatte). Ja die SSD wird auch als SSD erkannt.

Also die WD würde ich gerne an einem VM (wenn möglich über alle oder ein teil davon) zur Verfügung stellen. Dies im Raid 0 oder Raid 5! Darum würde ich mir noch einen LSI Megaraid holen! Aktuell habe ich 4x4TB WD reds, aber kann mir gut vorstellen dass es mal erweitert wird auf 6x4TB!
Ergänzung ()

Wo kommt eigentlich der Wahn her alles (also wirklich ausnahmslos alles) in VMs packen zu wollen.
Meines Erachtens nach macht man sich das Leben nur unnötig schwer.
Wenn Du eh schon 2 oder 3 Linux-Services hast, dann installier doch Linux, pack sie da rein und mach nur den Windows-Kram als VM (KVM/QEMU).
@andy_m4
Lasse mich gerne besser belehren! Gebe es zu dass ich mich noch nicht so lange damit beschäftige. Finde es recht interessant und bin offen für alles solange es gut funktioniert! Aber denke von der Leistung her, sollte keine Probleme auftreten eigentlich :)
 
Zuletzt bearbeitet:

snaxilian

Commander
Dabei seit
Jan. 2016
Beiträge
2.231
Wenn möglich bleib bei VMs bei einem Sockel und dann mehreren vCPU-Kernen solange die Anzahl der cVPU-Kerne kleiner-gleich ist der Anzahl der Kerne einer physischen CPU.

@hiho87 Ein Raid 0 willst du nicht, glaub mir. Vielleicht solltest dich nochmal informieren, was die Raidlevel bedeuten und auch mal kurz recherchieren warum ein Raid 5 bei 4x 4TB (oder zukünftig mehr) nicht mehr so sinnvoll ist, v.a. bei den WD Reds und anderen HDDs mit kleiner URE.
Wenn du die Platten einzeln durchreichen willst brauchst nur einen passenden HBA und kannst die Disks dann als RDMs (Raw Device Mappings) an die VM durchreichen. Da gibt es dann noch virtual und physical RDMs, Unterschiede sind in der VMware Doku zu finden, ggf. kann hier jemand mehr dazu sagen, der damit arbeiten "muss" bzw. darf. Ich bin mir aktuell auch nicht ganz sicher, ob du die Disks dann auch zukünftig mal nativ in einem anderen Server nutzen kannst oder ob da nicht doch irgendeine Art von Layer von VMware dazwischen ist.
Bei einzeln durchgereichten Platten kannst dann im OS der VM ein Software-Raid anlegen.

@andy_m4 Der Vorteil ist einfach (in größeren bzw betrieblichen) Umgebungen, dass du auch problemlos alle Dienste in andere vLANs packen passt und ein Dienst = eine VM und ein vLAN trennen kannst. Ob ich jetzt mit ansible/puppet/sccm/config-mgmt-tool-der-Wahl 10, 20, 100 oder 1000 Systeme manage ist dann unerheblich.
Wenn man den OS-Overhead sparen will, bleibt natürlich so etwas wie Docker übrig.
 

hiho87

Lieutenant
Ersteller dieses Themas
Dabei seit
Nov. 2007
Beiträge
538
@snaxilian Ja waren nur Beispiele mit den Raids, im QNAP waren alle 4 an Raid 5 angeschlossen.
Eigentlich so weit so gut. Beim Server würde ich schon gerne ca. die gleiche Funktion haben: Plex soll zugriff auf die Platten haben, am liebsten im Raid, ist mir zu grossen aufwand die Daten umher verteilen zu müssen :)

Aber sollte ja mit einem LSI Megaraid Raidcontroller möglich sein!
 

snaxilian

Commander
Dabei seit
Jan. 2016
Beiträge
2.231
Du meinst Platten aus NAS ausbauen, am $beliebiger-Herstellers-eines-Raid-Controllers anschließen, an VM durch reichen? Das wird nicht funktionieren, die Daten musst irgendwo zwischenparken bzw einfach aus dem hoffentlich vorhandenen Backup einspielen. Aber kannst du die Daten nicht auf dem NAS lassen und Plex diese einfach als SMB/CIFS ("Netzlaufwerk") oder NFS zeigen? Dann kannst dir den Kauf und die Bastelei sparen...
 

hiho87

Lieutenant
Ersteller dieses Themas
Dabei seit
Nov. 2007
Beiträge
538
@snaxilian Dass ist mir bewusst dass es nicht geht. Darum wurden die Daten vorerst gespeichert und werde sie wieder einspielen sobald alles funktioniert ;)

Stimmt, aber dann wäre die Bastlerei für nix gewesen, da ich so wenig Hardware wie möglich haben möchte ^^ Vorallem Performance vom Nas ist recht am Limit, Plex stockt und rechnet immer wieder neu und haltet an.
 

snaxilian

Commander
Dabei seit
Jan. 2016
Beiträge
2.231
Das Limit ist dann aber nur bei Plex. Daher kannst das ja trennen. Plex als Anwendung liegt auf dem Server und macht was du halt willst aber die Daten eben "woanders". Virtualisierung nutzt man ja, wenn man Dienste voneinander trennen willst aber du machst das schon ;)
 

hiho87

Lieutenant
Ersteller dieses Themas
Dabei seit
Nov. 2007
Beiträge
538
Ja stimmt, aber kommt der Performance zugute wenn es im gleichen Gerät ist, oder sehe ich dies Falsch ?
Hoffentlich haha, werde heute mal den Stick neu installieren. Bringt eigentlich ESXi 6.5 was besseres mit oder soll am besten trotzdem bei 6.0 bleiben?
 

snaxilian

Commander
Dabei seit
Jan. 2016
Beiträge
2.231
Ja, theoretisch hast mehr "Performance" wenn Plex direkt von der Platte/Platten lesen kann aber was bringt es dir, wenn Plex die Daten mit 200+ MB/s lesen kann aber die Verbindung zwischen Server und Client sowieso bei 1 GBit/s limitiert im besten Fall? Wenn du sowieso CPU-Ressourcen benötigst, sprich transcoding, wirst dann vermutlich erst recht nicht das Netzwerk auslasten.

Ja, in 6.5 gibt es einige Neuerungen, stehen in den Release Notes. Selbiges gilt für 6.7 als auch 7.0 und die ggf. schon erschienen U1-Varianten.
 

hiho87

Lieutenant
Ersteller dieses Themas
Dabei seit
Nov. 2007
Beiträge
538
Soooo.... da bin ich wieder ;)
Hat bis jetzt alles funktioniert, ausser ein kleiner lästiger Fehler.
Probiere seit ein paar Tagen in den Foren mich zu informieren, wo es hackt.
Habe am Mainboard beide RJ45 Anschlüsse belegt und zusammen verbunden. Die VM's funktionieren sehr stabil und schnell. Einzige was mich stört ist, dass wenn ich meine Videos/Mediathek über den Freigegebene Ordner in der Plex VM (egal ob Windows oder Linux Ubuntu), bleibt der Upload von den Daten bei 60mbit/s hängen! Wenn ich etwas von der VM auf den lokalen PC herunterlade, kann ich mit voller Leistung downloaden (110mbits)!

Habe schon vieles Probiert, weiss ehrlich nicht mehr weiter ^^
Hat jemand sonst noch Erfahrung oder eine Idee?

Kann es sein dass die 2 teamed Lan-Ports sich gegenseitig verlangsamen?
 
Zuletzt bearbeitet:
Top