Windows Server 2025 Hyper-V SET Timeouts

BlackVip3r

Cadet 3rd Year
Registriert
Jan. 2008
Beiträge
54
Hallo zusammen,

ich konfiguriere aktuell einen neuen Dell R760 Server unter Windows Server 2025. Das System soll als Hyper-V Host dienen. Wir nutzen Link Aggregation für die Verbindung der Netzwerkadapter.

Unter dem neuen Server wollen wir Microsofts Switch Embedded Teaming (SET) nutzen, da LBFO in Kombination mit LACP von MS als Deprecated markiert ist. Switch-Seitig habe ich die alte LACP Konfiguration entfernt, sodass die Schnittstellen alle einzeln stehen.

Nach der Installation bekommen auch alle Schnittstellen ihre einzelnen IP-Adressen per DHCP und sind pingbar. Wir haben aktuell auf Serverseiten bereits eine 10Gbit Karte verbaut, allerdings kann der Switch aktuell nur 1Gbit.

Nun nehme ich die einzelnen Schnittstellen der Adapter in das SET-Team auf:
New-VMSwitch -Name "SET_INTERN" -NetAdapterName "NIC1_10Gb_P1_INT","NIC1_10Gb_P2_INT","NIC1_10Gb_P3_INT","NIC1_10Gb_P4_INT" -EnableEmbeddedTeaming $true -AllowManagementOS $true
Set-VMSwitchTeam -Name "SET_INTERN" -LoadBalancingAlgorithm Dynamic

Jetzt habe ich das Phänomen, dass nach ca. 1 Minute der Server anfängt bspw. bei DNS-Anfragen in Timeouts zu laufen. Das sieht dann bspw. so aus:

PS C:\Users\-----> nslookup google.de
Server: <DNS-Server>
Address: <DNS-IP>

DNS request timed out.
timeout was 2 seconds.
Non-authoritative answer:
Name: google.de
Addresses: 2a00:1450:4001:80b::2003
142.250.186.163

Nehme ich dann zwei Adapter aus dem Team funktioniert der Adapter wieder einwandfrei, aber die Adapter, die jetzt nicht mehr Teil des Teams sind, erhalten keinen eingehenden Traffic mehr. Das ändert sich, wenn ich am Switch den Port manuell deaktiviere und wieder aktiviere. Danach verhalten sich die Adapter wieder normal.

Ich scheine irgendwas übersehen zu haben, aber ich scheine das falsch zu googeln und komme nicht zu den richtigen Ergebnissen. Hat da jemand von euch eine Idee woran es liegen könnte? Das Problem kann natürlich auch vor der Tastatur sitzen.

Vielen Dank schon einmal im voraus für eure Hilfe. Weitere Infos kann ich gerne beisteuern.

Beste Grüße
 
Wie verhält sich die Konfiguration wenn du -AllowManagementOS auf $false setzt? Es ist aus meiner Sicht keine gute Idee, das Management über diesen VSwitch laufen zu lassen, dafür nimmt man eine separate Schnittstelle.
 
  • Gefällt mir
Reaktionen: qiller
Evil E-Lex schrieb:
Wie verhält sich die Konfiguration wenn du -AllowManagementOS auf $false setzt? Es ist aus meiner Sicht keine gute Idee, das Management über diesen VSwitch laufen zu lassen, dafür nimmt man eine separate Schnittstelle.
Kann ich einmal ausprobieren, sobald ich eine der VMs rübergezogen habe. Sollte auch noch die Zielkonfiguration sein. Sobald der Switch auf 10 Gbit hochgezogen wird, ist der Plan einzelne Adapter an die VMs durchzureichen und einen dedizierten Port für die VM Sicherungen über VEEAM.
qiller schrieb:
Im Switch vlt. noch irgendwelche Link Aggregation aktiv?
Sowohl LACP, als auch LAG im allgemeinen sind auf dem Switch deaktviert. Da hatte ich auch nachgedacht. Könnte natürlich noch irgendwas im Hintergrund aktiv sein, dass mir nicht angezeigt wird. Muss ich den Switch einmal durchstarten um sicherzugehen, dass mir die Anzeige nicht irgendeinen Käse anzeigt.

Da die Schnittstellen aber nach einem Admin-Down und Admin-Up wieder funktionieren, wenn ich sie vorher aus dem SET rausnehme, würde ich die Ursache eher in Windows verorten, als im Switch. Allerdings habe ich auch die Ursache nicht finden können.

Wenn die Wochenendsicherungern durch sind, starte ich den Switch einmal durch.
 
Hm, wir hatten SET auf nem Server 2019 bestimmt 5 Jahre problemlos laufen. Waren 2x 10G Intel NICs (SFP+), die per DAC an nen HP-Switch gingen. Mittlerweile haben wir das aufgelöst, weil nicht mehr benötigt. Wir hatten aber glaub auch kein RDMA o. SR-VIO aktiv (was ja einer der Vorteil von SET ist). Wichtig ist halt, dass im Switch keinerlei Bonding, LACP bzw Link Aggregation aktiv ist. SET ist switch-independent.
 
Ich habe mehrere Cluster mit SET am laufen und bei keinem solche Probleme beobachtet. Einziger offensichtlicher Unterschied ist jetzt der LoadBalancingAlgorithm den ich nicht auf Dynamic habe. Versucht es hier mal mit HyperVPort
 
Zurück
Oben