Moonlight Game-Streaming - Haben die NVIDIA NVEMC-Einstellungen Einfluss bei AMD-Grafikkarten?

SebGro

Cadet 3rd Year
Registriert
Dez. 2022
Beiträge
55
Hallo zusammen,


ich habe eine AMD 6650 XT und nutze Sunshine/Moonlight für mein In-Home-Game-Streaming.


Meine Frage ist:
Haben die NVIDIA NVENC Encoder-Einstellungen (P1–P7) irgendeinen Einfluss auf die Bildqualität, wenn ich eine AMD-Grafikkarte benutze?

Einstellungen Moonlight.png


Oder muss ich stattdessen etwas unter dem Punkt „AMD AMF Encoder“ ändern?

Moonlight AMD Einstellungen.png
Was sollte ich dort anpassen? Ich spiele momentan Ghost of Tsushima und möchte schauen, ob Gras und Wasser im Spiel mit ein paar Änderungen in den Encoder-Einstellungen etwas besser aussehen können.

Ich vermute, ich muss die Einstellung „AMF Quality“ ändern – vielleicht auf „Quality“ stellen?
Habt ihr sonst noch Tipps?


Viele Grüße
 
Ich vermute mal ganz stark das es ohne die Nvidia Treiber gar keinen Einfluss hat was du bei den Nividia Einstellungen änderst.
Ansonsten habe ich als AMD Nutzer bei AMF Einstellungen das meiste Richtung besserer Qualität geschoben und merke aber eigentlich keinen riesiegen Unterschied zu den Standard Einstellungen.
 
  • Gefällt mir
Reaktionen: LDNV
So ist es.
Die nV Settings sind für AMD egal.
Geht ja darum wie der entsprechende Decoder in Verbindung mit Hersteller XY angesprochen wird.
 
Die NVENC Einstellungen spielen bei einer AMD Karte keine Rolle. Wenn du eine bessere Qualität möchtest könntest du als erstes im Moonlight Client die Bitrate erhöhen. Oder auf einen besseren Codec wechseln um bei gleicher Bitrate eine Bessere Qualität zu bekommen. Der Client sollte für den gewählten Codec aber einen Hardware Decoder haben. Sonst steigt die Latenz massiv.
 
@Cebo Muss ich den Codex auch unter den AMD ANF Encoder Einstellungen einstellen? Welche Codec ist denn bei gleicher Bitrate mit besserer Qualität empfehlenswert?

Nutze aktuell diesen Mini-PC als Client. Auf diesem läuft Linux MINT. Streame in 1440p @ 30Mbit. Vsync und Framepacing aktiviert.
 
In Sunshine / Apollo kannst du keinen Codec einstellen. Das musst du in Moonlight am Client auswählen. Welchen nutzt du enn aktuell? Die Rangfolge der Qualität wäre H264 -> H265 -> AV1. Dein Mini PC müsste eine Vega 11 Grafik haben. Die kann nur H264 / H265.
Mit allen Codecs lässt sich die gleiche Qualität erzeugen. Nur eben mit unterschiedlichen Bitraten.

Du kannst natürlich trotzdem mit den AMF Einstellungen herumprobieren.
 
  • Gefällt mir
Reaktionen: end0fseven
@Cebo Meine 6650XT unterstützt nicht die AV1-Codierung. Ich teste nachher mal ob H264 oder H265 verwendet wird. An den AMF-Einstellungen spiele ich ebenfalls mal rum.

Vielen Dank für die Hilfe und viele Grüße!
 
Habe gerade noch mal geschaut. In Apollo habe ich in den AMF Settings das gleiche eingestellt wie du oben im Screenshot. Dürften die Standardsettings sein.
Und da ich gerade am Client im Wohnzimmer sitze: 1440p, 120FPS, H265, 90 Mbit/s sind meine Settings in Moonlight.
Mich wundern gerade deine 30 Mbit. Wenn ich in Moonlight 1440p mit 60 FPS auswähle dann werden bereits automatisch 40 Mbit ausgewählt. Gehe ich auf 120 FPS werden 57 Mbit draus. Ich hab den Regler einfach noch etwas aufgedreht, da es für mich im LAN keinen Sinn ergibt mit der Bitrate zu geizen.
 
  • Gefällt mir
Reaktionen: LDNV
@Cebo Ich musste leider runtergehen mit der Bitrate, da ich bereits bei ca. 32.5 MBit immer mal wieder 2-3 Aussetzer beim Spielen pro Stunde hatte. Stelle ich alles auf 30 MBit ein, dann tritt dies nicht auf.

Angeschlossen ist alles per Gigabit-Lan-Switches. Router ist eine Fritzbox 7690. Keine Ahnung, wieso ich immer mal wieder so Aussetzer hab.

Was ist dein Client?
 
30mbit ist wirklich sehr wenig.
InHome sollte es schon mindestens 75mbit sein.

Ich habs auf 100 + H265. Da die Shield die ich am TV nutze kein AV1 kann.
 
SebGro schrieb:
Angeschlossen ist alles per Gigabit-Lan-Switches. Router ist eine Fritzbox 7690. Keine Ahnung, wieso ich immer mal wieder so Aussetzer hab.
Also bei durchgehend Gigabnit-Ethernet solltest du bei einer Bitrate um 30 MBit/s nicht mal annähernd Aussetzer haben. Außer an irgendeiner Stelle in der Kette sind es, aufgrund eines defekten Kabels oder falscher Konfiguration im Router oder den Netzwerkkarten, gar keine Gigabit.

Wenn die beteiligten Geräte alle direkt an der Fritzbox hängen, könntest du da in der Konfiguration mal gucken, ob einer der Ports auf "Green Mode" gestellt ist. Dann läuft der Port nämlich nur mit 100 MBit/s.

1760891476471.png
 
  • Gefällt mir
Reaktionen: Cebo
Mach mal in Moonlight das Performance Overlay an (STRG+ALT+SHIFT+S oder L1+R1+SELECT+X). Dann siehst du ob Latenzen (Aussetzer) beim Netzwerk oder beim Decoding auftreten. Falls es beim Decoding hakt: einfach mal einen anderen Codec mit höherer Bitrate testen.

Mein Client ist ein GMKtech G2 (Intel N100). Soweit ganz ok. Nur leider zickt das Video Decoding bei 4K in Linux. Deshalb hab ich den mit Windows laufen. Der kann zwar AV1 aber meine 6900XT am Host nicht.
 
LDNV schrieb:
30mbit ist wirklich sehr wenig.
InHome sollte es schon mindestens 75mbit sein.

Ich habs auf 100 + H265. Da die Shield die ich am TV nutze kein AV1 kann.
Habt ihr denn auch zwischendurch die Benachrichtigung am Client „Reduce Bitrate“ (rot unten links in der Ecke, vorher gab’s dann eine Aussetzer im Spiel).
 
SebGro schrieb:
Habt ihr denn auch zwischendurch die Benachrichtigung am Client „Reduce Bitrate“
Nein, noch nie. Hatte das auch nie als ich mal über WLAN (zum Steamdeck) gestreamt hatte. Dabei traten nur Aussetzer auf, die aber auch in dem Overlay sichtbar waren (Frames dropped by Network).
 
Cebo schrieb:
Mach mal in Moonlight das Performance Overlay an (STRG+ALT+SHIFT+S oder L1+R1+SELECT+X). Dann siehst du ob Latenzen (Aussetzer) beim Netzwerk oder beim Decoding auftreten. Falls es beim Decoding hakt: einfach mal einen anderen Codec mit höherer Bitrate testen.

Mein Client ist ein GMKtech G2 (Intel N100). Soweit ganz ok. Nur leider zickt das Video Decoding bei 4K in Linux. Deshalb hab ich den mit Windows laufen. Der kann zwar AV1 aber meine 6900XT am Host nicht.
Ich werde mal testen, ob die Aussetzer am Netzwerk oder am Decoding liegen. Kann man sich danach nicht auch irgendwie eine Zusammenfassung vom Streaming geben lassen. Also nicht nur dieses „durchschnittliche Netzwerklatenz“ oder was das ist, sondern einen „größeren“ Bericht?
 
In dem Overlay wird nicht nur die Latenz angezeigt sondern auch: Frames dropped by your Network in %. Das sollten 0% sein.
 
Zurück
Oben