Apollo/Moonlight beim Spielen "verwaschen" (kein Input-Lag!)

jtkrk

Lt. Junior Grade
Registriert
März 2016
Beiträge
452
Hi Leute,

ich bin seit kurzem dabei, mein Local Streaming Setup zum Spielen einzurichten. Fürs Erste läuft es ganz gut, allerdings habe ich immer wieder beim Spielen das Problem, dass sich das Spiel (nicht nur die Steuerung) leicht "verwaschen" anfühlt. Es scheint sich hier nicht nur um Input Lag zu handeln. Mehr Details weiter unten. Hier erst einmal mein Setup/Einstellungen:

A. Setup:

Host:
Client:
  • Fujitsu Esprimo Q556CPU
  • Prozessor: Intel Core i5‑7400T
  • GPU: integriert
  • RAM: 16 GB DDR4
  • Grafikkarte: Intel HD Graphics 630
  • SSD: 256 GB
TV:
  • Gerät: LG 55EG910V
  • Auflösung:1920 x 1080
  • Hertz: 60 Hz
Verbindung:


B. Einstellungen:

Apollo:
  • Double refresh rate for Virtual Display: ON
  • Ansonsten Standard-Einstlelungen
Moonlight:
  • Auflösung und Hz entsprechend TV eingestellt
  • VSync + Frame Pacing ON
  • Force hardware encoding ON
  • Video Codec: H.264
  • Unlock Bitrate Limit ON
  • Bitrate: 500 MBit
Grafikkarte & Spiel:
  • VSync OFF
  • AMD Anti-Lag OFF


C. Beobachtungen / Problem:

Problembeschreibung:

Ich spiele Horizon Forbidden West auf sehr hohen Einstellungen. Das Spiel fühlt sich teils "verwaschen" an, obwohl es konstant 90+ Frames läuft. Es ist hierbei nicht unbedingt von Input Lag die Rede, sondern das Problem besteht auch, wenn ich die Spielfigur z. B. durchgehend bewege oder die Kamera durchgehend drehe. Es wirkt dabei , als liefe das Spiel minimal in Zeitlupe. Dabei kommt aber nicht zu Rucklern. Das Problem tritt zu etwa 20% der Spielzeit auf. Es wurde bereits mit mehreren Einstellungen am Host/Client experimentiert. Unter den genannten (siehe oben) läuft derzeit am besten.

Beobachtung 1: PC-Test
Das Spiel läuft direkt am PC absolut flüssig. Das Problem tritt dort nicht auf.

Beobachtung 2: Performance-Overlay
Die Daten zeigen, dass der Stream SUPER stabil läuft. (siehe Anhang). Ich habe das Overlay etwa 1,5 Std. beim Spielen im Auge behalten und die Daten blieben absolut stabil. Am Ende gab es keine verlorenen Frames (weder durch Jitter, noch Connection). Der "Frame queue delay" variierte befand sich meist zwischen 5ms und 10ms mit Spitzen um 0ms und 20ms. Ein Zusammenhang mit dem Auftreten des Problems konnte jedoch absolut nicht festgestellt werden. Alle anderen Werte liefen konstant wie abgebildet.

Beobachtung 3: Anderes Spiel
Destiny 2 lief ebenfalls auf höchsten Einstellungen in 1080p absolut flüssig. Kein schwammiges Erlebnis (auch nicht temporär). Man muss hier jedoch sagen, dass das Spiel auch noch einmal mit deutlich mehr FPS läuft (etwa 200 FPS im Schnitt).

Beobachtung 4: Steam-Overlay (HOST)
Das Overlay zeigte, dass keine der Host-Komponenten am Limit ist (siehe Anhang).
(Anmerkung: Das Bild stammt nach einer Videosequenz und ich hab etwas an den Settings rumgespielt, deshalb sind die Frames hier im Low bei 87. Im normalen Spielbetrieb läuft es, wie beschrieben, mit 90-140 Frames. Am PC ebenfalls absolut flüssig, keine Probleme.)


D. Zusammenfassung:
  • Das Spiel läuft am, PC absolut flüssig/ohne genanntes Probleme. Das Steam-Overlay bestätigt dies.
  • Der Stream läuft stabil.
  • Ein Vergleichsspiel (Destiny 2) läuft im Stream absolut flüssig.
  • Am Fernseher kann es eigentlich auch nicht liegen, sonst bestünde das Problem auch bei anderen Spielen.

Fragen:

Horizon Forbidden West ist ein ziemlich forderndes Grafikspiel auf hohen Einstellungen. Kann es sein, dass die GPU meines Client-PCs (Core i5‑7400T, integriert) einfach überfordert ist. Die Dekodierungszeit scheint in Ordnung zu sein. Hakt es vielleicht trotzdem an der grafischen Wiedergabe? Woran könnte es noch liegen?


Würde mich über Hilfe SEHR freuen!
Lieben Dank im Voraus!
Peter
 

Anhänge

  • 20250714_090530.jpg
    20250714_090530.jpg
    1,1 MB · Aufrufe: 162
  • 20250710_111046.jpg
    20250710_111046.jpg
    1,8 MB · Aufrufe: 144
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stefnee79
Was passiert den mit dem Spiel wenn du es mit niedrigen Einstellungen spielst, ändert sich dann was?
 
jtkrk schrieb:
Kann es sein, dass die GPU meines Client-PCs
Nein. Dein Client stellt nur VIDEO dar.
Eher am verwendeten CODEC. Der Server wandelt das Bild in ein Video um, dass, on the fly, an deinen Client geschickt wird.

Versuch an den Codes zu spielen, mal hevc testen usw.
 
  • Gefällt mir
Reaktionen: n8mahr, Stefnee79, aragorn92 und eine weitere Person
Ich würde mal Sunshine und Moonlight probieren, das funktioniert bei mir sehr gut.
 
  • Gefällt mir
Reaktionen: aragorn92
Fujiyama schrieb:
Was passiert den mit dem Spiel wenn du es mit niedrigen Einstellungen spielst, ändert sich dann was?

Was soll das bringen der Knackpunkt ist LAN mit 500 Mbit ... Also einem Bruchteil von Displayport...das liegt nicht an der Schönheit was die GPU berechnet.

Einzig Auflösung und Hz runter bringt etwas.. und mehr Bandbreite wenn möglich..

FullHD bei 8bit Farbtiefe und 60 Hz braucht nativ 3,2 Gbit und das soll durch eine 500 Mbit Leitung... Ob das der Codec so gut packt weiß ich nicht..

https://trychen.com/feature/video-bandwidth
 
  • Gefällt mir
Reaktionen: frazzlerunning
Also ich verwende Sunshine/Moonlight seit vielen Jahren, mittlerweile mit AMD 6900 XT. OS ist Linux, Codec h265 mit dem VAAPI-Encoder. Bitrate 120 Mbit bei 4K und ebenfalls LAN.

Bin sehr zufrieden mit der Bildqualität, Spürbare Verzögerung gibt es mit Controller keine.

Apollo kenne ich nicht und habe ich entsprechend nie verwendet. Falls du mal Sunshine verwenden solltest und die selben Probleme hast, kannst mir schreiben. Kann dir dann auch meine genauen Settings zur Verfügung stellen.

PS: Dein Client wird nicht das Problem sein. Bei mir ist die Qualität auf allen Geräten gleich, egal ob Tablet, Laptop, PC oder Mikrowelle (Spaß :))
 
  • Gefällt mir
Reaktionen: n8mahr und xxMuahdibxx
Du kannst Moonlight übrigens auch direkt (mit ein paar Einstellungen) auf dem LG Fernseher zum laufen bringen, ohne extra Client. Vielleicht nochmal eine Alternative.

Und ich habe am Router (Fritzbox) dem Host / Client erhöhte Priorität zugewiesen, das hat auch etwas gebracht bei mir.
 
  • Gefällt mir
Reaktionen: xxMuahdibxx
@FreshLemon der TE nutz H264.. du H265..

Somit schon einmal halb so viel Bandbreite benötigt.
 
xxMuahdibxx schrieb:
@FreshLemon der TE nutz H264.. du H265..
Er verwendet aber eine Bitrate von 500, ich nur 120.. Seine Client-Hardware würde h265 unterstützen (Host soweso), wenn ich richtig recherchiert habe. Würde das auf jeden Fall verwenden. Habe beides getestet und keinen Grund gefunden h264 zu verwenden. Die Latenzen waren damit auch schlechter.
 
xxMuahdibxx schrieb:
inzig Auflösung und Hz runter bringt etwas.. und mehr Bandbreite wenn möglich..
Spielt doch keine grosse Rolle...das Bild wird doch in ein Videosignal gewandelt und dann transportiert.
Da sind 500Mbit mehr als genug. Ich hab sogar nur 90 Mbit und es passt.

Das Thema dürfte eben H264 im vergleich zu H265 sein oder halt, wie beschrieben an dem Encoder ansetzen.

EDIT: Da kannst ja genug rumspielen
1752502896699.png
 
Hey Leute!

Danke für die vielen Antworten und Hilfestellungen!

Fujiyama schrieb:
Was passiert den mit dem Spiel wenn du es mit niedrigen Einstellungen spielst, ändert sich dann was?
Hat keine Änderungen erbracht.

Azghul0815 schrieb:
Das Thema dürfte eben H264 im vergleich zu H265 sein oder halt, wie beschrieben an dem Encoder ansetzen.
H265 hatte ich zuerst und habe dann im Zuge diverse Umstellungen zu H264 gewechselt. Müsste ich aber vielleicht auch noch einmal isoliert testen. ✅

An die Decoder-Einstellungen hatte ich mich noch nicht herangewagt. Aber dann fuchse ich mich da etwas rein. ✅

Zwei neue Ansatzpunkte. Ich checke morgen mal alles in Ruhe und melde mich! :)

Beste Grüße!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Azghul0815
Moin!

Ich habe nur den Codec in HEVC geändert.

Ebenfalls habe ich die Bitrate auf 80 Mbit reduziert. ChatGPT hatte mir das empfohlen, weil er meinte, dass die hohe Bitrate a) für 1080p unnötig sei und b) dazu führen könnte, dass die CPU Probleme kriegen könnte, weil mehr Daten empfangen und decoded werden müssten. Hm... Ich weiß ja nicht was ich davon halten soll. Allerdings schien mir das Argument schlüssig, dass 80 Mbit bei FullHD ausreichen würde. Von daher dachte ich mir, dass ich auch nichts zu verlieren hätte. Mich würde aber interessieren, ob das stimmt. Was sagen die Experten dazu?

Ansonsten läuft es jetzt tatsächlich flüssig. Ich bin etwas überrascht, weil ich ursprünglich mit HEVC gestartet war und wegen des Problems auf H.264 umgestellt hatte. Habe also gewissermaßen wieder zurück gewechselt. Wahrscheinlich liegt es an der Vielzahl an Einstellungen, die ich in der Zwischenzeit geändert habe.

Ich fasse das Ergebnis später noch einmal zusammen, wenn ich Antwort zur Bitrate habe, damit andere vielleicht auch davon profitieren können. :)

Beste Grüße!
 
  • Gefällt mir
Reaktionen: Azghul0815 und xxMuahdibxx
Nur mal als Erklärung:
Wenn du einen 50GB Filmdatei (quasi eine Blue-Ray, 4K, Atmos oder DTX Ton) mit 2h Laufzeit hast,sind das knapp 60Mbit/s, also reichen deine 80Mbit locker für 4k.
Ich weiss gar nicht, wo das alles immer herkommt, dass fürs Streaming das Netzwerk so schnell sein muss.
Bei 1080p sollten ja 30Mbit/s mehr als ausreichend sein. Ja gibt auch etwas Overhead usw.
 
Zurück
Oben