Bild flackert bei aktivierten G-Sync

Blutwors

Lieutenant
Registriert
Okt. 2016
Beiträge
788
Hallo zusammen,

wie der Titel schon sagt, flackert mein Bild bei Bewegung der Maus/in spielen, sobald G-Sync aktiv ist. (V-Sync ist immer deaktiviert)

Hardware:
R7 9800X3D
RTX 3080 10 GB
Monitor Gigabyte M27Q28G (war aber beim vorherigen Monitor das selbe Phänomen)
RAM: 2x24GB DDR5 RAM 6000MHz

wenns mehr braucht, sagt Bescheid.

woran liegt das? deaktiviere ich G-Sync in den Nvidia Einstellungen, flackert nichts mehr, es kommt dann aber zum wohl bekannt Tearing (ab und zu)

Hat jemand ne Idee?
 
Blutwors schrieb:
flackert mein Bild
Also komplett schwarze Zwischenbilder? Oder ein anderes "Flackern"?
Blutwors schrieb:
bei Bewegung der Maus
Auch außerhalb von Spielen?
Blutwors schrieb:
sobald G-Sync aktiv ist. (V-Sync ist immer deaktiviert)
Und wenn du V-Sync mit aktiviert hast? (ich habe G-Sync im Treiber aktiviert und im Spiel lasse ich V-Sync immer an -> https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/14/)

G-Sync in Vollbild + Fenster aktiv?
Spiel läuft in Vollbild oder Fenster?
Monitor via DisplayPort angeschlossen?

Edit: Ok, ich habe VRR Flicker ganz vergessen - was das vermutlich am Ende sein wird (danke Kommentar #3) -> https://www.rtings.com/monitor/learn/research/vrr-flicker
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DJMadMax, JMP $FCE2 und baustidus
Bei OLED ist bildflackern bei stark variierenden FPS und aktiviertem VRR normal um das loszuwerden musst du die FPS so begrenzen das sie sich ziemlich stabil halten.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
Das ist VRR flickering, haben so gut wie alle OLEDs. Manche behaupten das sowas auch bei IPS gab, habe ich dort aber noch nie gesehen.

Ich habe G-Sync deaktiviert weil mir das flickering mächtig auf den Nerv geht. FPS begrenzen und damit stabil zu halten hat wenig bis gar nichts gebracht.

Theoretisch solltes du bei deaktivierten G-Sync auch kein Tearing haben wenn die FPS im Spiel unterhalb deines Monitors liegt.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
Helge01 schrieb:
Theoretisch solltes du bei deaktivierten G-Sync auch kein Tearing haben wenn die FPS im Spiel unterhalb deines Monitors liegt.
Eine seltsame Theorie. Wie soll das denn technisch gehen? Ohne G-Sync/V-Sync hat man Tearing.
 
  • Gefällt mir
Reaktionen: SyntaX und DJMadMax
Eigentlich hat man Tearing wenn die Grafikkarte mehr FPS liefert als der Monitor Hz hat.

Wenn die Grafikkarte z.B. in einem Spiel 200 FPS liefert und der Monitor aber nur 60 Hz kann, dann siehst du sofort Tearing.

Das ist auch der Grund warum bei deaktivierten G-Sync bei den 240 Hz OLED Monitoren kaum Tearing auftritt.
 
Zuletzt bearbeitet:
Problem hatte ich auch mal nach einem Graka-Wechsel. Erst nachdem ich mit DDU den Treiber sauber deinstalliert hatte, gings dann wieder mit der neuen Graka. Und wo ich auch schon mal Probleme hatte, war bei Aktivierung von G-Sync im Fenster- und Vollbildmodus (ist allerdings schon ewig her). Seitdem hab ich G-Sync nur noch für den Vollbildmodus aktiviert.

1768060742620.png


Edit: Achso, das ist ein OLED-Monitor. Ja dann -> VRR-Flicker, wie die anderen hier schon korrekt angemerkt haben.
 
JMP $FCE2 schrieb:
Die "Anti Flicker"-Funktionen von OLED-Monitoren sind übrigens auch Fake
ASUS deaktiviert mit seiner Anti Flicker Funktionen bei den 240 Hz OLEDs ja auch nur G-Sync unterhalb von 200 (mittel) bzw. 220 Hz (stark). Da kann man es ja auch gleich deaktivieren.
 
Helge01 schrieb:
Theoretisch solltes du bei deaktivierten G-Sync auch kein Tearing haben wenn die FPS im Spiel unterhalb deines Monitors liegt.
Nicht unter, sondern genau auf der fest eingestellten Wiederholfrequenz. Wenn G-Sync bzw. VRR im Allgemeinen abgeschaltet ist, passt der Monitor die Wiederholtrate ja nicht mehr dynamisch an die FPS an, sondern läuft fix mit der Wiederholrate, die man unter Windows in den Anzeigeeinstellungen festlegt.

Und damit bei fixer Wiederholrate kein Tearing auftritt, müssen die FPS genau den eingestellten Hz entsprechend und auch damit synchron sein. Gegen zu hohe FPS reicht da ein FPS-Limit alleine auch nicht aus, weil die dann immer noch versetzt zum Refresh-Zyklus des Monitors sein können. Bei fixer Wiederholrate ist im Grunde V-Sync Pflicht.
 
mibbio schrieb:
Bei fixer Wiederholrate ist im Grunde V-Sync Pflicht.

Als es G-Sync noch nicht gab, habe ich immer Tearing als das geringere Übel gewählt, weil es flüssiger aussah, als der Judder von Vsync (mit Triple Buffering natürlich, ohne ist es völlig ungenießbar).

Tearing ist allerdings auch umso weniger sichtbar, je höher die Bildwiederholfrequenz ist. Bei 280 Hz ist es vielleicht nur halb so schlimm.
 

Scheint je nach Schwarzen Inhalt mehr oder weniger vorhanden zu sein.
 
@mibbio Es geht mir eigentlich um die Wahrnehmung von Tearing, es fällt geringer auf wenn der Monitor hohe Hz hat. Bei 1000 Hz Monitoren wird man vermutlich G-Sync nicht mehr brauchen.

@Wo bin ich hier Das Beispiel war mein ROG Swift OLED PG27AQDM.
 
JMP $FCE2 schrieb:
Als es G-Sync noch nicht gab, habe ich immer Tearing als das geringere Übel gewählt
Same. Und ehrlich gesagt, selbst an schlimmes Tearing hatte ich mich irgendwann gewöhnt. Mittlerweile nutze ich seit Jahren Linux, da hatte ich zeitweise bei Elden Ring ein "flackerndes" Bild wenn ich G-Sync bzw. VRR aktiv hatte. Hatte es dann einfach am Monitor deaktiviert, weil ich zu dumm war zu finden wo man das Softwareseitig bzw. per Spiel deaktivieren kann. Vor Wochen bemerkte ich, dass ich nach wie vor kein VRR mehr nutze. Tearing ist mir bestimmt schon seit 2 Jahren trotzdem nicht mehr untergekommen. Behaupte mal ab 144hz wird es sowieso weniger häufig/sichtbar ich limitiere aber auch gerne die FPS.
 


Helge01 schrieb:
Eigentlich hat man Tearing wenn die Grafikkarte mehr FPS liefert als der Monitor Hz hat.
Da liegst du falsch.

Tearing tritt immer dann auf, wenn die Anzeigedauer eines Einzelbildes nicht mit der Anzeigedauer des aktuellen, vertikalen Monitor-Refreshs übereinstimmt, bzw. keinen sauberen Teiler dessen aufweist, sprich: FPS zu Hertzzahl.

Verdeutlichung:

Dein Monitor steht auf 144 Hz. Du lieferst exakt 72 FPS.

In diesem (halb)idealen Fall würde jeder Frame, vorausgesetzt, die Frametimes sind perfekt, exakt zweimal hintereinander innerhalb der 144 Hz angezeigt (also 1 Frame = 2 aufeinanderfolgende Aktualisierungszyklen von 144 Hz gesamt).

Die Realität ohne (V)Sync ist aber eher, dass du 87 FPS lieferst, 103, 65, und so weiter.

Nun können nicht mehr alle Frames exakt pro Aktualisierungszyklus des Monitors (ein Hertz) ausgegeben werden. Folglich wird ein angefangener Frame verworfen, sobald der nächste im Framebuffer ansteht und es kommt zum Tearing.

Das geschieht also keinesfalls nur bei "mehr" FPS als Hz, das ist ein Irrglaube.
 
  • Gefällt mir
Reaktionen: mibbio
JMP $FCE2 schrieb:
160 fps Minimum sind immer noch ein Witz.
Nicht direkt mit fps zu vergleichen, da zumindest beim Gigabyte hier LFC aktiv wird (wenn du 100 fps hast, läuft der Monitor eben mit 200Hz):
1768062763282.png


@Blutwors die Einstellung kannst du ja für deinen Use-Case mal probieren...
 
  • Gefällt mir
Reaktionen: JMP $FCE2
DJMadMax schrieb:
Tearing tritt immer dann auf, wenn die Anzeigedauer eines Einzelbildes nicht mit der Anzeigedauer des aktuellen, vertikalen Monitor-Refreshs übereinstimmt, bzw. keinen sauberen Teiler dessen aufweist, sprich: FPS zu Hertzzahl
Ich hatte es ja schon geschrieben, es geht um die Wahrnehmung von Tearing. Du wirst kein Tearing mehr sehen bei einem 1000 Hz Monitor. Auch bei den aktuellen 240 Hz plus Monitoren fällt dir vermutlich kein Tearing mehr auf.

Nur weil es technisch vorhanden ist bedeutet es nicht das man es auch sieht.
 
  • Gefällt mir
Reaktionen: DJMadMax und JMP $FCE2

Auch immer wieder faszinierend, wieviele glauben, dass VSync spürbaren (!) Inputlag verursacht.

Selbst bei nur 60 Hz würde der Inputlag im schlimmsten Fall einen halben Frame zusätzlich, also ca. 25 Millisekunden insgesamt betragen.

Bei 75 Hz-Monitoren, wie sie die Meisten schon seit über einem Jahrzehnt am PC nutzen, wären es sogar nur noch ca. 20 Millisekunden und bei heute gängigen 144 Hz-Monitoren und darüber sogar unter 10 Millisekunden und bei noch höheren Refreshrates eben weit darunter.

Sicher: als Beliebiger-Langweiliger-Multiplayershooter-von-der-Rolle-für-die-breite-Masse-GIGAWELTMEISTER-ULTRACHADS, die ihr ja alle seid, merkt ihr das natürlich sofort und würdet bei aktiviertem VSync natürlich auch nie wieder irgend welche Preisgelder abräumen, wie ihr es ja sonst ständig tut, um euch schnellere Hardware kaufen zu können - oder doch nicht?! Ups!

ABER, Fun Fact: VSync liefert die SAUBERSTEN Frametimes aller Synchronisierungsmethoden, immer und überall, sofern die Ziel-FPS die Hz-Zahl des Monitors nie unterschreiten würde und genügend Overhead vorhanden ist.

Wer also GLAUBT (!), aufgrund eines (wenn überhaupt) minimal spürbaren Inputlags, das mit Vsync daherkommen KANN (ist auch schwer abhängig von der jeweiligen Grafikengine - Serious Sam First und Second Encounter anno 2001 waren da schlimm *erinner), schlechter in besagten Langweiler-Spielen zu spielen, kann an diesem Glauben auch gerne weiterhin festhalten und sich mit Tearing herumschlagen.

Ich jedenfalls spiele meine Spiele gewiss nicht so:
1768063441599.png


Aber hey, jedem das Seine.

So, direkt mal alle geflamed bis zum Geht nicht mehr :) Fühlt euch nach Belieben angesprochen - oder alternativ gerne auch bestätigt.
 
Zurück
Oben