Zerreißefekte trotzt G-Sync

SavageSkull schrieb:
Die Erklärung beißt sich aber mit jeder anderen Erklärung von den Sync Funktionen.
Sorry, aber selbst die Displayhersteller erklären dir, dass du trotz G-Sync und Freesync V-Sync brauchst.
https://www.benq.com/en-us/knowledge-center/knowledge/adaptive-sync-tearing.html

SavageSkull schrieb:
Bei Gsync/FreeSync, wartet der Monitor auf das OK, das ein Bild im Ausgangsspeicher der Grafikkarte liegt und holt das dann ab. Hier kann jeder Frame auch unterschiedliche Zeit brauchen.
Im Gegenteil, der Monitor wartet eben nicht auf das OK, sondern er zeigt den Frame sobald er bei ihm ankommt. Dadurch dass ein 144Hz Monitor aber mit einer Frametime Range von 6,9ms - 33,3ms (bei 30-144 Hz) zurecht kommt, kann er ziemlich viel abbilden. Aber der Monitor kann nicht Zwischenbuffern! Er kann nicht einen Frame der nach 6,8ms kommt in irgend einem RAM zwischenspeichern, und 0,1-0,2 ms später ausgeben. Und G-Sync/Freesync-Monitore können das auch nicht, sie steuern die Bildwiederholungsrate des Monitors, nicht aber den Daten-Input! Ein einzelner unkomprimierter 4k Frame, hätte zwar mit 200Mbps nur 25MB, aber Monitore haben faktisch keinen RAM zum Zwischenspeichern der Frames. Es ist höchstens physisch einer vorhanden um Einstellungen zu speichern. SmartTVs mit kompletten SoCs sind eigene PCs, aber wenn man überlegt wieviel Input-Lag da durch minimale Bildbearbeitung erzeugt wird (Stichwort Gaming-Mode), wären die auch nie in der Lage, einen Frame der 0,1ms zu früh kommt, um 0,1ms zu zögern.
So what happens when just one of those 144 frames renders in, say, 6.8ms (146 FPS average) instead of 6.9ms (144 FPS average) at 144Hz? The affected frame becomes ready too early, and begins to scan itself into the current “scanout” cycle (the process that physically draws each frame, pixel by pixel, left to right, top to bottom on-screen) before the previous frame has a chance to fully display (a.k.a. tearing).

G-SYNC + V-SYNC “Off” allows these instances to occur, even within the G-SYNC range, whereas G-SYNC + V-SYNC “On” (what I call “frametime compensation” in this article) allows the module (with average framerates within the G-SYNC range) to time delivery of the affected frames to the start of the next scanout cycle, which lets the previous frame finish in the existing cycle, and thus prevents tearing in all instances.

And since G-SYNC + V-SYNC “On” only holds onto the affected frames for whatever time it takes the previous frame to complete its display, virtually no input lag is added; the only input lag advantage G-SYNC + V-SYNC “Off” has over G-SYNC + V-SYNC “On” is literally the tearing seen, nothing more.
Ergänzung ()

Blumentopf1989 schrieb:
@Dortmunderjungx ich würde noch ein paar mehr Ausrufezeichen nehmen ;-)
Es ist ehrlich gesagt ziemlich ernüchternd, wie so etwas grundlegendes einfach immer noch nicht verstanden wird, und beste Quellen angezweifelt werden (Blur Busters sind eine Bibel der Bildschirmtechnik). Und nachdem in der ersten Seite geradezu BS Antworten gegeben wurden, musste ich auch mit dem Kopf schütteln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Shinigami1, Samuelz und Dortmunderjungx
nr-Thunder schrieb:
Im Gegenteil, der Monitor wartet eben nicht auf das OK, sondern er zeigt den Frame sobald er berechnet ist.
Das ist doch genau "auf das OK warten"...
Der Frame wird vom PC berechnet, wandert in den Ausgangspuffer und sobald er da ankommt (Prämisse) wird das Bild angezeigt. Dieser Zeitpunkt kann frühestens 6,9ms stattfinden, nachdem das letzte Bild angezeigt wurde. Kann aber auch später angezeigt werden, wenn der PC länger für das Bild braucht (maximal 33ms, dann wird das Bild wiederholt).

Klassisch zeigt der (144Hz) Monitor ein Bild IMMER nach 6,9ms an, egal was da gerade im Ausgangspuffer liegt. Ob das da schon 6,8ms im Speicher liegt oder gerade frisch 0,1ms alt ist, ist dem Monitor scheißegal.
Das ist exakt das Verhalten, was man in der Technik als Abtastrate definiert ist und da gilt schon seit eh und je, die Abtastrate muß hoch sein um Änderungen zu nicht zu übersehen (Bild lag nur 4ms im Puffer und wurde schon überschrieben) und diese auch früh (Bild liegt schon 6ms im Puffer, bevor der Monitor wieder schaut) zu erkennen.

Das Problem gibt es aber bei Free-/GSync nicht mehr, da eben der Monitor losgelöst von der Abtastrate ist und das Bild anzeigt, sobald es in den Ausgangspuffer der Grafikkarte abgelegt wird.

Ein Tearing wäre denkbar, wenn man sich drastisch von der minimalen oder maximalen Range der "Reaktionszeit" von 6,9ms bis 33ms entfernt. Aber genau das schließt man ja durch den Framelimiter im Treiber aus, indem man die Anzahl der Bilder auf etwas unter der maximalen schnellsten "Reaktionszeit" einschränkt.

Es gibt sicher bessere Nomenklatur, aber ich hoffe du verstehst mich, weil "Reaktionszeit" hier vielleicht mißverständlich ist.
 
SavageSkull schrieb:
Ein Tearing wäre denkbar, wenn man sich drastisch von der minimalen oder maximalen Range der "Reaktionszeit" von 6,9ms bis 33ms entfernt. Aber genau das schließt man ja durch den Framelimiter im Treiber aus, indem man die Anzahl der Bilder auf etwas unter der maximalen schnellsten "Reaktionszeit" einschränkt.
Nein, genau das macht Vsync innerhalb der Range, der Limiter verhindert einzig dass man nach oben aus der Range wandert. Die erklärung steht bei Blurbusters, wurde auch schon mehr als einmal hier verlinkt.
 
  • Gefällt mir
Reaktionen: Shinigami1, Samuelz und autopilot
Bei mir tritt Tearing untere Rand nur auf, wenn ich 140 FPS limitiere (144Hz). Meist in Spielen die Unreal Engine 4 läuft. Sobald ich 120 FPS stelle, ist es alles perfekt geworden. Andere Spiele wiederum läuft 140 FPS ohne Tearing perfekt. Warscheinlich mögen die nicht alle Spiele weil mein Zweitmonitor 60 Hz läuft und mit 140/144Hz einfach nicht gepasst hatte. Mir reicht 120 FPS da ich nichts kompetitives spiele. :)

Hast du vielleicht Zweitmonitor hängen die das verursacht wird? 🤷🏻‍♀️
 
SavageSkull schrieb:
Dieser Zeitpunkt kann frühestens 6,9ms stattfinden
Der Monitor kann zwar alle 6,9ms einmal von oben nach unten wischen. ABER, der Bildaufbau ist physisch kontinuierlich von oben nach unten (auch er benötigt Zeit). Hier zu sehen unter Slow-Mo

Wenn er einen Frame zu 80% aufbaut, und bevor dieser Frame fertig ist, kommt ein neuerer Frame, nimmt er die Daten des neueren Frames für die letzten 20%. Der Monitor ist nicht fähig, den zu frühen Frame zu verzögern. Wie gesagt, G-Sync steuert, wie schnell der Monitor physisch aktualisiert, das FPS/Frametime Limit steuert wie die GPU den START der Bildberechnung zu takten hat. Aber nur V-Sync ist in der Lage, der Frame so zu verzögern, dass der Monitor ihn erst dann bekommt, wenn er auch wirklich dazu in der Lage ist den letzten und den neuen Frame ohne vermischen anzuzeigen (=Refresh Rate).

Im Video haben wir low persistence, sprich schnellen Bildaufbau und wenig Blur dank langer Blackframe Insertion. Bei einem normalen Monitor mit 6,9ms Umschaltzeit, kannst du davon ausgehen dass der einige Millisekunden braucht bis er einmal von oben nach unten das Bild aufgebaut hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: autopilot
Blumentopf1989 schrieb:
Nur wenn ich den Monitor übertakte hat er 165.
Mir wurde in der Vergangenheit angeraten leicht unter der jeweiligen max. Refreshrate zu bleiben, damit G-Sync auch wirklich funktioniert.
Ich frage mich ja viel mehr, warum ich jetzt erst dieses Problem habe bzw. es mir erst jetzt auffällt.
Im Treiber den FPS Limit auf 3 frames unter der Herzzahl des Monitors einstellen, VSync im Treiber auf AN und im Spiel dann aus. Wenn du dann noch immer Stottern hast, dann stellt dein Monitor das Gsync compatible nicht wirklich gut um
 
@Amiga500 Er ist nicht nur compatible, er hat ein echtes G-Sync Modul verbaut.
 
Nochmal:

1.Gsync an
2. Vsync an. (Treiber)
3. Vsync in jedem Game aus.
4. Profit.

Kann dann zu. :watt:

Sorry, aber das muss jetzt halt echt mal in dein kopf rein, ich versteh dich dass du Vsync nicht benutzen willst, es führt aber kein Weg dran vorbei, wenn du zu 100 % tearingfrei sein willst.
 
Vsync kann man ruhig einschalten. Das ist nur für die 0,001% der Fälle da und ansonsten nicht aktiv, solange das Spiel in Gsync Range läuft. Durch das zusätzlich gesetzte Limit von z.B. 141 FPS ist Vsync quasi nie aktiv und nur eine reine Backup Strategie, um Tearing endgültig zu verhindern.

Das sagt ja der Artikel auch nochmal
Within its range, G-SYNC is the only syncing method active, no matter the V-SYNC “On” or “Off” setting.
 
  • Gefällt mir
Reaktionen: autopilot, Samuelz und Dortmunderjungx
Es ist schon sehr amüsant. Wie viele Leute im Jahre 2023 immer noch falsch Informationen über VRR verbreiten. Dabei ist es eigentlich super einfach. Auch mit G-SYNC Compt. oder natives G-Sync oder VRR allgemein. Braucht man immer noch V-Sync, sonst hat man manchmal im unteren Bereich im Bild Tearing!!!!!

Der Trick ist eigentlich.

VRR/GSync (Compatible) an.
V-Sync Global im Treiber an.
Ingame V-Sync immer aus.
Globales FPS Limit -3 FPS unterhalb der Max Refreshrate einstellen, also bei 144HZ ~ 141 FPS bei 120HZ ~ 117 FPS bei 240HZ ~ 237 FPS etc.

So schwer ist das wirklich nicht Leute!!!!!

Werden wir immer dümmer? Ich glaube langsam, ja.
 
  • Gefällt mir
Reaktionen: Shinigami1 und Dortmunderjungx
Dortmunderjungx schrieb:
Nochmal:

1.Gsync an
2. Vsync an. (Treiber)
3. Vsync in jedem Game aus.
4. Profit.

Kann dann zu. :watt:

Sorry, aber das muss jetzt halt echt mal in dein kopf rein, ich versteh dich dass du Vsync nicht benutzen willst, es führt aber kein Weg dran vorbei, wenn du zu 100 % tearingfrei sein willst.
Ich weiß nicht wo dein Problem ist? Ich habe schon auf Seite 2 geschrieben, dass es jetzt für mich ok ist.
Ich habe das längst wie von dir beschrieben angewendet, finde es langsam aber lustig wie sich die Leute hier wieder an die Gurgel gehen.
Btw. ist es am besten vom Bild her mit VSync auch im Spiel an. Zumindest bei WoT macht es keinen Unterschied vom Spielgefühl bezüglich Latenz. Wahrscheinlich lande ich so aber komplett im VSync einfach :D
 
Zuletzt bearbeitet:
Bei z.B. Assassins Creed Origins, Call of Duty WWII oder Wolfenstein Youngblood habe ich das Problem,
dass mit Vertikale Synchronisation Ein (im Treiber) im Spiel auf die Framerate auf 60 FPS begrenzt ist. :freak:
 
Blumentopf1989 schrieb:
Ich habe aktuell G-Sync an, VSync im Spiel an (die drei Haken links :D) und halt ein FPS Limit, damit ist es ok.
Wie gesagt, beim Monitor kann ich nichts extra anmachen, da steht aber G-Sync on (immer).
In der NV Systemsteuerung habe ich halt nur den einen Monitor und kann da keine weitere Haken setzen. @Rickmer
Schön, dass es jetzt bei Dir funktioniert. Mittlerweile sind mir "die drei Haken" wieder eingefallen. :D
  • VSync
  • Triple Buffer
  • Hardwarebeschleunigung
Wegen der VSync Diskussion: Ich habe es sonst auch in jedem Spiel und im Treiber mittlerweile aus (zB in Destiny 2, BFV oder CoD WZ2) und da läuft es super ohne Tearing, nur WoT brauch diese "Extrabehandlung".
Aber: Mit schnellen Panzern macht man eher mal einen Snapshot, aber dann hängt auch noch das RNG von WoT mit dran. Und alle anderen Panzer brauchen ja eh mehr als 1,5s, viele sogar mehr als 2,5s zum Einzielen, was den Inputlag im Spiel mMn nicht spürbar macht. Denke ein Tank mit einer genauen Kanone plus einer Granate mit 1500+ m/s v0, sollte beim Vorzielen auf einen schnellen Panzer mehr zum Treffererfolg führen, als VSync on/off... sofern natürlich auch RNGesus auf Deiner Seite ist. ;)
 
Zuletzt bearbeitet:
FreeSync oder GSync sind bei mir immer aus.
Jedes Spiel läuft bei mir aber ohne Verzerrungen oder Lags!
VSync ist immer an
Triple Buffer aus
Im Spiel auf 74 oder 75 HZ je nach Spiel eingestellt (Monitor 75 HZ)

In WoT ist die Hardwarebeschleunigung bei mir aus.
74 Hz im Spiel ausgewählt ( Monitor 75 HZ)

In Witcher 3 z.b. VSync an und die Aktualisierungsrate auf unbegrenzt.
Mit Begrenzung auf auf 60 oder 75 läuft es nicht glatt.
 
@maxi_rodriges ist das jetzt ne Frage nach Hilfe oder nur ne Erklärung wie es bei dir ist?

Das ist mir jedenfalls etwas Unverständlich :D
Vor allem auch der 2te Satz und dann der letzte passen auch nicht zusammen.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne und autopilot
Und gibt es denn überhaupt 75Hz GSync/Freesync Monitore?
 
BorstiNumberOne schrieb:
75Hz GSync/Freesync Monitore?
warum nicht? kannste auch ganz leicht bei geizhals nachsehen mit den filterb.

gerade bei den kleineren hz fallen ja auch das tearing auf.

Nach meiner Erfahrung kannst du umso höher die Hz vom Monitor sind besser auf jegliche art von Sync verzichten - weil es immer weniger auffällt.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne
Alexander2 schrieb:
warum nicht? kannste auch ganz leicht bei geizhals nachsehen mit den filterb.
Weil es mich gewundert hat und das ganze (bisher mMn) mit den ersten 144Hz Monitoren um 2015 herum aufkam. Daher hat es mich gewundert, 75Hz Monitore kannte ich schon, aber mit GSync?!?
 
Gab es früher nicht mit Gsync, auch nicht compatible zertifiziert, nur mit Freesync.
Irgendwas wegen maximum Range muss ein bestimmstes vielfaches der minimum Range sein.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne
Zurück
Oben