Grundsatzdiskussion FreeSync/G-Sync simultan zu VSync/EnhancedSync + Framelimiter

ShiftC

Lieutenant
Registriert
Mai 2020
Beiträge
705
Mahlzeit,

ich bin mit meinem neuen UWQHD 144 Hz Monitor auch ein Frischling, was die ganzen Synctechniken angeht und mich irritieren hierbei einige Umstände bzw. Empfehlungen, die im Netz verbreitet sind.

Das AdaptiveSync a.k.a VRR a.k.a FreeSync/Gsync passt die Bildwiederholrate des Monitors an die generierten Bilder der GPU an. Diese Technik hat, je nach Implementierung bzw. Version ja auch einen oberen und unteren Grenzwert (z.B. 40-120 Hz). Soweit so gut.

Um ein Tearing überhalb der Grenze zu vermeiden, kann man nun zusätzlich zur bereits aktivem adaptive sync entweder

  • einen Framelimiter setzen, sodass die fps immer unterhalb der oberen Syncgrenze liegen,
  • das übliche Vsync aktivieren, was in diesem Falle de facto als framelimiter fungiert oder
  • EnhancedSync/FastSync(Nvidia) aktivieren, was die frames nicht limitiert, aber dafür überspringt
Falls bis hierhin nicht korrekt, dann bitte ich um Korrektur.

Nun wird in vielen Beiträgen empfohlen, neben dem adaptiven Sync nicht nur zusätzlich das VSync zu aktivieren, sondern auch noch einen Framelimiter. Mir erschließt sich hierbei die Logik bzw. der Nutzen nicht ganz.

Nach meinem Verständnis kann es auch innerhalb der AdaptiveSync range zu einer Frametime Varianz kommen, was dann zu theoretischen avg fps überhalb der range führt, weshalb das zusätzliche VSync hier empfohlen wird, damit dieses Bild just in das richtige Zeitraster geschoben wird. Doch wozu dann noch der Framelimiter, wenn hier das VSync auch überhalb der Grenze als solche fungieren würde?

In einigen Beiträgen wird sogar empfohlen, dass man FreeSync + EnhancedSync + Framelimiter nutzt.
Kann mich hier jemand aufklären und versuchen ein bisschen aufzuräumen?

Warum FreeSync + VSync + Framelimiter und nicht FreeSync + Framelimiter oder FreeSync + VSync?

Welchen konkreten Vorteil hat hierbei das EnhancedSync im Austausch zu VSync?
 
also wenn du tearing hast, ist irgendwas falsch - das gibts faktisch nichtmehr heutzutage ;)

es ist sinnvoll 3-4 fps unter der nativen leistung zu limitieren, d.h. 116-117 fps bei einem 120 hz monitor.
 
Ein wenig Theorie in G-Sync/FreeSync:
Die Bildwiederholrate gibt an wie oft pro Sekunde das Bild auf dem Monitor wechselt.
Angegeben in Hz (Hertz) beim Monitor oder in FPS (Bilder pro Sekunde) bei der Grafikkarte.

Ein normaler Monitor hat in der Regel 60Hz, kann also 60 Bilder pro Sekunde darstellen.
Nun ist dein Rechner (CPU/Grafikkarte usw.) leistungsstark genug, das ein Spiel mit z.B. 134 Hz läuft.
Die Grafikkarte wäre also in der Lage 134 Bilder pro Sekunde auszugeben und macht das auch.

Der Monitor kann aber nur 60Hz, also 60 Bilder pro Sekunde, darstellen.
Das bedeutet das Bilder gerendert werden, z.B. eine Bewegung, du aber nicht jedes Bild davon sehen kannst. Das Bild sieht "unregelmäßig abgehackt" aus. Das nennt man auch Tearing.

Dieses Phänomen ist immer da, wenn die Menge an gerenderten Bildern pro Sekunde nicht mit der Menge an dargestellten Bildern pro Sekunde übereinstimmt.
(Das war jetzt vereinfacht ausgedrückt. Korrekt wäre das in dem Fall zwei oder mehr zeitlich unterschiedliche Bilder gleichzeitig dargestellt werden, Stichwort z.B. FrameTime oder FramePacing.)

An dieser Stelle könnte man noch Framebuffer, Front- und Backbuffer sowie PageFlip erklären. Das spare ich mir mal...

Jetzt gibt es VSync. Vertikale Synchronisation. Warum vertikal?
Das stammt ursprünglich aus der Zeit der Röhrenmonitore, die noch mit Halbbildern bzw. Zeilensprungverfahren arbeiteten.
Die Grafikkarte liefert erst dann ein neues Bild, sobald das aktuelle Bild vollständig dargestellt ist.
(Bei Röhrenmonitoren also erst dann, wenn der Elektronenstrahl Zeile für Zeile durchgegangen ist und vertikal wieder zurückspringt, um mit dem nächsten Bild weiterzumachen.)

VSync bedeutet das die Grafikkarte künstlich "gedrosselt" wird und maximal nur so viele Bilder berechnet und ausgibt wie der Monitor tatsächlich darstellen kann.
Also z.B. 60 Bilder pro Sekunde. Das sieht dann weniger "abgehackt" aus. Das führt aber dazu das Bewegungen gleichmäßig "ruckeln" und die Latenz kann bzw. wird ansteigen.

Seltsamerweise ist man es bei Kinofilmen gewohnt das diese mit sogar nur 24 bzw. 25 Bildern pro Sekunde laufen. Bei Computerspielen wird das aber als störend empfunden...
Achtung. Das kann natürlich trotzdem heißen das ein Spiel mit weniger FPS gerendert wird als der Monitor darstellt.

Nun gibt es ein verbessertes System: Adaptive Sync. Das ist Teil des VESA-Standards (Video Electronics Standards Association) seit 2009.
Aber natürlich bieten die beiden großen Hersteller entsprechende, eigene Lösungen an:
nVidia nennt es G-Sync, AMD nennt es FreeSync. Beide Systeme sind nicht kompatibel untereinander. Beide machen aber das gleiche.
Und sowohl der Monitor als auch die Grafikkarte müssen es beherrschen.

Beide nutzen das sogenannte Blanking-Intervall (VBlanc) des Monitors, zu Deutsch "Austast-Intervall", um die Bildwiederholrate dynamisch bzw. variabel zu gestalten.
Grob gesprochen ist das der Moment zwischen dem Ende der Darstellung eines Frames und dem Beginn der Darstellung eines neuen Frames. (Stammt ebenfalls noch aus der Zeit der Röhrenmonitore.)
nVidia nutzt dazu einen zusätzlichen Hardware-Scaler, der im Monitor verbaut sein muss. AMD kommt ohne aus und orientiert sich näher am VESA Standard Adaptive Sync.

Monitore mit G-Sync sind aufgrund von Lizenzkosten und der notwendigen Zusatzplatine meist etwas teurer als Monitore mit FreeSync.
Seit einiger Zeit unterstützt auch nVidia offiziell FreeSync. Allerdings ist nicht jeder FreeSync-Monitor kompatibel. Es gibt bei nVidia aber eine Liste und hier im Forum gibt es auch eine.
Bei Geizhals kann man mittlerweile auch die Kategorie "NVIDIA G-Sync Compatible" auswählen.

Es gibt nämlich ein weiteres Problem. Die FPS, die gerendert werden, sind nie konstant, sondern schwanken mitunter sehr stark.
Sind nicht viele Objekte usw. im Bild, können mehr Bilder berechnet werden als wenn sehr viel los ist auf dem Bildschirm und du dich auch noch schnell durch diese virtuelle Welt bewegst.

Dieses System sorgt nun dafür das der Monitor genau die Bilder pro Sekunde darstellt, die die Grafikkarte aktuell liefert.
Es gibt also keine feste Bildwiederholrate mehr, sondern sie passt sich kontinuierlich an die FPS, die die Grafikkarte liefert, an.
Natürlich bis zum für den Monitor maximal technisch darstellbaren.

Monitore mit G-Sync oder FreeSync können nämlich oft mehr als 60 Bilder pro Sekunde darstellen. Diese haben meist 144Hz oder mehr.
(Monitore, die mit mehr als 144Hz angegeben werden (z.B. 165Hz), haben oft auch nur ein 144Hz Panel, dass aber quasi "übertaktet" wird.
Eine Technik, die man seit Jahren von Fernsehern kennt, bei denen das Panel auch gerne übersteuert wird.)

Warum eigentlich die krumme Zahl 144Hz? Das nennt man auch "Triple Flash", entspricht 3x48Hz und stammt ursprünglich aus der Kino-Technik.
Normale Kinofilme (auf den jahrzehntelang üblichen Filmrollen) laufen mit 24 Bildern pro Sekunde, wobei aber jedes Bild zweimal dargestellt wird durch einen Shutter.
Auf der Leinwand kommen also 48 Bilder pro Sekunde an. Bei einer modernen Digitalprojektion funktioniert das etwas anders.

Wird das Spiel konstant mit mehr als 144Hz gerendert, hast du wieder das gleiche Problem wie ohne G-Sync/FreeSync.
Da diese Monitore aber fast immer eine entsprechend hohe Auflösung haben und der Spieler die Einstellungen der Spiele entsprechend höher dreht (weil die Darstellung flüssiger aussieht),
spielt das aber kaum eine Rolle.

Input Lag ist wieder was anderes und hat nichts mit dem oben genannten zu tun.
Input Lag bedeutet nichts anderes als die Zeit, die vergeht, bis das gerenderte Bild, von der Grafikkarte kommend, im Monitor verarbeitet, dargestellt und in deinen Augen angekommen ist.
Oder anders formuliert, die Latenz zwischen der Mausbewegung und der wahrgenommenen Bewegung auf dem Bildschirm.

Das hat nichts mit dem verbauten Panel-Typ zu tun, also TN, IPS, VA usw.
Diese unterscheiden sich in der Art wie sie letztlich ein sichtbares Bild erzeugen, haben unterschiedliche Kontrastwerte, sind unterschiedlich schnell und unterschiedlich farbecht.
IPS Panels haben - grob gesprochen - die besseren Farben, VA Panels den besseren Kontrast.

Zusammenfassung:

- Kein G-Sync/FreeSync, kein VSync: Feste Bildwiederholrate, variable FPS.
Schnelle Darstellung, aber immer Tearing. Je nach Rechner, Bildschirm, Spiel und Einstellung unterschiedlich stark, aber immer da.

- Kein G-Sync/FreeSync, VSync: Feste Bildwiederholrate, feste FPS.
Kein Tearing, aber eine scheinbar langsame und gleichmäßig ruckelnde Darstellung. Vor allem bei Monitoren mit nur 60Hz.
Weniger störend als Tearing, aber vor allem bei schnellen Bewegungen wie Shootern usw. durchaus störend, weil Bewegungen langsamer erscheinen.

- G-Sync/FreeSync: Variable Bildwiederholrate, variable FPS.
Beide immer gleich laufend, bis zum maximal möglichen des Monitors.
Kein Tearing, kein Ruckeln, eine schnelle und flüssige Darstellung.

PS:
Es gibt auch noch Fast Sync. Das lasse ich an dieser Stelle aber mal außen vor.
Fast Sync ist im Grunde ein leicht verbessertes Adaptive Sync, kommt aber nicht an die Qualität von G-Sync oder FreeSync heran.

Bei manchen Spielen ist es auch hilfreich ein Frame-Limit einzustellen.
Manche Spiele haben bereits ab Werk einen fest eingebauten/eingestellten FrameLimiter laufen, sieht man oft z.B. bei Konsolen-Portierungen.

Und G-Sync/FreeSync arbeitet nur in einem bestimmten FPS-Bereich. Liegen die FPS darunter oder darüber, greift das System nicht mehr.
Diese Range ist bei FreeSync oft kleiner als bei G-Sync.
Grundlagen halt...

Es gibt VSync (vertikale Synchronisation und HSync (horizontale Synchronisation).
Das verhindert - grob gesprochen - eine Aktualisierung des Monitorbildes, während der Monitor noch damit beschäftigt ist ein Bild bzw. Frame darzustellen.

Probleme kann es dann geben, wenn die Grafikkarte weniger Frames pro Sekunde liefert als der Monitor darstellen kann.
Das führt zu einer steigenden Latenz, das Monitorbild hinkt also permanent hinterher. Das will man in der Regel nicht haben.

Ich sehen das so:
G-Sync oder FreeSync + VSync macht keinen Sinn.
In der Regel wird empfohlen im Grafikkarten-Treiber und Monitor G-Sync/FreeSync zu aktivieren und im Spiel VSync zu deaktivieren.
VSync heißt das man letztlich gegen G-Sync/FreeSync arbeitet.

Sinnvoll wäre lediglich einen Framelimiter laufen zu lassen, damit man nicht nach oben aus der Range von G-Sync/FreeSync rausfällt und somit wieder Tearing hätte.
Dazu sollte man so einen Limiter 2-4 FPS niedriger einstellen als das Maximum das der Monitor kann, beispielsweise bei einem 144Hz Bildschirm stellt man 141Hz als Limit ein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Joker (AC)
ShiftC schrieb:
Nun wird in vielen Beiträgen empfohlen, neben dem adaptiven Sync nicht nur zusätzlich das VSync zu aktivieren, sondern auch noch einen Framelimiter. Mir erschließt sich hierbei die Logik bzw. der Nutzen nicht ganz.

Die Logik erschließt sich mir auch nicht, habe ich aber auch noch nicht gelesen. Natürlich hat man Adaptive Sync/FreeSync/G-Sync an, dafür hat man sich einen entsprechenden Monitor gekauft.

Danach hat sich für mich in der Praxis im Wesentlichen ein Framelimiter bewährt, den ich je nach Spiel unterschiedlich einstelle und immer als erstes den im Spiel nutze, wenn es dort einen gibt. Bei 144Hz habe ich den in iRacing integrierten beispielsweise auf 140 stehen.

Den Limiter im AMD-Treiber habe ich auf 100 gestellt, was aber nur bei Vollbild DX zieht. Einfach weil ich darüber meist eh nichts mehr merke oder höhere Bildraten aufgrund hoher Details ohnehin nur erreiche wenn ich in den Himmel schaue und mir je nach Spiel das Framepacing zu unrund wird, wenn sich die Bildraten je nach Aktion in kürzester Zeit mehr als halbieren.

Am Ende nutze ich VSYNC nur, wenn nichts anderes funktioniert damit mir nicht die Gläser in irgendwelchen Menüs bei 3000fps Spulenfiepen zerspringen.

Irgendwas mit 250fps spielen zu wollen auf einem Display das nur "144 Hz" kann ohne das es Tearing gibt, ist einfach nicht mein Szenario und scheint mir physikalisch nicht plausibel.
 
ShiftC schrieb:
Nun wird in vielen Beiträgen empfohlen, neben dem adaptiven Sync nicht nur zusätzlich das VSync zu aktivieren, sondern auch noch einen Framelimiter.
ShiftC schrieb:
In einigen Beiträgen wird sogar empfohlen, dass man FreeSync + EnhancedSync + Framelimiter nutzt.
Ist dem so? Das ergibt mMn. wenig Sinn ..
 
Vsync ist Quatsch. Mach Freesync an und setz nen globales Framelimit unterhalb der Wiederholrate vom Monitor, bzw setz es nur so hoch wie es Deine GPU smooth schafft. Ich fahr zB mit nem 80FPS Limit (GPU würde zB 100FPS auf Anschlag packen) auf nem 165Hz Monitor weil die GPU je nach Game einfach nichtvielmehr schafft und es dann zu Rucklern kommt wenn die GPU auf Vollast fährt.
 
KnolleJupp schrieb:
G-Sync oder FreeSync + VSync macht keinen Sinn.

bondki schrieb:
Vsync und VRR beißt sich, Just fyi

Drewkev schrieb:
Ist dem so? Das ergibt mMn. wenig Sinn ..

Ist tatsächlich so, weil es wie bereits im Eingangspost erwähnt auf die Frametimevarianz ankommt.
Innerhalb des adaptiven Syncbereichs kann die Bildzeit der einzelnen Frames variieren. D.h. spontane Spikes, die rechnerisch zu einer avg fps sowohl überhalb als auch unterhalb der Range landen.

Durchschnittliche 144 Bilder pro Sekunde, die eine durchschnittliche Bildzeit von 6,9 ms haben, bedeuten ja nicht, dass jedes dieser Bilder auch tatsächlich eine frametime von 6,9 ms hatten. Hierdrunter können auch Bilder sein, die zu früh fertig werden, sodass sich daraus eine avg fps über 144 ergeben kann und sich vordrängeln.
Bei FreeSync oder G-Sync wird dieses Vordrängeln auch innerhalb der Range zugelassen, sodass es immer noch zu einem tearing kommen kann.
Wenn man hier zeitgleich V-Sync aktiv hat, wird dieses zu früh gerenderte Bild in das richtige Raster eingeschoben. Es kommt hier auch nicht zu einem InputLag, weil es bezogen auf die Refreshrate des Monitors nicht zu einer Verzögerung kommt.

Kann man alles hier nachlesen.

Naja, ich glaube am Ende habe ich mir die Frage selbst beantwortet :daumen: (ne kleine Unsicherheit ist aber weiterhin noch da).
Mit FreeSync oder G-Sync wird zunächst das adaptive Sync eingeschaltet. Das zusätzliche VSync sorgt dafür, dass Frametimevarianzen auch innerhalb der Range zu keinem Tearing führen.
Der zusätzliche Framelimiter sorgt dafür, dass die Frames stets unterhalb der oberen Rangegrenze bleiben. VSync würde auch hier als Framelimiter fungieren, aber eine Inputlatenz mit sich bringen.

AMD selbst empfiehlt z.B. auch hier die Nutzung von beiden Optionen zusammen:

Nachtrag:
Hier kann man übrigens auch wunderbar sehen, dass man auch mit G-Sync + Framelimiter Tearing haben kann. Deswegen wird zusätzlich das VSync aktiviert, um das Tearing innerhalb der Range zu vermeiden.


Nachtrag 2: Hier in diesem recht neuen Artikel steht das auch noch mal drin. Dort wird ebenfalls auf die Quelle verwiesen, die ich als erstes erwähnt hatte.

Um das ganze nochmal kurz zusammenzufassen:
G-Sync/FreeSync kann selbst innerhalb der Range weiterhin zu Tearing führen. Daher wird zusätzlich VSync aktiviert, um das zu verhindern. Dies bringt aber die Gefahr, dass bei fps = Hz oder fps > Hz ein vsync-typischer Inputlag entsteht. Deswegen wird ein Framelimiter eingesetzt (idealerweise ingame, da niedrigste Latenz weil enginenah).
So bewegt man sich stets innerhalb der Range, hat definitiv kein Tearing und keine Inputlatenz durch VSync.

Für smoothest Gameplay gilt dann:
G-Sync/FreeSync + VSync (ingame bevorzugt) + Framelimiter (ingame bevorzugt)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wirzar, Schweiny, Shir Khan und eine weitere Person
ShiftC schrieb:
G-Sync/FreeSync kann selbst innerhalb der Range weiterhin zu Tearing führen.
Daher wird zusätzlich VSync aktiviert, um das zu verhindern....

Deswegen wird ein Framelimiter eingesetzt ...

So bewegt man sich stets innerhalb der Range, hat definitiv kein Tearing und keine Inputlatenz durch VSync.

Irgendwie widerspricht sich der erste und der letzte Satz:

"... selbst innerhalb der Range weiterhin zu Tearing ..." vs "... innerhalb der Range, hat definitiv kein Tearing ..."

Bitte um genauere Erklärung so ist das ganze sehr widersprüchlich.
 
Die eine Range bezieht sich auf die maximale Bildwiederholrate des Monitors bezüglich Vsync, die andere Range auf die des AdaptiveSync.

Wir halten zunächst fest: Selbst mit aktivem FreeSync oder G-Sync kann es zu Tearing kommen, weil es selbst innerhalb der dynamisch angepassten Bildwiderholrate zu Varianzen in den Frametimes kommen kann.
Die fps zu begrenzen, hebt dieses Problem nicht auf. Der fps Begrenzer verhindert lediglich das Tearing, welches durch fps überhalb der 144 herrühren wurde und setzt gleichzeitig ein Zwangskorsett auf, um die AdaptiveSync Zone nicht zu verlassen.

An dieser Stelle halten wir nochmal fest: G-Sync/FreeSync + FPS-Limiter können weiterhin zu Tearing führen.

Aus diesem Grund wird noch zusätzlich VSync eingeschaltet, welches das Tearing innerhalb der G-Sync/FreeSync Range verhindert. Gleichzeitig verhindert der FPS-Limiter, dass überhalb der 144 Hz Zone die durch VSync herrührende Inputlatenz eintrifft.

Der zusätzliche FPS-Limiter hat hier also zwei Aufgaben:
1) Dafür zu sorgen, dass man sich innerhalb der AdaptiveSync Zone aufhält
2) Dass es durch 1) nicht zu einem Inputlag verursacht von VSync kommen kann

Das zusätzliche VSync hat dann die Aufgabe, Tearing innerhalb der AdaptiveSync Zone vollständig aufzuheben, ohne zusätzliche Latenz zu verursachen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Dir ist schon bewusst, dass V-Sync dafür sorgt, dass die Frames, sobald du nicht die max halten kannst, auf den nächst kleineren Nenner des Monitors geschraubt werden, was VRR wiederrum ad absurdum führt?
 
Nein, tut es nicht. Warum?
Weil hier die dynamische Bildwiederholrate greift. Erst, wenn die Bilder selbst innerhalb dieses Rahmens aus der Reihe tanzen, greift das VSync und rückt sie in das richtige Zeitraster ein.

Lies bitte die Quellen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Wie ich schon versucht habe weiter oben zu erklären,
wenn du VSync aktivierst, hast du selbstverständlich kein Tearing mehr. Aber G-Sync/FreeSync arbeitet dann auch nicht mehr wie es gedacht ist.
Ist am Ende also kontraproduktiv.

Ach ja, kleine Anmerkung: Im ersten Beitrag fragst du ob es Sinn macht VSync zusätzlich zu G-Sync/FreeSync zu aktivieren und weiter unten
verteidigst du dieses Vorhaben. Wenn du so davon überzeugt bist, warum dann fragen?

G-Sync/FreeSync an, VSync aus, optional Framelimiter knapp unter der maximalen Bildwiederholrate des Monitors einstellen. Fertig.
 
  • Gefällt mir
Reaktionen: Klever
KnolleJupp schrieb:
Wie ich schon versucht habe weiter oben zu erklären,
Wenn du VSync aktivierst, hast du selbstverständlich kein Tearing mehr! Aber G-Sync/FreeSync arbeitet dann auch nicht mehr wie es gedacht ist.
Ist am Ende also kontraproduktiv.
Du hast pauschal einfach Grundlagen gepostet, die mir sowieso schon klar waren. Darüber hinaus stimmt deine Aussage eben nicht. VSync hebelt FreeSync nicht auf!


KnolleJupp schrieb:
Ach ja, kleine Anmerkung: Im ersten Beitrag fragst du ob es Sinn macht VSync zusätzlich zu G-Sync/FreeSync zu aktivieren und weiter unten
verteidigst du dieses Vorhaben. Wenn du so davon überzeugt bist, warum dann fragen?
Weil ich parallel dazu weiterrecherchiert habe und eben zu neuen Erkenntnissen gekommen bin, die ich mit Quellenverweisen auch noch untermaure.

KnolleJupp schrieb:
G-Sync/FreeSync an, VSync aus, optional Framelimiter knapp unter der maximalen Bildwiederholrate des Monitors einstellen. Fertig.
Eben nicht. Quellen lesen!
Ergänzung ()

bondki schrieb:
Deine no-name Links die so ziemlich dem aktuellen Stand der Technik widersprechen? (Und damit der Allgemeinheit)
Werd ich auch nicht.
Blurbusters oder PCGH als No-Name Links zu bezeichnen..
Hast scheinbar auch mehr Ahnung als AMD selbst ;)


Warum fühlst du dich angegriffen und wirst unverschämt? Pubertät?
 
  • Gefällt mir
Reaktionen: Wirzar
Du kannst das selbstverständlich so machen wie du willst.
Ich mache es anders und es funktioniert bei mir wunderbar.
 
Das ist ja auch in Ordnung. Jeder wie er möchte.

Ich habe mich ja selbst anfangs gefragt, was für einen Sinn das haben soll und dachte mit meinem bisherigen Verständnis, dass gleichzeitiges Adaptive- und V-Sync ein Widerspruch ist. Ist es aber halt doch nicht, weil V-Sync während der AdaptiveSync Zone nur dann greift, wenn die Frametimes aus der Reihe tanzen.

Ich zitiere mal aus den Quellen, vor denen man sich ja scheinbar schonen will:

  • Enabling the V-SYNC option is recommended to 100% prevent tearing in both the very upper (frametime variances) and very lower (frametime spikes) G-SYNC range. However, unlike framerate limiters, enabling the V-SYNC option will not keep the framerate within the G-SYNC range at all time.


  • Setting a minimum -3 FPS limit below the max refresh rate is recommended to keep the framerate within the G-SYNC range at all times, preventing double buffer V-SYNC behavior (and adjoining input lag) with G-SYNC + V-SYNC “On,” or screen-wide tearing (and complete disengagement of G-SYNC) with G-SYNC + V-SYNC “Off” whenever the framerate reaches or exceeds the max refresh rate. However, unlike the V-SYNC option, framerate limiters will not prevent tearing.

Wer sich außerdem schon mit Adaptive Sync, also Freesync oder G-Sync beschäftigt hat, weiß, dass auch dafür ein Framelimit nötig sein kann. Denn wenn die Framerate die maximale Hertz-Grenze des Bildschirms übersteigt, ist Free oder G-Sync schlicht nicht mehr aktiv. Deswegen ist es grundsätzlich richtig, zur dynamischen Bildwiederholrate zusätzlich Vsync zu aktivieren. Ja, ihr habt richtig gehört. Der Tipp sorgt oft für Verwirrung, hier kommt immer die Frage: Wozu brauche ich Vsync, wenn ich doch G-Sync habe? Einfach deswegen, weil es so gedacht ist, beides aktiv zu haben: Keine Angst, wenn das der Fall ist, ist nicht Vsync aktiv, sondern schon die dynamische Bildwiederholrate. Ohne Vsync kann es in der Praxis gelegentlich passieren, dass trotz aktivem G- oder Freesync eben noch Bildrisse auftreten - deswegen: grundsätzlich Vsync zusätzlich anschalten. Egal, ob im Treiber oder im Spielmenü.

Warum aber jetzt dieses Abschweifen zu V-, G- und Freesync? Kratzt ein Spiel mit den Fps an der oberen Hz-Grenze, also etwa mit 144 Fps bei 144 Hz, ist leider Vsync aktiv und nicht mehr Free- oder G-Sync. Daher tritt hier auch der Vsync-Nachteil eines höheren Input Lags auf. Das ist bei 144 Fps zwar nicht mehr allzu wild, aber auch ganz einfach vermeidbar. Um das zu verhindern, ist ein systemweites Framelimit auf zwei Fps unterhalb dieser Grenze empfehlenswert, also bei 144 Hz eben 142 Fps. Dieses Vorgehen haben die Kollegen von Blurbusters nach umfangreichen Messungen und Recherchen schon vor einigen Jahren empfohlen. Auf der Webseite von Blurbusters gibt es den ausführlichen Bericht zum Nachlesen.
 
  • Gefällt mir
Reaktionen: Wirzar
Als ich mir meinen neuen Monitor mit Freesync gekauft hatte musste ich mich auch erstmal belesen wie ich dieses einstelle.
Dabei bin ich auch über einen Artikel gestolbert der exakt dasselbe beschrieben hatte wie es @ShiftC hier ausführt.
Ich habe deswegen auch meine FPS auf 141 begrenzt + Freesync+Vsync aktiviert.
Der Input Lag durch Vsync, der früher bei mir üblich war,ist nicht vorhanden.
 
  • Gefällt mir
Reaktionen: ShiftC
Es ist doch ganz simpel. Wenn dein Monitor 144 Hz mit Adaptive sync hat, dann heißt das, dass der schnellstmögliche Framewechsel 6,94 ms beträgt.

Jetzt kann es durch framtime spikes oder Framepacing Probleme dazu kommen, dass z.B. selbst bei 100 FPS mal wegen eines rucklers der nächste frame schneller kommt, also die 6,94 ms unterschreitet.
In diesem Moment hat man dann zwangsläufig Tearing.

Vsync verhindert das zuverlässig. Ein FPS Limiter verhindert das nicht, weil dieser nur die durchschnittlichen FPS betrachtet und nicht die Varianzen und weil ein FPS limiter vor allem am oberen Grenzbereich nicht garantieren kann, dass die Framerate auch wirklich synchron mit dem Display läuft. Kleinste Varianzen können den sync hier aus dem Ruder bringen, weshalb Vsync einfach zwingend erforderlich ist.

Den zusätzlichen FPS Limiter braucht man, damit Vsync nicht anfängt, weitere Frames zu buffern. Denn im Vsync limit bei in diesem Fall 144 Hz, würde Vsync zwei zusätzliche Frames buffern und somit Lag erzeugen. Das will man ja nicht.


Lange Rede kurzer Sinn. Vsync ist zwingend notwendig. Theoretisch bräuchte man in der Adaptive Sync Range kein Vsync, aber da den Monitor nicht die durchschnittswerte interessieren, sondern wie kurz die schnellstmögliche Bildwechselzeit sein muss, kann man auch innerhalb der Sync range diese Kürzest mögliche Bildwechselzeit unterschreiten und somit tearing erzeugen. Das ist wirklich die ganze Krux an der Sache.

Man muss halt nur garantieren, dass die kürzestmögliche Bildwechselzeit des Monitors niemals unterschritten wird -> Vsync

Letztendlich ist der Job von Vsync also die Framtimes zu begrenzen und ausreißer synchron zum Monitor refresh zu halten, wohingegen der FPS limiter einfach nur dafür sorgt, dass das Buffern von Vsync am oberen Ende der Sync Range nicht einsetzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wirzar und Leereiyuu
lazsniper schrieb:
es ist sinnvoll 3-4 fps unter der nativen leistung zu limitieren, d.h. 116-117 fps bei einem 120 hz monitor.
Ich habe festgestellt, dass macht der AMD Treiber von alleine, hab immer um die 116 FPS bei eingestelltem 120 FPS Limit. :daumen:
 
  • Gefällt mir
Reaktionen: lazsniper
Zurück
Oben