Unterschied Adaptives- zu G-Sync?

Kickstart

Lieutenant
Registriert
Juli 2014
Beiträge
874
Nabend!
Ich nutze schon länger Adaptives Sync und bin eigentlich happy damit da Tearing nicht mehr auftritt.
Aber wo ist der Unterscheid zu gSync?
Aktuell läuft mein System meist mit 60FPS entsprechend den Monitoren,
jedoch fällt die Zahl auch mal unter die 60 und trotzdem tritt kein Tearing auf.

Oder wo ist der Nachteil von Adaptivem zu gSync?

Grüße Manuel
 
FPS < Hz führt zu nicht so stark sichtbarem Tearing, weil es nur alle zwei, drei.. Frame auftritt. Dafür bekommt man Microruckler, da manche Frames doppelt bzw. länger als 1/Hz dargestellt werden.
Das Spiel "fühlt" sich dann einfach unrunder an. Zumindest geht es mit so ;)
 
Zuletzt bearbeitet:
V-Sync bzw adaptive V-Sync arbeitet mit ner festen Frequenz währen G-Sync und FreeSync variable arbeiten. V-Sync arbeitet mit der festen Wiederholfrequenz deines Displays, bei adaptive V-Sync wird V-Sync deaktiviert sobald du unter die feste Frequenz fällst, wenns wieder auf die Frequenz oder drüber geht greift V-Sync wieder. Tearing oder Input-Lag durch Framedrops wird auch von adaptiven V-Sync nicht verhindert, eher im Gegenteil: Sobald du unter 60fps fällst bei nem 60hz Panel tritt Tearing auf, aber du knallst halt nich auf 30fps runter

Der einzige Vorteil von adaptivem V-Sync gegenüber V-Sync ist das du bei sagen wir mal nem 60hz Panel nicht direkt auf 30fps fest genagelt wirst wenn die Framerate unter 60 droppt. Das wars aber auch schon.
 
Gsync funktioniert nur mit nvidia grafikkarten und monitoren mit eingebautem gsync modul. Außerdem sind diese meistens teurer.
 
Janz schrieb:
V-Sync bzw adaptive V-Sync arbeitet mit ner festen Frequenz währen G-Sync und FreeSync variable arbeiten.
Öhm, falsch... FreeSync ist die AMD Implementierung von Adaptive Sync (ohne nem V mit drin) und an sich unterscheiden sich Adaptive Sync und G-Sync nicht wirklich, außer das G-Sync die proprietäre Lösung von NVidia ist die nur mit ihren Karten geht während sie sich weigern den VESA Standard Adaptive Sync zu unterstützen (außer in Notebooks)
 
  • Gefällt mir
Reaktionen: CyberdyneSystem
Aus dem Kontext glaube ich das der TE Adaptive V-Sync meint.
 
@Jesterfox
Hatte erst den gleichen Gedanken gehabt.
Doch da der TE meint er nutzt das schon länger und in seiner Sig ist eine 980ti, kann eigentlich nur Adaptiv V-Sync aus dem Nvidiatreiber gemeint sein.
Das hat @Janz schon richtig erkannt. Ist dennoch etwas unglücklich vom TE geschrieben worden.
 
Ach stimmt das komische Zeug gabs ja auch noch... hab ich schon wieder verdrängt weil ichs für sinnlos erachte V-Sync nur dann an zu haben wenn man mehr FPS als HZ hat und es Input Lag erzeugt und dann abzuschalten wenn die FPS fehlen und man das Tearing besonders deutlich sieht...
 
Adaptive Sync ist Teil des VESA Standards seit 2009.

Die Bildwiederholrate gibt an, wie oft pro Sekunde das Bild auf dem Monitor wechselt.
Angegeben in Hz (Hertz) beim Monitor oder in FPS (Bilder pro Sekunde) bei der Grafikkarte.

Ein normaler Monitor - wie deiner - hat 60Hz, kann also 60 Bilder pro Sekunde darstellen.
Nun ist dein Rechner (CPU/Grafikkarte usw.) leistungsstark genug, um - sagen wir mal - CounterStrike mit 134 Hz zu rendern.
Die Grafikkarte wäre also in der Lage 134 Bilder pro Sekunde auszugeben und macht das auch.

Dein Monitor kann aber nur 60Hz, also 60 Bilder pro Sekunde, darstellen.
Das bedeutet das Bilder gerendert werden, z.B. eine Bewegung, du aber nicht jedes Bild davon sehen kannst. Das Bild sieht "unregelmäßig abgehackt" aus. Das nennt man auch Tearing.

Dieses Phänomen ist immer da, wenn die Menge an gerenderten Bildern pro Sekunde nicht mit der Menge an dargestellten Bildern pro Sekunde übereinstimmt.
(Das war jetzt vereinfacht ausgedrückt. Korrekt wäre das in dem Fall zwei zeitlich unterschiedliche Bilder gleichzeitig dargestellt werden, Stichwort z.B. FrameTime oder FramePacing.)

Jetzt gibt es VSync. Vertikale Synchronisation. Warum vertikal?
Das stammt aus der Zeit der Röhrenmonitore, die noch mit Halbbildern bzw. Zeilensprungverfahren arbeiteten.

VSync bedeutet das die Grafikkarte künstlich "gedrosselt" wird und maximal nur so viele Bilder berechnet und ausgibt wie der Monitor tatsächlich darstellen kann.
Also z.B. 60 Bilder pro Sekunde. Das sieht dann weniger "abgehackt" aus.
Das führt aber dazu das Bewegungen gleichmäßig "ruckeln".

Seltsamerweise ist man es bei Kinofilmen gewohnt das diese mit sogar nur 24 bzw. 25 Bildern pro Sekunde laufen. Bei Computerspielen wird das aber als störend empfunden...
Achtung. Das kann natürlich trotzdem heißen das ein Spiel mit weniger FPS gerendert wird als der Monitor darstellt.

Nun gibt es ein verbessertes System: Adaptive Sync.
nVidia nennt es G-Sync, AMD nennt es FreeSync. Beide Systeme sind nicht kompatibel untereinander. Beide machen aber das gleiche.
Und sowohl der Monitor als auch die Grafikkarte müssen es beherrschen.

Beide nutzen das Blanking-Intervall zu Deutsch Austastintervall (VBLANC), um die Bildwiederholrate dynamisch bzw. variabel zu gestalten.
Grob gesprochen ist das der Moment zwischen dem Ende der Darstellung eines Frames und dem Beginn der Darstellung eines neuen Frames. (Stammt ebenfalls noch aus der Zeit der Röhrenmonitore.)
nVidia nutzt dazu einen zusätzlichen Scaler, der im Monitor verbaut sein muss. AMD kommt ohne aus und orientiert sich näher am VESA Standard Adaptive Sync.

Monitore mit G-Sync sind aufgrund von Lizenzkosten und der notwendigen Zusatzplatine meist etwas teurer als Monitore mit FreeSync.

Es gibt nämlich ein weiteres Problem. Die FPS, die gerendert werden, sind nie konstant, sondern schwanken mitunter sehr stark.
Sind nicht viele Objekte usw. im Bild, können mehr Bilder berechnet werden, als wenn sehr viel los ist auf dem Bildschirm und du dich auch noch schnell durch diese virtuelle Welt bewegst.

Dieses System sorgt nun dafür das der Monitor genau die Bilder pro Sekunde darstellt, die die Grafikkarte aktuell liefert.
Es gibt also keine feste Bildwiederholrate mehr, sondern sie passt sich kontinuierlich an die FPS, die die Grafikkarte liefert, an.
Natürlich bis zum für den Monitor maximal technisch darstellbaren.

Monitore mit G-Sync oder FreeSync können nämlich oft mehr als 60 Bilder pro Sekunde darstellen. Diese haben meist 144Hz oder mehr.
(Monitore, die mit mehr als 144Hz angegeben werden (z.B. 165Hz), haben auch nur ein 144Hz Panel, dass aber quasi "übertaktet" wird.
Eine Technik, die man seit Jahren von Fernsehern kennt, bei denen das Panel auch gerne übersteuert wird.)

Wird das Spiel konstant mit mehr als 144Hz gerendert, hast du wieder das gleiche Problem wie ohne G-Sync/FreeSync.
Da diese Monitore aber fast immer eine entsprechend hohe Auflösung haben und der Spieler die Einstellungen der Spiele entsprechend höher dreht (weil die Darstellung flüssiger aussieht),
spielt das aber kaum eine Rolle.

Input Lag ist wieder was anderes und hat nichts mit dem oben genannten zu tun.
Input Lag bedeutet nichts anderes als die Zeit, die vergeht, bis das gerenderte Bild, von der Grafikkarte kommend, im Monitor verarbeitet, dargestellt und in deinen Augen angekommen ist.
Oder anders formuliert, die Latenz zwischen der Mausbewegung und der wahrgenommenen Bewegung auf dem Bildschirm.

Das hat nichts mit dem verbauten Panel-Typ zu tun, also TN, IPS, VA usw.
Diese unterscheiden sich in der Art wie sie letztlich ein sichtbares Bild erzeugen, haben unterschiedliche Kontrastwerte, sind unterschiedlich schnell und unterschiedlich farbecht.
IPS Panels haben - grob gesprochen - die besseren Farben, VA Panels den besseren Kontrast.

Zusammenfassung:

- Kein G-Sync/FreeSync, kein VSync: Feste Bildwiederholrate, variable FPS.
Schnelle Darstellung, aber immer Tearing. Je nach Rechner, Bildschirm, Spiel und Einstellung unterschiedlich stark, aber immer da.

- Kein G-Sync/FreeSync, VSync: Feste Bildwiederholrate, feste FPS.
Kein Tearing, aber eine scheinbar langsame und gleichmäßig ruckelnde Darstellung. Vor allem bei Monitoren mit nur 60Hz.
Weniger störend als Tearing, aber vor allem bei schnellen Bewegungen wie Shootern usw. durchaus störend, weil Bewegungen langsamer erscheinen.

- G-Sync/FreeSync: Variable Bildwiederholrate, variable FPS.
Beide immer gleich laufend, bis zum maximal möglichen des Monitors.
Kein Tearing, kein Ruckeln, eine schnelle und flüssige Darstellung.

PS:
Es gibt auch noch Fast Sync. Das lasse ich an dieser Stelle aber mal außen vor.

Bei manchen Spielen ist es auch hilfreich ein Frame-Limit einzustellen.
Und G-Sync/FreeSync arbeiten in der Regel nur ein einem bestimmten Bereich. Liegen die FPS darunter oder darüber, greift das System nicht mehr.
Diese Range ist bei FreeSync oft kleiner als bei G-Sync.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: g0dy und Darkseth88
Es ist immer noch besser als normales Vsync und spart sogar Energie und reduziert Wärme. Es hatte seine Zeit, ist aber heute natürlich Freesync und Gsync unterlegen.
 
KnolleJupp schrieb:
s gibt auch noch Fast Sync. Das lasse ich an dieser Stelle aber mal außen vor.

Bei manchen Spielen ist es auch hilfreich ein Frame-Limit einzustellen.
Fast Sync ist einfach gesagt ein verbessertes V-Sync und die beste Variante wenn man kein variables Sync zur Verfügung hat. Framelimiter ist die 2. beste Variante, dann kommt reines V-Sync und das Schlusslicht bildet adaptive V-Sync ;-)
 
Jesterfox schrieb:
Framelimiter ist die 2. beste Variante,
Hat man mit einem reinen Limiter nicht Tearing? Denn wenn er auf die Hz Syncen würde, wäre es ja normales Dual-Buffer VSync?
 
Nilson schrieb:
Hat man mit einem reinen Limiter nicht Tearing? Denn wenn er auf die Hz Syncen würde, wäre es ja normales Dual-Buffer VSync?

Adaptives Vsync ist doch ein Framelimiter über den Ziel FPS und unten drunter normales Vsync.
 
Da ich kein gSync habe, sollte das doch die optimale Möglichkeit haben gegen das Tearing an zu kommen, oder ensteht dadurch Inputlag? Doch sicher nicht mehr als 16,6ms (60Hz), oder?
2018-09-25 07_36_08-Greenshot.png
 
Okay, und was bedeutet schnell?
 
Bei normalen VSync muss die Graka warten bis das fertige Bild vom Back in den Front-Buffer geladen wird. Dieses Warten verrusacht einen Inputlag.
Bei Fast-Sync gibts noch einen dritten Zwischenspeicher in dem der fertige Frame gespeichert wird. Dadurch steht der Backbuffer direkt wieder der GPU für den nächten Frame zu Verfügung, was den Inputlag reduziert. Dafür arbeitet die GPU immer auf 100% und rechnet ab und zu ein Frame "zu viel".
 
  • Gefällt mir
Reaktionen: Kickstart
Zurück
Oben