Amd Freesync / NVIDIA G-Sync / Adaptive sync

V

VincentJochum

Gast
Hi,
Ich habe mich bereits über Amd Freesync und NVIDIA G-Sync informiert, doch leider kann ich keine genaueren Informationen zu "Adaptive sync" finden.
Ist diese Technik für AMD und NVIDIA Grafikkarten geeignet?
Ist die Technik ähnlich wie die beiden davor?

Ich bitte um einige Infos, falls ihr euch auskennt...


mfg Vincent Jochum
 
Adaptive Sync ist einfach der Name für die Technologie im VESA Standard, AMDs Freesync entspricht diesem weitestgehend . Ist also nur AMDs Markenname dafür.

G-Sync ist auch ähnlich, arbeitet aber unter anderem anders im Bezug auf den zusätzlichen (Hardware)Scaler.
 
Zuletzt bearbeitet:
Die Bildwiederholrate gibt an, wie oft pro Sekunde das Bild auf dem Monitor wechselt.
Angegeben in Hz (Hertz) beim Monitor oder in FPS (Bilder pro Sekunde) bei der Grafikkarte.

Ein normaler Monitor hat 60Hz, kann also 60 Bilder pro Sekunde darstellen.

Nun ist dein Rechner (CPU/Grafikkarte usw.) leistungsstark genug um, sagen wir mal, CounterStrike mit 134 Hz zu rendern.
Die Grafikkarte wäre also in der Lage 134 Bilder pro Sekunde auszugeben und macht das auch.

Dein Monitor kann aber nur 60Hz, also 60 Bilder pro Sekunde, darstellen.
Das bedeutet, dass Bilder gerendert werden, z.B. eine Bewegung, du aber nicht jedes Bild davon sehen kannst. Das Bild sieht "unregelmäßig abgehackt" aus. Das nennt man auch Tearing.

Dieses Phänomen ist immer da, wenn die Menge an gerenderten Bildern pro Sekunde nicht mit der Menge an dargestellten Bildern pro Sekunde übereinstimmt.
(Das war jetzt sehr vereinfacht ausgedrückt. Korrekt wäre es zu sagen das in dem Fall zwei zeitlich unterschiedliche Bilder gleichzeitig dargestellt werden, Stichwort z.B. FrameTime oder FramePacing.)

Jetzt gibt es VSync. Vertikale Synchronisation. Warum vertikal?
Das stammt aus der Zeit der Röhrenmonitore, die noch mit Halbbildern bzw. Zeilensprungverfahren arbeiteten.

VSync bedeutet das die Grafikkarte künstlich "gedrosselt" wird und maximal nur so viele Bilder berechnet und ausgibt wie der Monitor tatsächlich darstellen kann.
Also z.B. 60 Bilder pro Sekunde. Das sieht dann weniger "abgehackt" aus.
Das führt aber dazu das Bewegungen gleichmäßig "ruckeln".

Seltsamerweise ist man es bei Kinofilmen gewohnt das diese sogar nur mit 24 bzw. 25 Bildern pro Sekunde laufen. Bei Computerspielen wird das aber als störend empfunden...
Achtung. Das kann natürlich trotzdem heißen das ein Spiel mit weniger FPS gerendert wird als der Monitor darstellt.

Nun gibt es ein verbessertes System: Adaptive VSync.
nVidia nennt es G-Sync, AMD nennt es FreeSync. Beide Systeme sind nicht kompatibel untereinander. Beide machen aber das gleiche.
Und sowohl der Monitor als auch die Grafikkarte müssen es beherrschen.

Monitore mit G-Sync sind aufgrund von Lizenzkosten meist etwas teurer als Monitore mit FreeSync.

Es gibt nämlich ein weiteres Problem. Die FPS, die gerendert werden, sind nie konstant, sondern schwanken mitunter sehr stark.
Sind nicht viele Objekte usw. im Bild, können mehr Bilder berechnet werden als wenn sehr viel los ist auf dem Bildschirm und du dich auch noch schnell durch diese virtuelle Welt bewegst.

Dieses System sorgt nun dafür das der Monitor genau die Bilder pro Sekunde darstellt die die Grafikkarte aktuell liefert.
Es gibt also keine feste Bildwiederholrate mehr sondern sie passt sich kontinuierlich an die FPS, die die Grafikkarte liefert, an.
Natürlich bis zum für den Monitor maximal technisch darstellbaren.

Monitore mit G-Sync oder FreeSync können nämlich oft mehr als 60 Bilder pro Sekunde darstellen. Diese haben meist 144Hz oder mehr.
(Die Monitore, die mit mehr als 144Hz angegeben werden, haben auch nur ein 144Hz Panel, dass aber quasi "übertaktet" wird.)

Wird das Spiel konstant mit mehr als 144Hz gerendert, hast du wieder das gleiche Problem wie ohne G-Sync/FreeSync.
Da diese Monitore aber fast immer eine entsprechend hohe Auflösung haben und der Spieler die Einstellungen der Spiele entsprechend höher dreht (weil die Darstellung flüssiger aussieht)
spielt das aber kaum eine Rolle.

Input Lag ist wieder was anderes und hat nichts mit dem oben genannten zu tun.
Input Lag bedeutet nichts anderes als die Zeit, die vergeht, bis das gerenderte Bild, von der Grafikkarte kommend, im Monitor verarbeitet, dargestellt und in deinen Augen angekommen ist.
Oder anders formuliert, die Latenz zwischen der Mausbewegung und der wahrgenommenen Bewegung auf dem Bildschirm.

Das hat nichts mit dem verbauten Panel-Typ zu tun, also TN, IPS, VA usw.
Diese unterscheiden sich in der Art wie sie letztlich ein sichtbares Bild erzeugen, haben unterschiedliche Kontrastwerte, sind unterschiedlich schnell und unterschiedlich farbecht.
IPS Panels haben - sehr grob gesprochen - die besseren Farben, VA Panels den besseren Kontrast.

Zusammenfassung:

Kein G-Sync/FreeSync, kein VSync: Feste Bildwiederholrate, variable FPS.
Schnelle Darstellung, aber immer Tearing. Je nach Rechner, Bildschirm, Spiel und Einstellung unterschiedlich stark, aber immer da.

Kein G-Sync/FreeSync, VSync: Feste Bildwiederholrate, feste FPS.
Kein Tearing, aber eine scheinbar langsame und gleichmäßig ruckelnde Darstellung. Vor allen bei Monitoren mit nur 60Hz.
Weniger störend als Tearing, aber vor allem bei schnellen Bewegungen wie Shootern usw. durchaus störend, weil Bewegungen langsamer erscheinen.

G-Sync/FreeSync: Variable Bildwiederholrate, variable FPS.
Beide immer gleich laufend bis zum maximal möglichen des Monitors.
Kein Tearing, kein Ruckeln, eine schnelle und flüssige Darstellung.

PS:
Es gibt auch noch Fast Sync. Das lasse ich an dieser Stelle aber mal außen vor.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Seby007 und veritas.scabo
Ich bedanke mich für deine Umfangreiche Antwort!
Ich habe vor mir einen 144Hz mit 2560 x 1440 (AOC AGON AG241QX) zu kaufen, und besitze einen Pc mit einer gtx 1080 und einem i7.
Also habe ich das richtig verstanden, Es gibt Gsync und Freesync, und die beiden sind ähnlich....jedoch weiß ich nicht, was es nun mit "Adaptive sync" auf sich hat, weil bei amazon steht nur "adaptive sync" und kein "adaptive Vsync". (https://www.amazon.de/dp/B01LT04C30/ref=twister_B01M9J0LYM?_encoding=UTF8&th=1)
 
  • Gefällt mir
Reaktionen: Fabian2602
Adaptive Sync (VESA Standard) + AMD Lizenz = AMD Freesync (leicht angehobene Anforderungen an die Technik, aber die gleiche Basis). Gsync ist das gleiche (ähnliche Technik), aber leider nicht kompatibel zu den erstgenannten und von NVidia.
 
kurzum du brauchst einen Gsync monitor um den mit der 1080 zu betreiben
 
Du musst - wenn du eine Sync-Technologie nutzen willst, mit einer 1080 einen Monitor mit G-Sync kaufen.
Die gibt es auch schon unter 400 Euro, nur nicht der gewünschte AGON.
 
Achtung:
Der von dir ausgesuchte AOC Agon AG241QX hat FreeSync, würde also nur mit AMD Grafikkarten funktionieren.
Du bräuchtest z.B. das Modell AOC Agon AG241QG https://geizhals.de/aoc-agon-ag241qg-a1476116.html mit G-Sync, passend zu deiner nVidia Grafikkarte.
 
Zuletzt bearbeitet:
Kurz gesagt: bei dem Monitor den du dir ausgesucht hast kannst du, da du eine Nvidia Grafikkarte hast nicht voll ausnutzen. Entweder du verzichtest (würde ich nicht machen) auf Adaptive Sync da du das nur mit einer AMD Grafikkarte benützen kannst, oder du suchst die einen entsprechenden Monitor mit GSync. Alternative 3: verkauf die GTX 1080 und hol die einen Vega 56/64.
mfg
 
Vor wenigen Monaten hätte ich es nicht zugegeben aber eins muss man G-Sync wirklich lassen; Es funktioniert.

Bei Freesync muss man sich bei jedem Monitor ganz genau informieren, der Wirkbereich ist oftmals lächerlich gering oder zweigeteilt (man muss z.b. zwischen FS im Bereich von 40-90fps und 90-144fps manuell umschalten...) oder die Funktion ist fehlerhaft und führt bei bestimmten Frequenzen zu Bildstörungen etc.

AMD hat es versäumt strenge Richtlinien aufzusetzen ab wann ein Hersteller mit Freesync werben darf.

Nvidia macht es richtig aber lässt es sich auch etwas zu gut bezahlen.
 
man kann darum streiten, ob es schlechter ist, dass den monitor-herstellern für freesync so wenig vorgaben gemacht werden, denn das senkt auch die hürde für die hersteller, diese technik einfach zu unterstützen. ich würde sagen: lieber eine range von 48 - 60, als gar keine.
 
Ob G-Sync besser funktioniert als Freesync will ich jetzt nicht gerade behaupten. Ich selbst habe mit G-Sync so meine Probleme.

Gerade das flimmern in den Menüs z.B ist ein Punkt der mich wirklich ärgert. Ich habe knapp 600€ für meinen Monitor ausgegeben. Da erwarte ich einfach das etwas richtig funktioniert aber das ist jetzt wieder eine Grundsatzdiskussion.

Fakt ist für deine NVIDIA macht nur ein G-Sync Monitor Sinn.
 
Grüß euch,

ich hab da mal in einem Forum aufgeschnappt das die Sync-Technologie nur funktioniert wenn man die max. Auflösung nutzt.

Sprich XY-Sync funktioniert nicht wenn ich 1080p auf einem 2K-Monitor spiele.
Kann das jemand bestätigen?

MFG
 
weiß zwar nicht die antwort, ist aber auch nicht wichtig ^^

meinst du mit 2k wqhd?

falls ja: es wird unscharf beim skalieren und sieht dann schlecher aus als full hd nativ.
 
smooth el 4a schrieb:
meinst du mit 2k wqhd?
Jup.

smooth el 4a schrieb:
falls ja: es wird unscharf beim skalieren und sieht dann schlecher aus als full hd nativ
das ist mir klar :D

Frage ist nur ob Free/GSync funktioniert wenn ich am WQHD Bildschirm nur mit 1080p (oder niedriger) Spiele.
Hab nicht die neueste Graka, und werde zukünftige Titel mit WQHD sicher nicht flüßig zum Laufen bringen.

MfG
 
Zurück
Oben