Verständnisfrage zu AMD Freesync

DeadEternity

Captain Pro
Registriert
Aug. 2008
Beiträge
3.715
Moin,

ich plane mir demnächst einen neuen 24" Monitor in FHD mit AMD Freesync zuzulegen. Jetzt habe ich gesehen das es da wohl unterschiedliche Hz Leistung zu unterschiedlichen Preis zu kaufen gibt.

Derzeit schafft meine RX470 8GB bei fast allen Spielen die ich spiele zwischen 80 und 120FPS auf FHD. Sehe ich das richtig, dass es dann am vernünftigesten wäre einen Freesync Monitor zu kaufen der bis 144Hz skaliert statt eines Monitors der lediglich die 75Hz packt ?
 
größere range ist immer von vorteil, möglichst von sehr tief bis sehr hoch :)

musst nur drauf achten ob nur per displayport auch auf hdmi freesync funktioniert, bei den neuen sollte hdmi auch gehen.
 
Je höher die Hz, desto weniger spielt Freesync eine Rolle:

Hohe Hz mit Freesync > Hohe Hz ohne Freesync > Niedrige Hz mit Freesync > Niedrige Hz ohne Freesync
 
Die 470 müsste nen Displayport haben. DP ist immer erste Wahl bei Grafikkarten und macht keine Probleme. DP>HDMI

Ansonsten sollte der Syncrange des Monitors so groß wie möglich sein, mindestens aber den range umfassen, den du üblicherweise mit deinen FPS erreichst (plus Toleranz).
 
Ok, zunächst mal Danke für Eure Antworten. DP und HDMI ist mit der Graka beides möglich. Auch habe ich bei der Radeon Software gesehen das man im Multimonitor Betrieb (bei mir so der Fall) jeden Monitor gesondert mit Freesync ansteuern kann.

Das mit "je höher die Hz, desto weniger spielt Freesync eine Rolle" gilt aber nur wenn die Grafikkarte die entsprechenden FPS auch liefern kann oder verstehe ich das falsch ? Sonst könnte ich ja einfach einen Monitor mit 144Hz und ohne Freesync kaufen (billiger).

Des Weiteren, wenn meine Grafikkarte mehr als 75FPS liefern kann, würde mir ein 48-75Hz Freesync Monitor nicht so wirklich Vorteile bringen, ausser ich läge unter 75FPS/Hz, oder ?
 
Bei 144Hz ist die Abtastrate vom Monitor so hoch, das der Lag durch Vsync maximal 6,9ms sein kann, da bringt einem Free-/G-Sync kaum einen Vorteil.
Ich habe meinen Monitor auf 120Hz und Vsync statt 144Hz mit Gsync laufen. Merke keinen Unterschied. Bei Monitoren die 60Hz oder 75Hz können, kann der Lag durch Vsync schon deutlich höher sein. Auch sind FPS darunter schon als ruckeln sichtbar. Da macht sie Technik einen deutlich spürbaren Unterschied.
 
Zuletzt bearbeitet:
DeadEternity schrieb:
Also zusammgefasst sollte ich entweder einen Monitor ohne Freesync mit 144Hz kaufen, oder wenn mit Freesync dann am besten mindestens 100Hz.

Genau.

Ich habe einen 144Hz Bildschirm mit Freesynch (1440p). Bei Battlefield 1 schwankt die RX Vega56 zwischen 70 und 144fps (habe bei 144 gelocked). Da ich für die Vega ordentlich Geld gebraucht bekommen habe, bin ich auf eine GTX 1080 Ti umgestiegen. Die ist natürlich im Schnitt etwas höher bei den FPS, aber nVidias in BF1 scheinen nicht so konstante FPS zu haben. Trotz das Freesynch nicht unterstützt wird, ist auch hier kaum/kein Tearing vorhanden.
 
Mit dem Hinweis im Gedächtnis, dass ja Freesync-Monitore mit 144Hz range in der regel auch recht weit runter gehen. gerade wenn man mal framedrops hat oder sich im mittleren range befindet ist freesync m.E. nach durchaus spürbar. Wenn Du immer konstant die 144 Hz bzw. entsprechend hohe FPS hast, brauchst Du evt. kein Freesync... aber mit ner 470 landest du garantiert auch mal weiter unten mit den FPS. Und dann wäre es gut, Freesync zu haben...
 
Die Bildwiederholrate gibt an, wie oft pro Sekunde das Bild auf dem Monitor wechselt.
Angegeben in Hz (Hertz) beim Monitor oder in FPS (Bilder pro Sekunde) bei der Grafikkarte.

Ein normaler Monitor hat 60Hz, kann also 60 Bilder pro Sekunde darstellen.

Nun ist dein Rechner (CPU/Grafikkarte usw.) leistungsstark genug um, sagen wir mal, CounterStrike mit 134 Hz zu rendern.
Die Grafikkarte wäre also in der Lage 134 Bilder pro Sekunde auszugeben und macht das auch.

Dein Monitor kann aber nur 60Hz, also 60 Bilder pro Sekunde, darstellen.
Das bedeutet das Bilder gerendert werden, z.B. eine Bewegung, du aber nicht jedes Bild davon sehen kannst. Das Bild sieht "unregelmäßig abgehackt" aus. Das nennt man auch Tearing.

Dieses Phänomen ist immer da, wenn die Menge an gerenderten Bildern pro Sekunde nicht mit der Menge an dargestellten Bildern pro Sekunde übereinstimmt.
(Das war jetzt vereinfacht ausgedrückt. Korrekt wäre das in dem Fall zwei zeitlich unterschiedliche Bilder gleichzeitig dargestellt werden, Stichwort z.B. FrameTime oder FramePacing.)

Jetzt gibt es VSync. Vertikale Synchronisation. Warum vertikal?
Das stammt aus der Zeit der Röhrenmonitore, die noch mit Halbbildern bzw. Zeilensprungverfahren arbeiteten.

VSync bedeutet das die Grafikkarte künstlich "gedrosselt" wird und maximal nur so viele Bilder berechnet und ausgibt wie der Monitor tatsächlich darstellen kann.
Also z.B. 60 Bilder pro Sekunde. Das sieht dann weniger "abgehackt" aus.
Das führt aber dazu das Bewegungen gleichmäßig "ruckeln".

Seltsamerweise ist man es bei Kinofilmen gewohnt das diese mit sogar nur 24 bzw. 25 Bildern pro Sekunde laufen. Bei Computerspielen wird das aber als störend empfunden...
Achtung. Das kann natürlich trotzdem heißen das ein Spiel mit weniger FPS gerendert wird als der Monitor darstellt.

Nun gibt es ein verbessertes System: Adaptive VSync.
nVidia nennt es G-Sync, AMD nennt es FreeSync. Beide Systeme sind nicht kompatibel untereinander. Beide machen aber das gleiche.
Und sowohl der Monitor als auch die Grafikkarte müssen es beherrschen.

Monitore mit G-Sync sind aufgrund von Lizenzkosten meist etwas teurer als Monitore mit FreeSync.

Es gibt nämlich ein weiteres Problem. Die FPS, die gerendert werden, sind nie konstant, sondern schwanken mitunter sehr stark.
Sind nicht viele Objekte usw. im Bild können mehr Bilder berechnet werden, als wenn sehr viel los ist auf dem Bildschirm und du dich auch noch schnell durch diese virtuelle Welt bewegst.

Dieses System sorgt nun dafür das der Monitor genau die Bilder pro Sekunde darstellt, die die Grafikkarte aktuell liefert.
Es gibt also keine feste Bildwiederholrate mehr, sondern sie passt sich kontinuierlich an die FPS, die die Grafikkarte liefert, an.
Natürlich bis zum für den Monitor maximal technisch darstellbaren.

Monitore mit G-Sync oder FreeSync können nämlich oft mehr als 60 Bilder pro Sekunde darstellen. Diese haben meist 144Hz oder mehr.
(Monitore die mit mehr als 144Hz angegeben werden haben auch nur ein 144Hz Panel, dass aber quasi "übertaktet" wird.
Eine Technik die man seit Jahren von Fernsehern kennt, wo das Panel auch gerne übersteuert wird.)

Wird das Spiel konstant mit mehr als 144Hz gerendert, hast du wieder das gleiche Problem wie ohne G-Sync/FreeSync.
Da diese Monitore aber fast immer eine entsprechend hohe Auflösung haben und der Spieler die Einstellungen der Spiele entsprechend höher dreht (weil die Darstellung flüssiger aussieht),
spielt das aber kaum eine Rolle.

Input Lag ist wieder was anderes und hat nichts mit dem oben genannten zu tun.
Input Lag bedeutet nichts anderes als die Zeit, die vergeht, bis das gerenderte Bild, von der Grafikkarte kommend, im Monitor verarbeitet, dargestellt und in deinen Augen angekommen ist.
Oder anders formuliert, die Latenz zwischen der Mausbewegung und der wahrgenommenen Bewegung auf dem Bildschirm.

Das hat nichts mit dem verbauten Panel-Typ zu tun, also TN, IPS, VA usw.
Diese unterscheiden sich in der Art wie sie letztlich ein sichtbares Bild erzeugen, haben unterschiedliche Kontrastwerte, sind unterschiedlich schnell und unterschiedlich farbecht.
IPS Panels haben - grob gesprochen - die besseren Farben, VA Panels den besseren Kontrast.

Zusammenfassung:

Kein G-Sync/FreeSync, kein VSync: Feste Bildwiederholrate, variable FPS.
Schnelle Darstellung, aber immer Tearing. Je nach Rechner, Bildschirm, Spiel und Einstellung unterschiedlich stark, aber immer da.

Kein G-Sync/FreeSync, VSync: Feste Bildwiederholrate, feste FPS.
Kein Tearing, aber eine scheinbar langsame und gleichmäßig ruckelnde Darstellung. Vor allen bei Monitoren mit nur 60Hz.
Weniger störend als Tearing, aber vor allem bei schnellen Bewegungen wie Shootern usw. durchaus störend, weil Bewegungen langsamer erscheinen.

G-Sync/FreeSync: Variable Bildwiederholrate, variable FPS.
Beide immer gleich laufend bis zum maximal möglichen des Monitors.
Kein Tearing, kein Ruckeln, eine schnelle und flüssige Darstellung.

PS:
Es gibt auch noch Fast Sync. Das lasse ich an dieser Stelle aber mal außen vor.
 
Zuletzt bearbeitet:
CastorTransport schrieb:
Genau.
bin ich auf eine GTX 1080 Ti umgestiegen. Die ist natürlich im Schnitt etwas höher bei den FPS, aber nVidias in BF1 scheinen nicht so konstante FPS zu haben. Trotz das Freesynch nicht unterstützt wird, ist auch hier kaum/kein Tearing vorhanden.

Naja, ne 1080ti ist ja auch mindestens eine Klasse höher als eine Vega56 je nach game evt. mehr. Da wundert es nicht, dass praktisch kein Tearing sichtbar ist. Der TE hat eine 470...
 
Zuletzt bearbeitet: (typo)
@Knolle Jupp
Das stimmt so nicht ganz.
Ein 60Hz Monitor schaut alle 16,67ms in den Speicher der Grafikkarte nach einem Bild, was dort abliegt und stellt es dann dar.
Tearing entsteht, wenn zu diesem Zeitpunkt die Grafikkarte das vorhandene Bild durch ein neu berechnetes Bild überschreibt.
Bei Vsync wartet die Grafikkarte darauf ein neues Bild zu berechnen, bis der Monitor das Bild aus dem Speicher holt. Das heißt die Berechnung pausiert von dem Zeitpunkt an, an dem as Bild in den Speicher gelegt wird bis zu dem Zeitpunkt, an dem der Monitor das abholt. Wegen der gestoppten Berechnung entsteht in Spielen ein Lag der maximal dieser Periodendauer entspricht. Je höher die Hz Zahl des Monitors desto geringer das Lag.

Der Input Lag, also die Zeit die vergeht, bis der Monitor das Bild dann auch darstellt kommt noch on top.
 
Zurück
Oben