Free- ,V- und G-Sync

Hinty60

Cadet 4th Year
Registriert
Sep. 2016
Beiträge
124
Hi Leute,

Ich möchte mir einen WQHD Monitor zulegen mit 144Hz.
Bin Momentan noch auf FullHD und 60Hz unterwegs und möchte das von allen gelobte 144Hz gaming auch geniessen :)
Die Frage bezieht sich aber auf den Titel.

Kann mir jemand erklären (für dumme :D) wo die unterschiede zwischen den dreien ist und ob man es beim zocken eingeschaltet haben sollte. Und welchen Unterschied macht das beim Spielen ob es ein oder aus ist?


Kurze Frage nebenbei rein auf gaming bezogen : 1440p oder 4K ? Was sagt ihr ?
 
4K und 144 Hz ist technisch noch nicht möglich... Daher ruhig 1440p - bin auch vor einem Jahr umgestiegen...
Bezüglich der drei Themen gibt's hier einen Artikel... V-Sync zeigt immer vollständige Bilder an, ist keins fertig, wird das alte angezeigt => InputLag... G-Sync (nVidia) und FreeSync (AMD) zeigen auch nur vollständige Bilder an aber jedes Mal, wenn die Grafikkarte meldet, dass sie fertig berechnet hat (V-Sync ohne InputLag)... Gibt aber hier auch interessante Artikel dazu, die das alles genau beschreiben...
 
Was fürne Grafikkarte hast du?
 
T3mp3sT1187 schrieb:
4K und 144 Hz ist technisch noch nicht möglich...

Ist es schon, Dell hat im Profibereich einen entsprechenden Monitor. Aber du willst dafür keine 4000€ ausgeben. Den hätte ich selber gerne, aber nicht für diesen Preis.

Und nein, ich meine nicht den vor einer Weile gezeigten Dell mit 4k@120 Hz.
 
OffTopic!

@ChrisM: Hast du mehr Informationen dazu? Bezüglich verwendeter Schnittstelle usw?!

Ich wollte damit nicht sagen, dass es gar nicht geht, sondern nur, dass es aktuell noch nicht soweit ist, 144Hz@WQHD kostet schon ordentlich Aufpreis, weils nicht Standard ist :) Doof ausgedrückt ;)
 
T3mp3sT1187 schrieb:
@ChrisM: Hast du mehr Informationen dazu? Bezüglich verwendeter Schnittstelle usw?!

OT: Ich habe die Info von einem Kumpel von mir (Fachinformatiker), da ich auf der Suche nach einem brauchbaren neuen Monitor bin, ich will endlich mein 60Hz TN-Panel loswerden. :)
Er meinte dazu aber, dass er nicht mal alle Specs sieht, da wohl nur die Premiumkunden bzw. Großabnehmer von Dell diese Monitore auch bestellen können und das wohl nur in größeren Stückzahlen. Er vermutet aber mindestens DP 1.3, für DP 1.4 könnte er noch zu neu sein.

Ich meine, es sei ein Modell aus der Ultrasharp-Serie gewesen, bin mir aber gerade nicht sicher, ist ein paar Wochen schon her. Dazu sollen wohl auch zwei Widescreen-Monitore auf deren Shopseite gewesen sein, aber wohl leider unbrauchbar für uns Zocker aufgrund der Reaktionen (Monitore für den Grafiker-Bereich).
 
Zuletzt bearbeitet:
Die Bildwiederholrate gibt an wie oft pro Sekunde das Bild auf dem Monitor wechselt.
Angegeben in Hz (Hertz) beim Monitor oder in FPS (Bilder pro Sekunde) bei der Grafikkarte.

Ein normaler Monitor hat 60Hz, kann also 60 Bilder pro Sekunde darstellen.

Nun ist dein Rechner (CPU/Grafikkarte usw.) leistungsstark genug um, sagen wir mal, CounterStrike mit 134 Hz zu rendern.
Die Grafikkarte wäre also in der Lage 134 Bilder pro Sekunde auszugeben und macht das auch.

Dein Monitor kann aber nur 60Hz, also 60 Bilder pro Sekunde, darstellen.
Das bedeutet, dass Bilder gerendert werden, z.B. eine Bewegung, du aber nicht jedes Bild davon sehen kannst. Das Bild sieht "unregelmäßig abgehackt" aus. Das nennt man auch Tearing.

Dieses Phänomen ist immer da, wenn die Menge an gerenderten Bildern pro Sekunde nicht mit der Menge an dargestellten Bildern pro Sekunde übereinstimmt.
(Das war jetzt sehr vereinfacht ausgedrückt, korrekt wäre es zu sagen das in dem Fall zwei zeitlich unterschiedliche Bilder gleichzeitig dargestellt werden, Stichwort z.B. FrameTime oder FramePacing.)

Jetzt gibt es VSync. Vertikale Synchronisation. Warum vertikal?
Das stammt aus der Zeit der Röhrenmonitore, die noch mit Halbbildern bzw. Zeilensprungverfahren arbeiteten.

VSync bedeutet das die Grafikkarte künstlich "gedrosselt" wird und maximal nur so viele Bilder berechnet und ausgibt wie der Monitor tatsächlich darstellen kann.
Also z.B. 60 Bilder pro Sekunde. Das sieht dann weniger "abgehackt" aus.
Das führt aber dazu das Bewegungen gleichmäßig "ruckeln".

Seltsamerweise ist man es bei Kinofilmen gewohnt das diese sogar nur mit 24 bzw. 25 Bildern pro Sekunde laufen. Bei Computerspielen wird das aber als störend empfunden...
Achtung. Das kann natürlich trotzdem heißen das ein Spiel mit weniger FPS gerendert wird als der Monitor darstellt.

Nun gibt es ein verbessertes System: Adaptive VSync.
nVidia nennt es G-Sync, AMD nennt es FreeSync. Beide Systeme sind nicht kompatibel untereinander.
Und sowohl der Monitor als auch die Grafikkarte müssen es beherrschen.

Monitore mit G-Sync sind aufgrund von Lizenzkosten meist etwas teurer als Monitore mit FreeSync.

Es gibt nämlich ein weiteres Problem. Die FPS, die gerendert werden, sind nie konstant, sondern schwanken mitunter sehr stark.
Sind nicht viele Objekte usw. im Bild, können mehr Bilder berechnet werden als wenn sehr viel los ist auf dem Bildschirm und du dich auch noch schnell durch diese virtuelle Welt bewegst.

Dieses System sorgt nun dafür das der Monitor genau die Bilder pro Sekunde darstellt die die Grafikkarte aktuell liefert.
Es gibt also keine feste Bildwiederholrate mehr sondern sie passt sich kontinuierlich an die FPS, die die Grafikkarte liefert, an.
Natürlich bis zum für den Monitor maximal technisch darstellbaren.

Monitore mit G-Sync oder FreeSync können nämlich oft mehr als 60 Bilder pro Sekunde darstellen. Diese haben meist 144Hz oder mehr.
Die Monitore, die mit mehr als 144Hz angegeben werden, haben auch nur ein 144Hz Panel, dass aber quasi "übertaktet" wird.

Wird das Spiel konstant mit mehr als 144Hz gerendert, hast du wieder das gleiche Problem wie ohne G-Sync/FreeSync.
Da diese Monitore aber fast immer eine entsprechend hohe Auflösung haben und der Spieler die Einstellungen der Spiele entsprechend höher dreht (weil die Darstellung flüssiger aussieht)
spielt das aber kaum eine Rolle.

Input Lag ist wieder was anderes und hat nichts mit dem oben genannten zu tun.
Input Lag bedeutet nichts anderes als die Zeit, die vergeht, bis das gerenderte Bild, von der Grafikkarte kommend, im Monitor verarbeitet, dargestellt und in deinen Augen angekommen ist.
Oder anders formuliert, die Latenz zwischen der Mausbewegung und der wahrgenommenen Bewegung auf dem Bildschirm.

Zusammenfassung:

Kein G-Sync/FreeSync, kein VSync: Feste Bildwiederholrate, variable FPS.
Schnelle Darstellung aber immer Tearing. Je nach Rechner, Bildschirm, Spiel und Einstellung unterschiedlich stark, aber immer da.

Kein G-Sync/FreeSync, VSync: Feste Bildwiederholrate, feste FPS.
Kein Tearing, aber eine scheinbar langsame und gleichmäßig ruckelnde Darstellung. Vor allen bei Monitoren mit nur 60Hz.
Weniger störend als Tearing, aber vor allem bei schnellen Bewegungen wie Shootern usw. durchaus störend, weil Bewegungen langsamer erscheinen.

G-Sync/FreeSync: Variable Bildwiederholrate, variable FPS.
Beide immer gleich laufend bis zum maximal möglichen des Monitors.
Kein Tearing, kein Ruckeln, eine schnelle und flüssige Darstellung.

Das hat nichts mit dem verbauten Panel-Typ zu tun, also TN, IPS, VA usw.
Diese unterscheiden sich in der Art wie sie letztlich ein sichtbares Bild erzeugen, haben unterschiedliche Kontrastwerte, sind unterschiedlich schnell und unterschiedlich farbecht.
IPS Panels haben - sehr grob gesprochen - die besseren Farben, VA Panels den besseren Kontrast.

Ach ja, 4K+144Hz geht (noch) nicht.
Ein sehr guter Kompromiss sind solche Monitore: http://geizhals.de/?cat=monlcd19wide&xf=3855_1440~3856_2560~5848_AMD+FreeSync+(Adaptive+Sync)~5848_NVIDIA+G-Sync~6492_144&asuch=&bpmax=&v=e&hloc=de&plz=&dist=&togglecountry=set&sort=p#gh_filterbox.

Empfehlung:

mit G-Sync, wenn du eine nVidia Grafikkarte hast: Dell S2716DG http://geizhals.de/dell-s2716dg-210-agui-a1317184.html 569€
mit FreeSync, wenn du eine AMD Grafikkarte hast: AOC AG271QX http://geizhals.de/aoc-agon-ag271qx-a1446277.html 501€

PS: Es gäbe z.B. noch nVidia FastSync, aber das ginge an dieser Stelle zu weit... ;)
 
Zuletzt bearbeitet:
Nun ja, genau deswegen verändert V-Sync ja das InputLag. Der Monitor kommt bei 60 Hz jede 16 ms und stellt ein Bild da. Braucht ein Bild 20 ms, wird zwei mal das Gleiche ausgegeben und führt zu diesem Stottern, ist es aber nach 10 ms fertig, wird es erst 6 ms verzögert dargestellt und somit verlängert sich das InputLag, durch die dynamische Anpassung von Adaptive VSync verschwindet dieses Phänomen, so lange die fps unter der Bildwiederholrate des Monitors liegen, drüber wird Adaptive V-Sync zu normalen V-Sync.

​Aber krass wie viel Mühe du dir machst, wenn es fertige Beiträge dazu gibt ;)
 
Ich denke eine einfach Erklärung ist sich erstmal darüber bewusst zu werden was die triviale Aufgabe eines Monitors ist, nämlich genau das jeweilige Frame wiederzugeben (zeitlich, farblich) was die Grafikkarte (in den Frontbuffer) rendert.

Die traurige Wahrheit ist, obwohl wir das Jahr 2016 schreiben, und die Technik weit fortgeschritten ist, das nur G sync/freesync Monitore (und diese auch nur in einem bestimmten hz Bereich) zeitlich genau die Frames so wiedergeben können wie sie von der Grafikkarte gerendert werden.

Alle anderen sync/buffer Methoden zwischen Gpu und Monitor(v-sync, fastsync, kein vsync usw.) sind Kompromisse mit verschiedenen Nachteilen, die dargestellte Bewegung auf dem Monitor ist schlechter als sie die Grafikkarte rendert/rendern kann (je nach variante ensteht zusätzlich microstutter, tearing, inputlag, v-sync stutter, Jitter).
 
Zuletzt bearbeitet:
Zurück
Oben