G-Sync, wichtig?

Jb21

Cadet 2nd Year
Registriert
Apr. 2024
Beiträge
20
Ich wollte fragen, ob GSync sehr wichtig ist. Reicht freeSync? Wichtig ist mir, dass der Monitor nicht ab und zu flackert
 
Gegen tearing ist jedwedes Sync (nicht Vsync) effektiv, muss nicht unbedingt mit gsync Modul sein.
 
G-Sync ist lediglich die proprietäre NVidia Lösung. FreeSync tut genau das Gleiche, nur eben ohne überteuertes G-Sync Modul im Monitor.
Mit flackerndem Bildschirm hat das aber beides nichts zutun. Das ist eine Technik, die gegen Tearing eingesetzt wird.
 
  • Gefällt mir
Reaktionen: FR3DI
Ich nutze seit Ewigkeiten G-Sync und konnte letztes Wochenende FreeSync ausgiebig testen. Ehm, FreeSync ist für mich (als G-Sync Nutzer) eine Enttäuschung. Das Bild ist bei G-Sync tatsächlich besser als bei FreeSync. Was ich komisch finde, da beide Techniken ja eigentlich nur die Monitor Hz an die FPS des Spiels anpassen.

Hab dann mal geschaut ob ich mich geirrt habe aber es scheint wirklich so zu sein, G-Sync ist besser. Siehe dieses Video in dem zwischen V-Sync, G-Sync und auch FreeSync unterschieden wird.


Hätte ich nicht gedacht. Aber ob man das merkt, wenn man nicht seit Jahren an G-Sync Monitoren saß, ist fraglich. Vermutlich würde mir FreeSync reichen wenn ich G-Sync nicht kennen würde.
 
G-Sync und FreeSync sind technisch für den Monitor erstmal absolut identisch, was die Bildsynchronisation angeht.
Du kannst einen FreeSync Monitor an einer Nvidia Karte im G-Sync Compatible Modus bertreiben und es gibt viele Monitore und TVs, die zwar kein G-Sync Modul haben, aber gleichermaßen Freesync und G-Sync unterstützen bzw. offiziell G-Sync compatible zertifiziert sind.

Es macht für den selben Monitor auch keinen Unterschied, ob er per FreeSync an einer AMD Karte, G-Sync an einer Nvidia karte oder VRR an einer Konsole betrieben wird.

Den einzigen Vorteil den ein dediziertes G-Sync Modul hat ist, dass Framerate unabhängiger variabler Overdrive möglich ist (nur relevant für LCD Displays, bei OLEDs fällt das komplett weg). Einfach mal googlen was Overdrive ist. Mit einem G-Sync Modul ist der Overdrive über den gesamten Frequenzbereich ideal, ohne G-Sync Modul bei vielen Monitoren nicht. Da wäre bei 60 Hz z.B. eine andere Overdrive Stufe ideal als bei z.B. 240 Hz. Das heißt für ein perfektes Ergebnis müsste man die Overdrive Stufe je nach Bildfrequenz bzw. Framerate umstellen. In der Praxis macht das aber meist kaum einen nennenswerten Unterschied.

Ein weiterer Punkt der völlig irrelevant ist, ist die Low Framerate compensation (LFC). Die meisten Panels haben eine G-Sync bzw. VRR Range von 40 Hz bis zur Maximalen Frequenz. Das heißt bei weniger als 40 FPS, also z.B. 30 FPS läuft das Panel dann mit 60 Hz. Die Frames werden einfach mehrfach mit höherer Frequenz ausgegeben, damit das Panel auch bei zu niedriger Bildrate noch im VRR Bereich arbeiten kann.

Bei G-Sync macht das das G-Sync Modul selbstständig, weshalb sich der Monitor am PC mit einer VRR Range von 1 Hz bis xx Hz melden kann. Ohne G-Sync Modul meldet sich der Monitor mit 40 Hz bis xx Hz und die GPU muss das LFC selbst machen.

Technisch gesehen macht das eben null Unterschied, da das Panel selbst in beiden Fällen "nur" bis 40 Hz runter kann und das ganze aber ohne irgendwelche nachteile mit LFC umgangen wird. Einmal macht es eben das G-Sync Modul ansonsten die GPU.

Will es nur mal erwähnt haben, weil manche Leute behaupten "G-Sync kann bis 1 Hz runter und ist deswegen besser". Was aber quatsch ist. Die Ansteuerung des Panels ist im Endeffekt immer gleich.

Was bei Monitoren mit G-Sync Modul und G-Sync Compatible Zertifizierung noch der Fall ist, ist dass diese Geräte strenger gerüft werden und nvidia höhere Anforderungen stellt, eben um z.B. Flimmern oder Flackern im VRR betrieb zu vermeiden oder zu vermindern. Eine Garantie ist das aber auch nicht. Gibt sogar Monitore mit G-Sync Modul, die flackern. Von daher... Sooo viel würde ich darauf also auch nicht geben.



Mittlerweile ist es daher völlig egal, was du kaufst. Ob G-Sync, G-Sync Compatible oder Freesync macht für sich genommen keinen Unterschied mehr. Viele Hersteller verzichten in ihren High End Geräten mittlerweile sogar bewust auf das G-Sync Modul. Die aktuellen 32 Zoll 240 Hz OLEDs bekommst du alle nur noch ohne G-Sync Modul, dafür eben mit Freesync und G-Sync Compatible Zertifizierung.
Welcher der drei Aufkleber letztendlich auf der Packung klebt kannst du also praktisch ignorieren. Außer du hast eine AMD Karte, dann musst du sicherstellen, dass FreeSync support deklariert wird.

Worauf es tatsächlich ankommt ist, wie gut das jeweilige Monitormodell unter VRR performt. Denn wenn es Unterschiede gibt, dann hängt es vom Monitor Modell ab und nicht von einem dieser Aufkleber. Hierzu gerne viele und möglichst ausführliche Tests durchlesen.
 
Das Video ist 4 Jahre alt, da sollte sich inzwischen etwas getan haben.

Auf die "G-Sync Compatible" Zertifizierung würde ich achten. Mein "alter" Dell S2719DGF hatte die nicht, und zeigte tatsächlich Fehlfunktionen (gelegentliches Flackern bei einem Spiel mit 60 fps-Lock).

Der Dell G2724D hat bisher keinerlei Schwächen gezeigt, da sehe ich keinen Unterschied zu dem Acer mit G-Sync-Modul, den ich vor dem Dell hatte.
 
Mimir schrieb:
Will es nur mal erwähnt haben, weil manche Leute behaupten "G-Sync kann bis 1 Hz runter und ist deswegen besser". Was aber quatsch ist. Die Ansteuerung des Panels ist im Endeffekt immer gleich.

Die Ansteuerung des Panels ist vom Prinzip gleich, korrekt. Aber wenn der Monitor das intern macht, wo das exakte Panel bekannt ist, kann man leicht garantieren, dass es keine Artefakte wie Helligkeitsflackern etc. gibt.

Es gibt ja verschiedene Artefakte vom VRR selbst, wenn das nicht sauer umgesetzt ist. Ein Sprung in der Helligkeit vom Bild ist da zB bekannt. Und das passiert, wenn wegen GPU-seitigem LFC ein Sprung in der Refreshrate kommt, und der Monitor nicht kompensieren kann, was das für die wahrgenommene Helligkeit bedeutet.

Hier können sich Intel, AMD und Nvidia auch unterscheiden: nehmen sie immer vielfache Refreshrates, wenn diese noch im VRR Fenster liegen? Nehmen sie die nur wenn es notwendig ist? Wenn es mehrere Vielfache gibt, die im VRR Fenster liegen, dann Minimum oder Maximum? Oder vielleicht hat auch irgendwer eine Glättung auf den Refreshrates drauf, um die gröbsten Artefakte zu verhindern.

So können dann manche Monitore an AMD GPUs hauptsächlich ohne solche Artefakte gehen und dann bei anderem Verhalten der GPU doch Artefakte zeigen. Wenn der Monitor das alles intern macht, ist es einfacher zu garantieren, dass das nicht passiert.

Und auf der anderen Seite, könnte ein Hersteller auch variables Overdrive selbst umsetzen, ohne G-Sync Modul. Genau wie monitorseitiges LFC. Da ist G-Sync mit Modul an LCD Panels bisher halt eine Garantie gewesen, dass es keine solcher Artefakte gibt. Und seit die Module auch Adaptive Sync und VRR können auch an nicht-Nvidia GPUs. Beim Rest muss man mehr auf Tests achten, ob es Zicken gibt die einen Stören und mit der eigenen GPU auftreten. Da meine G-Sync Displays immer noch gehen, habe ich hier leider keinen Vergleich wie viel besser und Artefaktfreier die nicht-GSync-Modul Welt hier über die Jahre und mit Erfahrung geworden ist. Gut möglich, dass solche Probleme seltener geworden sind.
 
JMP $FCE2 schrieb:
Das Video ist 4 Jahre alt, da sollte sich inzwischen etwas getan haben.
Ja, leider kann ich jetzt nicht sagen welcher Monitor das war an dem ich saß, es war nicht meiner. Ich habe mich auch nicht so richtig mit dem Thema beschäftigt.

Allerdings sah Battlefield 1 irgendwie unsauber aus und nicht wie ich es gewohnt war. Deswegen hab ich nur mal schauen wollen ob es einen Unterschied gibt zwischen G-Sync und FreeSync und habe dieses Video gefunden. Für mich war die sache dann erledigt.

Ich nutze nur Geforce Karten (CUDA) und bin deswegen zu G-Sync gekommen. FreeSync gabs halt noch nicht. Der nächste Monitor wird sicher auch wieder ein Modul haben, es sei denn es gibt kein Passiv gekühltes mehr oder Nvidia hat es immer noch nicht gebacken bekommen G-Sync über HDMI laufen zu lassen. Dann wirds halt FreeSync. :)
 
(Ohne jetzt alles gelesen zu haben.)

Tortellino schrieb:
Hab dann mal geschaut ob ich mich geirrt habe aber es scheint wirklich so zu sein, G-Sync ist besser.

G-Sync finde ich auch besser, weil es nicht die Anfälligkeit für LFC-Stutter hat, welches ich provozieren konnte, indem ich Framelimiter in die Nähe vom LFC-Übergang gesetzt habe (manchmal nötig, auf 60 zu setzen). Zudem waren mit G-Sync Oldgen-Panels dank adaptivem Overdrive nutzbar, was bei Adaptive Sync nicht der Fall war. Aber das ist mittlerweile auch nicht mehr so tragisch, wenn man ein Fast-IPS (oder OLED) wählt und drauf achtet, dass eine OD-Stufe vorhanden ist, die für die gesamte Range gut ist, ohne unten rum Overshoot-Hölle zu haben oder oben dolle Schlierenbildung. Für 250€ ist 27GP850(P)-B noch immer eine gute Wahl, muss man allerdings bisschen Lotto spielen, weil man dann unter Umständen paar Gurken erwischt, die BLB-Wölkchen haben oder Blaustiche. Bei Asus bekommt man bei TUF und ROG/Strix ab 2023 etwa sogar adaptives Overdrive bei einem Adaptive-Sync-Scaler.

Edit:

Das Programm im Video hat aber auch eine zackige Verlaufskurve, kriege ich mit Minecraft auch beschissen hin. Dieses Gestotter vom Spiel wird dann auch synchronisiert. Minecraft kriegt man mit Ingame-Einstellungen geschmeidiger und dann passt das.

Grundsätzlich V-Sync/Fast Sync (je nach Spiel) im Treiber an und im Treiber Framelimiter kurz darunter. Ingame-Framelimiter, wenn vorhanden, spart m.W.n. minimal Inputlag, ist aber nicht immer vorhanden und oft ist Treiber-Framelimiter besser.
 
Zuletzt bearbeitet:
Tortellino schrieb:
G-Sync über HDMI laufen zu lassen.
Geht. Sowohl moderne Nvidia GPUs als auch die Module seit ein paar Jahren sprechen neben dem proprietären G-Sync Protokoll auch Adaptive Sync und HDMI VRR (jeweils über die passenden Anschlüsse).

Und FreeSync ist ähnlich schwammig. Auf DP meint das zwar immer Adaptive Sync, über HDMI meinen die ganzen älteren Monitore aber eine proprietäre Implementierung von AMD. Während die TVs und modernen Monitor mit HDMI FRL damit den offiziellen Standard HDMI VRR meinen.

Intel kann jetzt schon Adaptive Sync und wird HDMI VRR können. Aber nicht FreeSync HDMI. Oder das proprietäre G-Sync.
Banger schrieb:
was bei Adaptive Sync nicht der Fall war.
Das ist schlicht weil der Scaler im Monitor die Rechenarbeit dafür nicht kann. Und die G-Sync Module können es halt von Anfang an. Welches VRR Protokoll genutzt wird hat darauf Null Einfluss.
 
Banger schrieb:
G-Sync finde ich auch besser, weil es nicht die Anfälligkeit für LFC-Stutter hat, welches ich provozieren konnte, indem ich Framelimiter in die Nähe vom LFC-Übergang gesetzt habe (manchmal nötig, auf 60 zu setzen).

Ich habe das noch einmal getestet im Overwatch-Trainingslevel. Der Nvidia-Treiber setzt den LFC-Übergang beim Dell G2724D auf 55 fps (beim S2719DGF waren es m.E. 46 fps), sichtbar an der Hz-Anzeige im Monitormenü.

Eindeutige Fehlfunktionen kann ich dabei nicht erkennen, allerdings auch nicht sicher ausschließen (Placebo-Effekt). 45 fps sind eindeutig schlechter, und 65 eindeutig besser, als 55.

Was ich jedenfalls nicht sehe, ist eine schlagartige, drastische Verschlechterung, wie sie bei Vsync mit Triple Buffering bei fps<Hz passiert.
 
  • Gefällt mir
Reaktionen: Banger
Das G-Sync Modul macht ja auch nichts magisches. Alles davon können auch die anderen Hersteller bieten, wenn sie wollen.

Nvidia hatte nur zum Anfang an den riesigen Vorteil, dass sie beide Seiten unter Kontrolle hatte. So kannst du natürlich viel einfacher beide Seiten abstimmen, so dass keine Fehler passieren, als mit einem universellen Standard, wo auf GPU Seite großer Spielraum für unterschiedliches Verhalten und verschiedene Philosophien ist. Und das Modul erlaubt es jetzt zuverlässig an jeder GPU zu gehen, weil das Modul halt den größten Teil der Arbeit macht und die GPU so weniger Einfluss/Abstimmung braucht.

Und evlt. kann man mit LFC im Display besser auf Feinheiten vom Panel eingehen, als wenn die GPU LFC machen muss und dazu mehr oder weniger nur VrrMin-VrrMax kennt.

Auf der anderen Seite sollte es für die GPU einfacher sein zu schätzen, wann das nächste Frame kommt und ob man bis dahin noch ein Frame wiederholen sollte oder wartet und hofft, dass das nächste Frame fertig ist, bis man zwangsweise eins senden muss. (etwas das ein Nvidia Entwickler mal gesagt hatte, das ein Vorteil von G-Sync wäre. Aber ohne Klarstellung, ob die Nvidia GPUs dazu zusätzliche Infos zum Monitor kommunizieren oder das alles im Monitor passiert).
 
JMP $FCE2 schrieb:
Ich habe das noch einmal getestet im Overwatch-Trainingslevel. Der Nvidia-Treiber setzt den LFC-Übergang beim Dell G2724D auf 55 fps (beim S2719DGF waren es m.E. 46 fps), sichtbar an der Hz-Anzeige im Monitormenü.

So 55-56 ist normal, hatte bei mir jeder Monitor, außer einer der MAG271CQR, da waren es 53, glaube ich.

Beim 27GP850-B ist Adaptive Sync Extended an. Stelle ich auf Basic, ist der LFC-Übergang sogar bei 65.

Hast du Framelimiter auf 60 gestellt? Dann bemerkst du es vielleicht. Kann aber auch sein, dass ich da empfindlich bin und andere Leute nichts bemerken. Ich habe da die Hakler bemerkt, während die OSD-Anzeige keinen Ausschlag bei den Frametimes gezeigt hat. Bevor die Frage kommt, warum ich manchmal auf 60 limitiere: Solchen niedrigen Limiter benutze ich, wenn ich in GTA den Mapeditor benutze, da dies immer ein Fix gegen die Abstürze des Editors war.

In so einem Szenario hatte das Nvidia-Modul für mich einen Vorteil.

Wenn ich GTA5 oder Witcher 3 so einstelle, sodass diese Spiele sich wegen GPU- oder CPU-Limit etwa zwischen 50 und 60FPS bewegen, geht der Übergang aber sauber.

Nachdem ich mir vor 1,5 Jahren einen 27GP850-B geholt habe, spiele ich wieder Lotto. Aktuell ein 27GP850P-B hier, eine Blaustich-Gurke. Weiterer ist geordert. Es geht mir auf dem Sack, dass unten zum Rand hin alles ins Blau kippt.
 
Banger schrieb:
Hast du Framelimiter auf 60 gestellt? Dann bemerkst du es vielleicht. Kann aber auch sein, dass ich da empfindlich bin und andere Leute nichts bemerken. Ich habe da die Hakler bemerkt, während die OSD-Anzeige keinen Ausschlag bei den Frametimes gezeigt hat.

Ich habe beim Ingame-fps-Limit von Overwatch viele Werte um 55 herum ausprobiert, u.a. 40, 45, 54, 56, 60, 62, 70, und noch andere krumme Werte in dem Bereich. Außer dem zu erwartenden "je niedriger, desto schlechter" konnte ich keine Unregelmäßigkeiten dabei feststellen. Das sah immer aus wie Vsync mit fps=Hz.

Genshin Impact und Honkai Star Rail haben ein nicht abschaltbares Limit bei 60 fps, und auch das sieht aus wie Vsync. Gleichmäßiges leichtes Ruckeln ohne Stolperer. Die "open-world-üblichen" gelegentlichen Nachladeruckler werden wohl kaum etwas mit G-Sync zu tun haben.
 
  • Gefällt mir
Reaktionen: Banger
Vielleicht liegt es am Ingame-Limiter, dass du keinen Stutter hast. Ich nutze immer vom Treiber.

GTA habe ich nun auf 70 gehabt und das ging besser. (Wie gehabt, ich stelle da für den Mapeditor runter, weil es durchaus geholfen hat, um Abstürze des Editors zu vermeiden.)

Was mir aber auch noch bei Limiter zwischen Spielen und Treibern aufgefallen ist, dass der Treiber besser glätten kann.

witcher3_2023_12_30_03_14_34_082.jpg
witcher3_2023_12_30_03_15_47_042.jpg


Das sind jetzt 144 ingame und 158 per Treiber. Der 158er ist schön glatt.

Vielleicht macht sowas auch den Unterschied bei meinem LFC-Stutter, dass man bei einem nicht ganz so glatten Graph sowas nicht bemerkt, wenn man dieses Szenario auf 60 FPS ingame und 60 FPS per Treiber anwendet. Ist nur so eine These. Müsste ich auch erstmal mit Witcher gegentesten, da GTA5 keinen Ingame-Limiter hat.

Monitor immer auf 180Hz gestellt mit Adaptive Sync an.
 
Zurück
Oben