G-SYNC via Adaptive Sync vs „echtes“ G-SYNC

Larzeax

Lt. Junior Grade
Registriert
Juli 2016
Beiträge
307
Guten Tag,

Ich wollte mal fragen, ob das G-Sync über adaptive Sync an das echte G- Sync herankommt und ob man sich lieber einen zertifizierten adaptive Sync Monitor holen sollte oder die 200€ extra noch drauflegen sollte und sich dann einen „echten“ G-Sync Monitor holt.

Mit freundlichen Grüßen

Lars
 
Eigentlich gibt es keinen Grund mehr, auf G-Sync zu setzen, denn alles setzt auf AdaptiveSync (oder Freesync, die AMD-Implementation davon), weil es in den Spezifikationen von HDMI und DP enthalten ist.
Und wenn es irgendwelche Probleme wie Flackern gibt, dann liegt es an Nvidia, weil sie natürlich ihr proprietäres GSYNC bevorzugen und es besser funktionieren soll als AS.
 
Inwiefern würde denn ein qualitativer Unterschied der beiden Sync Technologien den Aufpreis rechtfertigen?

Gsync und FreeSync sind zunächst erst mal sehr ähnlich bzw bewirken exakt dasselbe.

Gsync ist primär ein Qualitätsnerkmal. Bevor ein Monitor das drauf schreiben darf, müssen eben einige Eigenschaften und Werte erreicht werden.
FreeSync ist da etwas lockerer. Hier gibt's halt deutlich mehr schwarze Schafe, was aber nicht heißt das es schlechter wäre. Es kommt eben ganz auf den Einzelfall an.

Grob gesagt kann man aber sagen, dass die 200 euro eher in Zoll, Auflösung oder Displayqualität investiert werden sollten anstatt den namen gsync bezahlen.
 
G-sync hat einen ganz gravierenden Nachteil, es funktioniert nur mit Grafikkarten von Nvidia.
Das mag im Moment vielleicht nicht sonderlich schlimm sein, da du vermutlich eh eine Nvidia Karte hast und bei einem Upgrade sich das bei der aktuellen Lage vermutlich nicht ändern wird.
Das muss ja aber nicht für immer so bleiben.
Wenn AMD oder Intel vielleicht irgend wann bessere Karten hat und du so eine nutzen möchtest wirst du dich ärgern das du mehr für etwas gezahlt hast das dich eigentlich nur einschränkt und sonst nichts besser macht.
 
  • Gefällt mir
Reaktionen: Marcus Hax0rway, Transistor 22 und Wompe
In diversen Foren werden Listen gepflegt welchen du entnehmen kannst welche AdaptivSync Monitore problemlos mit Nvidia Karten arbeiten.

@msgt Ist es jetzt bestätigt das Intel AdaptivSync unterstützt?
 
msgt schrieb:
G-sync hat einen ganz gravierenden Nachteil, es funktioniert nur mit Grafikkarten von Nvidia.
Und wo ist da nun der Nachteil? Wenn man wirklich das Maximum möchte kommt man ohnehin nicht drum rum bei NVIDIA zu kaufen.

Wenn man im mittleren Preissegment unterwegs ist würde ich immer Freesync und AMD kaufen.
 
also freesync hat bei 95% aller monitore probleme und funktioniert meist ab 48hz. gsync gunktioniert von 1hz weg. hatte schon getestet auf einen neuen asus rog monitor und hatte nur flackern mit freesync
 
Mani89HW schrieb:
also freesync hat bei 95% aller monitore probleme und funktioniert meist ab 48hz. gsync gunktioniert von 1hz weg. hatte schon getestet auf einen neuen asus rog monitor und hatte nur flackern mit freesync
Auf Nvidia Karten wegen schlechter Implementierung. Auf AMD Karten läuft adaptive Sync deutlich besser. Das mit den Hz stimmt leider. Der Vorteil an adaptive Sync gegenüber G-Sync ist, das man nicht an einen GPU Hersteller gebunden ist.
 
Ein wenig Theorie:
Die Bildwiederholrate gibt an wie oft pro Sekunde das Bild auf dem Monitor wechselt.
Angegeben in Hz (Hertz) beim Monitor oder in FPS (Bilder pro Sekunde) bei der Grafikkarte.

Ein normaler Monitor hat in der Regel 60Hz, kann also 60 Bilder pro Sekunde darstellen.
Nun ist dein Rechner (CPU/Grafikkarte usw.) leistungsstark genug, um - sagen wir mal - CounterStrike mit 134 Hz zu rendern.
Die Grafikkarte wäre also in der Lage 134 Bilder pro Sekunde auszugeben und macht das auch.

Der Monitor kann aber nur 60Hz, also 60 Bilder pro Sekunde, darstellen.
Das bedeutet das Bilder gerendert werden, z.B. eine Bewegung, du aber nicht jedes Bild davon sehen kannst. Das Bild sieht "unregelmäßig abgehackt" aus. Das nennt man auch Tearing.

Dieses Phänomen ist immer da, wenn die Menge an gerenderten Bildern pro Sekunde nicht mit der Menge an dargestellten Bildern pro Sekunde übereinstimmt.
(Das war jetzt vereinfacht ausgedrückt. Korrekt wäre das in dem Fall zwei oder mehr zeitlich unterschiedliche Bilder gleichzeitig dargestellt werden, Stichwort z.B. FrameTime oder FramePacing.)

An dieser Stelle könnte man noch Framebuffer, Front- und Backbuffer sowie PageFlip erklären...

Jetzt gibt es VSync. Vertikale Synchronisation. Warum vertikal?
Das stammt ursprünglich aus der Zeit der Röhrenmonitore, die noch mit Halbbildern bzw. Zeilensprungverfahren arbeiteten.
Die Grafikkarte liefert erst dann ein neues Bild sobald das aktuelle Bild vollständig dargestellt ist.
(Bei Röhrenmonitoren also erst dann wenn der Elektronenstrahl Zeile für Zeile durchgegangen ist und vertikal wieder zurückspringt, um mit dem nächsten Bild weiterzumachen.)

VSync bedeutet das die Grafikkarte künstlich "gedrosselt" wird und maximal nur so viele Bilder berechnet und ausgibt wie der Monitor tatsächlich darstellen kann.
Also z.B. 60 Bilder pro Sekunde. Das sieht dann weniger "abgehackt" aus. Das führt aber dazu das Bewegungen gleichmäßig "ruckeln" und die Latenz kann ansteigen.

Seltsamerweise ist man es bei Kinofilmen gewohnt das diese mit sogar nur 24 bzw. 25 Bildern pro Sekunde laufen. Bei Computerspielen wird das aber als störend empfunden...
Achtung. Das kann natürlich trotzdem heißen das ein Spiel mit weniger FPS gerendert wird als der Monitor darstellt.

Nun gibt es ein verbessertes System: Adaptive Sync. Das ist Teil des VESA Standards seit 2009. Aber natürlich bieten die beiden großen Hersteller entsprechende, eigene Lösungen an:
nVidia nennt es G-Sync, AMD nennt es FreeSync. Beide Systeme sind nicht kompatibel untereinander. Beide machen aber das gleiche.
Und sowohl der Monitor als auch die Grafikkarte müssen es beherrschen.

Beide nutzen das sog. Blanking-Intervall (VBLANC) des Monitors, zu Deutsch "Austast-Intervall", um die Bildwiederholrate dynamisch bzw. variabel zu gestalten.
Grob gesprochen ist das der Moment zwischen dem Ende der Darstellung eines Frames und dem Beginn der Darstellung eines neuen Frames. (Stammt ebenfalls noch aus der Zeit der Röhrenmonitore.)
nVidia nutzt dazu einen zusätzlichen Hardware-Scaler, der im Monitor verbaut sein muss. AMD kommt ohne aus und orientiert sich näher am VESA Standard Adaptive Sync.

Monitore mit G-Sync sind aufgrund von Lizenzkosten und der notwendigen Zusatzplatine meist etwas teurer als Monitore mit FreeSync.
Seit kurzem unterstützt auch nVidia offiziell FreeSync. Allerdings ist nicht jeder FreeSync-Monitor voll kompatibel. Es gibt bei nVidia aber eine Liste und hier im Forum gibt es auch eine.

Es gibt nämlich ein weiteres Problem. Die FPS, die gerendert werden, sind nie konstant, sondern schwanken mitunter sehr stark.
Sind nicht viele Objekte usw. im Bild, können mehr Bilder berechnet werden als wenn sehr viel los ist auf dem Bildschirm und du dich auch noch schnell durch diese virtuelle Welt bewegst.

Dieses System sorgt nun dafür das der Monitor genau die Bilder pro Sekunde darstellt, die die Grafikkarte aktuell liefert.
Es gibt also keine feste Bildwiederholrate mehr, sondern sie passt sich kontinuierlich an die FPS, die die Grafikkarte liefert, an.
Natürlich bis zum für den Monitor maximal technisch darstellbaren.

Monitore mit G-Sync oder FreeSync können nämlich oft mehr als 60 Bilder pro Sekunde darstellen. Diese haben meist 144Hz oder mehr.
(Monitore, die mit mehr als 144Hz angegeben werden (z.B. 165Hz), haben auch nur ein 144Hz Panel, dass aber quasi "übertaktet" wird.
Eine Technik, die man seit Jahren von Fernsehern kennt, bei denen das Panel auch gerne übersteuert wird.)

Warum eigentlich die krumme Zahl 144Hz? Das nennt man auch "Triple Flash", entspricht 3x48Hz und stammt ursprünglich aus der Kino-Technik.
Normale Kinofilme (auf den jahrzehntelang üblichen Filmrollen) laufen mit 24 Bildern pro Sekunde, wobei aber jedes Bild zweimal dargestellt wird durch einen Shutter.
Auf der Leinwand kommen also 48 Bilder pro Sekunde an. Bei einer modernen Digitalprojektion funktioniert das etwas anders.

Wird das Spiel konstant mit mehr als 144Hz gerendert, hast du wieder das gleiche Problem wie ohne G-Sync/FreeSync.
Da diese Monitore aber fast immer eine entsprechend hohe Auflösung haben und der Spieler die Einstellungen der Spiele entsprechend höher dreht (weil die Darstellung flüssiger aussieht),
spielt das aber kaum eine Rolle.

Input Lag ist wieder was anderes und hat nichts mit dem oben genannten zu tun.
Input Lag bedeutet nichts anderes als die Zeit, die vergeht, bis das gerenderte Bild, von der Grafikkarte kommend, im Monitor verarbeitet, dargestellt und in deinen Augen angekommen ist.
Oder anders formuliert, die Latenz zwischen der Mausbewegung und der wahrgenommenen Bewegung auf dem Bildschirm.

Das hat nichts mit dem verbauten Panel-Typ zu tun, also TN, IPS, VA usw.
Diese unterscheiden sich in der Art wie sie letztlich ein sichtbares Bild erzeugen, haben unterschiedliche Kontrastwerte, sind unterschiedlich schnell und unterschiedlich farbecht.
IPS Panels haben - grob gesprochen - die besseren Farben, VA Panels den besseren Kontrast.

Zusammenfassung:

- Kein G-Sync/FreeSync, kein VSync: Feste Bildwiederholrate, variable FPS.
Schnelle Darstellung, aber immer Tearing. Je nach Rechner, Bildschirm, Spiel und Einstellung unterschiedlich stark, aber immer da.

- Kein G-Sync/FreeSync, VSync: Feste Bildwiederholrate, feste FPS.
Kein Tearing, aber eine scheinbar langsame und gleichmäßig ruckelnde Darstellung. Vor allem bei Monitoren mit nur 60Hz.
Weniger störend als Tearing, aber vor allem bei schnellen Bewegungen wie Shootern usw. durchaus störend, weil Bewegungen langsamer erscheinen.

- G-Sync/FreeSync: Variable Bildwiederholrate, variable FPS.
Beide immer gleich laufend, bis zum maximal möglichen des Monitors.
Kein Tearing, kein Ruckeln, eine schnelle und flüssige Darstellung.

PS:
Es gibt auch noch Fast Sync. Das lasse ich an dieser Stelle aber mal außen vor.
Fast Sync ist im Grunde ein leicht verbessertes Adaptive Sync, kommt aber nicht an die Qualität von G-Sync oder FreeSync heran.

Bei manchen Spielen ist es auch hilfreich ein Frame-Limit einzustellen.
Manche Spiele haben bereits ab Werk einen fest eingebauten/eingestellten FrameLimiter laufen, sieht man oft z.B. bei Konsolen-Portierungen.

Und G-Sync/FreeSync arbeitet nur in einem bestimmten FPS-Bereich. Liegen die FPS darunter oder darüber, greift das System nicht mehr.
Diese Range ist bei FreeSync oft kleiner als bei G-Sync.
Grundlagen halt...
 
  • Gefällt mir
Reaktionen: Dr.Death und G0k4r
Danke für die ganzen Antworten. Dann werde ich auf einen FreeSync Monitor zurückgreifen.
 
snickii schrieb:
Und wo ist da nun der Nachteil? Wenn man wirklich das Maximum möchte kommt man ohnehin nicht drum rum bei NVIDIA zu kaufen.

Wenn man im mittleren Preissegment unterwegs ist würde ich immer Freesync und AMD kaufen.
Das ist eine äußerst kurzfristige Denkweise, gerade im Hinblick auf Intel, die definitiv das Budget haben, um mit Nvidia zu konkurrieren.
 
also bei nvidia kann ich nur zu gsync raten.
 
  • Gefällt mir
Reaktionen: PHuV
Freesync geht meist erst ab 48-144 hz oder man dreht es runter auf 35 (?) - 90 hz.
Gsync geht von 30 - 144 hz und hat somit die größere Syncrange.

Je niedriger die Syncrange ist, desto größer ist der Nutzen, da man z.b. eine bessere Qualitätsstufe beim Spiel nehmen kann. Hauptsache man bleibt über 30 FPS. Außerdem ist Gsync das benutzerfreundlichere Produkt, da man nicht von Spiel zu Spiel die Syncrange an die FPS anpassen muss.

Der Nachteil ist: GSync kostet mehr, ist aber das bessere Produkt.
 
  • Gefällt mir
Reaktionen: Helge01 und PHuV
G-Sync funktioniert deshalb besser, weil Nvidia einfach hier striktere Vorgaben macht, bei AS bzw. FS ist ein Standard, wo es eben wieder Interpretations- und Implementierungsspielraum gibt, was jeder Hersteller entsprechend ausnutzt.
 
Und unterhalb des Bereiches werden die Frames verdoppelt, so dass man wieder im Bereich ist.

Mit GSync kann man in einer Sackgasse landen, da es proprietärer Kram eines Herstellers ist. Ein Monitor hält üblicherweise länger als eine Grafikkarte, irgendwelchen Asus ROG Müll*, wo der Kunde die Aufgabe der QS übernimmt, mal außen vor. AS bzw. FS hingegen wird vom Rest der Welt unterstützt, also AMD, (bald) Intel, aktuelle Spielekonsolen und auch manche Fernseher kommen schon mit AS bzw. FS.

*) Auf Monitore bezogen, die ROG Strix RX480 war z.B. eine der empfehlenswerten Grafikkarten, guter Kühler und hielt auch (im Gegensatz zu vielen anderen Modellen) die PCIe-Spezifikationen ein (Board Power).
 
  • Gefällt mir
Reaktionen: G0k4r
Vindoriel schrieb:
Und unterhalb des Bereiches werden die Frames verdoppelt, so dass man wieder im Bereich ist.

Mit GSync kann man in einer Sackgasse landen, da es proprietärer Kram eines Herstellers ist. Ein Monitor hält üblicherweise länger als eine Grafikkarte, irgendwelchen Asus ROG Müll*, wo der Kunde die Aufgabe der QS übernimmt, mal außen vor. AS bzw. FS hingegen wird vom Rest der Welt unterstützt, also AMD, (bald) Intel, aktuelle Spielekonsolen und auch manche Fernseher kommen schon mit AS bzw. FS.

*) Auf Monitore bezogen, die ROG Strix RX480 war z.B. eine der empfehlenswerten Grafikkarten, guter Kühler und hielt auch (im Gegensatz zu vielen anderen Modellen) die PCIe-Spezifikationen ein (Board Power).


gsync ist trotzdem besser da es von 1frame weg funktioniert. und in naher zukunft siehts nicht schlecht aus fürr nvidia. navi wird knapp an turing scheitern was perrformance pro watt betrifft
 
Zurück
Oben