Neue Nvidia oder AMD? G-Sync?!

Keelval

Cadet 4th Year
Registriert
Juni 2010
Beiträge
110
Hallo zusammen,

ich stehe hier vor einem Problem, dessen Lösung ich einfach nicht zu erreichen vermag.

Ich habe 3 Asus PG278Q Monitore und aktuell noch eine GTX 1070.

Nun bin ich am überlegen bzw. zu dem Entschluss gekommen, mir entweder eine RTX 3080 oder die AMD RX 6800XT zu kaufen.
Aktuell tendiere ich jedoch zu AMD, da auch mein neuer Prozessor ein AMD wird.

Das eigentliche Problem in dem ich mich befinde, sind meine Monitore und deren G-Sync.

Ich habe bis heute die Technik dahinter noch nicht wirklich verstanden, doch in vielen Beiträgen findet sich immer wieder der selbe Satz "sinnlose technik, die sich nvidia bezahlen lässt (ab 2015)"
Dazu kann ich mir keine Meinung bilden.

Was Spiele ich?. Neben World of Warcraft, generell aktuelle Titel. Sei es Rennspiele, Shooter, MMOs und was es so gibt.
Mein Hauptbildschirm ist auf 120Hz geankert, da ich mal gelesen habe, 144Hz mache keinen Unterschied.

So:
1. greife ich nun zu AMD oder gehe ich wieder zu Nvidia?
2. G-Sync Ja oder Nein?
3. Gehe ich zu AMD, habe ich in Spielen Nachteile mit meinen Monitoren bzgl FPS/Tearing und was es nicht noch alles gibt.
4. Schalte ich V-Sync ein, wenn ich G-Sync deaktiviere, oder lasse ich beides an, oder aus?

Aktuell Spiele ich ohne G-Sync und merke schlicht keinen Unterschied. Auch bei G-Sync Pendulum, kann ich den Punkt nicht bei G-Sync setzen.

Wäre super, wenn man mir hier Klarheit verschaffen könnte.
 
FreeSync™ Premium Pro

dann hast du auch die Möglichkeit wenn du "wieder" eine Nvidia Grafikkarte hast das zu nutzen.

G-Sync geht "nur" mit Nvidia Grafikkarten und das wäre mein Grund warum ich einen großen Bogen darum machen würde.
 
Aktuell Spiele ich ohne G-Sync und merke schlicht keinen Unterschied. Auch bei G-Sync Pendulum, kann ich den Punkt nicht bei G-Sync setzen.

Ich kapiere deine Ist-Situation nicht - hast Du jemals mit G-Sync gespielt oder
funktioniert das bei deinem Setup nicht???
 
Für mich war Gsync die grösste Errungenschaft für Monitore nebst IPS. Keine Ahnung weshalb Nvidia für diese Innovation so viel Kritik erntete. Genauso innovativ sind DLSS, RTX, RTX Audio und noch vieles mehr, was auch nie kritisiert wurde.
Gsync schafft Tearing ab, ganz einfach. Wenn du das nicht wahrnimmst, dann weiss ich auch nicht...

sonst spiel mal ein Game, dreh dich rasch im Kreis und nimm das Ganze mit einer Slow Motion Kamera auf. Einmal mit und einmal ohne Gsync. Dann wirst du den Unterschied hoffentlich sehen.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind und mgr R.O.G.
engineer123 schrieb:
Ich kapiere deine Ist-Situation nicht - hast Du jemals mit G-Sync gespielt oder
funktioniert das bei deinem Setup nicht???
Seit in die Monitore habe, ist G-Sync Aktiviert gewesen.
Habe seit gestern in einigen Spielen mal herum getan, allerdings nichts gemerkt.
 
Keelval schrieb:
Ich habe bis heute die Technik dahinter noch nicht wirklich verstanden
Ein wenig Theorie in G-Sync/FreeSync:
Die Bildwiederholrate gibt an wie oft pro Sekunde das Bild auf dem Monitor wechselt.
Angegeben in Hz (Hertz) beim Monitor oder in FPS (Bilder pro Sekunde) bei der Grafikkarte.

Ein normaler Monitor hat in der Regel 60Hz, kann also 60 Bilder pro Sekunde darstellen.
Nun ist dein Rechner (CPU/Grafikkarte usw.) leistungsstark genug, das ein Spiel mit z.B. 134 Hz läuft.
Die Grafikkarte wäre also in der Lage 134 Bilder pro Sekunde auszugeben und macht das auch.

Der Monitor kann aber nur 60Hz, also 60 Bilder pro Sekunde, darstellen.
Das bedeutet das Bilder gerendert werden, z.B. eine Bewegung, du aber nicht jedes Bild davon sehen kannst. Das Bild sieht "unregelmäßig abgehackt" aus. Das nennt man auch Tearing.

Dieses Phänomen ist immer da, wenn die Menge an gerenderten Bildern pro Sekunde nicht mit der Menge an dargestellten Bildern pro Sekunde übereinstimmt.
(Das war jetzt vereinfacht ausgedrückt. Korrekt wäre das in dem Fall zwei oder mehr zeitlich unterschiedliche Bilder gleichzeitig dargestellt werden, Stichwort z.B. FrameTime oder FramePacing.)

An dieser Stelle könnte man noch Framebuffer, Front- und Backbuffer sowie PageFlip erklären. Das spare ich mir mal...

Jetzt gibt es VSync. Vertikale Synchronisation. Warum vertikal?
Das stammt ursprünglich aus der Zeit der Röhrenmonitore, die noch mit Halbbildern bzw. Zeilensprungverfahren arbeiteten.
Die Grafikkarte liefert erst dann ein neues Bild sobald das aktuelle Bild vollständig dargestellt ist.
(Bei Röhrenmonitoren also erst dann wenn der Elektronenstrahl Zeile für Zeile durchgegangen ist und vertikal wieder zurückspringt, um mit dem nächsten Bild weiterzumachen.)

VSync bedeutet das die Grafikkarte künstlich "gedrosselt" wird und maximal nur so viele Bilder berechnet und ausgibt wie der Monitor tatsächlich darstellen kann.
Also z.B. 60 Bilder pro Sekunde. Das sieht dann weniger "abgehackt" aus. Das führt aber dazu das Bewegungen gleichmäßig "ruckeln" und die Latenz kann ansteigen.

Seltsamerweise ist man es bei Kinofilmen gewohnt das diese mit sogar nur 24 bzw. 25 Bildern pro Sekunde laufen. Bei Computerspielen wird das aber als störend empfunden...
Achtung. Das kann natürlich trotzdem heißen das ein Spiel mit weniger FPS gerendert wird als der Monitor darstellt.

Nun gibt es ein verbessertes System: Adaptive Sync. Das ist Teil des VESA-Standards (Video Electronics Standards Association) seit 2009.
Aber natürlich bieten die beiden großen Hersteller entsprechende, eigene Lösungen an:
nVidia nennt es G-Sync, AMD nennt es FreeSync. Beide Systeme sind nicht kompatibel untereinander. Beide machen aber das gleiche.
Und sowohl der Monitor als auch die Grafikkarte müssen es beherrschen.

Beide nutzen das sogenannte Blanking-Intervall (VBLANC) des Monitors, zu Deutsch "Austast-Intervall", um die Bildwiederholrate dynamisch bzw. variabel zu gestalten.
Grob gesprochen ist das der Moment zwischen dem Ende der Darstellung eines Frames und dem Beginn der Darstellung eines neuen Frames. (Stammt ebenfalls noch aus der Zeit der Röhrenmonitore.)
nVidia nutzt dazu einen zusätzlichen Hardware-Scaler, der im Monitor verbaut sein muss. AMD kommt ohne aus und orientiert sich näher am VESA Standard Adaptive Sync.

Monitore mit G-Sync sind aufgrund von Lizenzkosten und der notwendigen Zusatzplatine meist etwas teurer als Monitore mit FreeSync.
Seit einiger Zeit unterstützt auch nVidia offiziell FreeSync. Allerdings ist nicht jeder FreeSync-Monitor kompatibel. Es gibt bei nVidia aber eine Liste und hier im Forum gibt es auch eine.
Bei Geizhals kann man mittlerweile auch die Kategorie "NVIDIA G-Sync Compatible" auswählen.

Es gibt nämlich ein weiteres Problem. Die FPS, die gerendert werden, sind nie konstant, sondern schwanken mitunter sehr stark.
Sind nicht viele Objekte usw. im Bild, können mehr Bilder berechnet werden als wenn sehr viel los ist auf dem Bildschirm und du dich auch noch schnell durch diese virtuelle Welt bewegst.

Dieses System sorgt nun dafür das der Monitor genau die Bilder pro Sekunde darstellt, die die Grafikkarte aktuell liefert.
Es gibt also keine feste Bildwiederholrate mehr, sondern sie passt sich kontinuierlich an die FPS, die die Grafikkarte liefert, an.
Natürlich bis zum für den Monitor maximal technisch darstellbaren.

Monitore mit G-Sync oder FreeSync können nämlich oft mehr als 60 Bilder pro Sekunde darstellen. Diese haben meist 144Hz oder mehr.
(Monitore, die mit mehr als 144Hz angegeben werden (z.B. 165Hz), haben oft auch nur ein 144Hz Panel, dass aber quasi "übertaktet" wird.
Eine Technik, die man seit Jahren von Fernsehern kennt, bei denen das Panel auch gerne übersteuert wird.)

Warum eigentlich die krumme Zahl 144Hz? Das nennt man auch "Triple Flash", entspricht 3x48Hz und stammt ursprünglich aus der Kino-Technik.
Normale Kinofilme (auf den jahrzehntelang üblichen Filmrollen) laufen mit 24 Bildern pro Sekunde, wobei aber jedes Bild zweimal dargestellt wird durch einen Shutter.
Auf der Leinwand kommen also 48 Bilder pro Sekunde an. Bei einer modernen Digitalprojektion funktioniert das etwas anders.

Wird das Spiel konstant mit mehr als 144Hz gerendert, hast du wieder das gleiche Problem wie ohne G-Sync/FreeSync.
Da diese Monitore aber fast immer eine entsprechend hohe Auflösung haben und der Spieler die Einstellungen der Spiele entsprechend höher dreht (weil die Darstellung flüssiger aussieht),
spielt das aber kaum eine Rolle.

Input Lag ist wieder was anderes und hat nichts mit dem oben genannten zu tun.
Input Lag bedeutet nichts anderes als die Zeit, die vergeht, bis das gerenderte Bild, von der Grafikkarte kommend, im Monitor verarbeitet, dargestellt und in deinen Augen angekommen ist.
Oder anders formuliert, die Latenz zwischen der Mausbewegung und der wahrgenommenen Bewegung auf dem Bildschirm.

Das hat nichts mit dem verbauten Panel-Typ zu tun, also TN, IPS, VA usw.
Diese unterscheiden sich in der Art wie sie letztlich ein sichtbares Bild erzeugen, haben unterschiedliche Kontrastwerte, sind unterschiedlich schnell und unterschiedlich farbecht.
IPS Panels haben - grob gesprochen - die besseren Farben, VA Panels den besseren Kontrast.

Zusammenfassung:

- Kein G-Sync/FreeSync, kein VSync: Feste Bildwiederholrate, variable FPS.
Schnelle Darstellung, aber immer Tearing. Je nach Rechner, Bildschirm, Spiel und Einstellung unterschiedlich stark, aber immer da.

- Kein G-Sync/FreeSync, VSync: Feste Bildwiederholrate, feste FPS.
Kein Tearing, aber eine scheinbar langsame und gleichmäßig ruckelnde Darstellung. Vor allem bei Monitoren mit nur 60Hz.
Weniger störend als Tearing, aber vor allem bei schnellen Bewegungen wie Shootern usw. durchaus störend, weil Bewegungen langsamer erscheinen.

- G-Sync/FreeSync: Variable Bildwiederholrate, variable FPS.
Beide immer gleich laufend, bis zum maximal möglichen des Monitors.
Kein Tearing, kein Ruckeln, eine schnelle und flüssige Darstellung.

PS:
Es gibt auch noch Fast Sync. Das lasse ich an dieser Stelle aber mal außen vor.
Fast Sync ist im Grunde ein leicht verbessertes Adaptive Sync, kommt aber nicht an die Qualität von G-Sync oder FreeSync heran.

Bei manchen Spielen ist es auch hilfreich ein Frame-Limit einzustellen.
Manche Spiele haben bereits ab Werk einen fest eingebauten/eingestellten FrameLimiter laufen, sieht man oft z.B. bei Konsolen-Portierungen.

Und G-Sync/FreeSync arbeitet nur in einem bestimmten FPS-Bereich. Liegen die FPS darunter oder darüber, greift das System nicht mehr.
Diese Range ist bei FreeSync oft kleiner als bei G-Sync.
Grundlagen halt...
 
Zuletzt bearbeitet:
Gut wenn man einen Monitor hat der G-Synch UND adaptiv-Synch beherrscht und das von 1Hz bis max. Monitorfrequenz (mit OC 175Hz, normal 144Hz bei mir) :).
Diese Technik möchte ich nicht mehr missen, da sie mir genau so einen "WoW-Effekt" wie nach Umstellung lahmer Festplatte auf SSD brachte. Und da steckt wesentlich mehr hinter der Technik wie nur Bekämpfung von Tearing...
@Keelval
Deine Monitore können nur G-Synch. Nutzt du diese Technik dann viel Erfolg auf der Jagt nach einer Ampere-Graka zum NICHT-GIERPreis... AMD Graka würde bei dir keinen Sinn machen mit deinen Monis.
Unverständlich warum man bei seinem 144Hz-Monitor nur 120Hz einstellt. Oder taktet deine Graka im Multimonitorbetrieb höher wie 120Hz nicht runter? (den Bug gab es mal).

mal fix zu G-Synch was informatives rausgesucht:
https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/
https://forums.guru3d.com/threads/g-sync-in-game-v-sync-or-control-panel-v-sync.434660/

Hoffe das hilft :daumen:
 
Zuletzt bearbeitet:
HasleRuegsau schrieb:
Keine Ahnung weshalb Nvidia für diese Innovation so viel Kritik erntete.

Proprietär und NV hat sich die Technik halt auch gut bezahlen lassen. Nicht nur das NV-Karten in der Regel teurer als die AMD-Konkurrenten waren. Nein durch die G-Sync-Lizenz und die Module waren die Monitore auch noch teurer als Monitore mit "normalen" adaptiven Sync. Da werden halt Feindbilder geschaffen...
Technisch, ich weiß nicht wie es aktuell ist, gab es anfangs kaum was zu bemängeln: G-Sync hat nun einmal wesentlich besser, stabiler und fehlerfreier funktioniert als Adaptive Sync. Wie gesagt, wie es inzwischen ist, kann ich nicht beurteilen.
 
The_Jensie schrieb:
Freesync funktioniert genauso gut. ;)

Schön wäre es. Mein Samsung-Monitor flackert (und das liegt nicht an einem Defekt), der MSI-Monitor meines Freundes flackert deutlich weniger, aber auch in manchen Szenen. In der Theorie ist Freesync klasse, aber die Qualitätskontrolle lässt offenbar zu wünschen übrig.
 
mit den monitoren wird mit einer amd grafikkarte kein adaptive sync funktionieren, weil das gsync modul nur mit nvidia karten kommuniziert.

aktuelle gsync monitore können auch von einer amd karte angesprochen werden, allerdings ist das nirgends gekennzeichnet, was die kompatibilität eigentlich recht sinnlos macht.
 
Könnt ihr Spiele und ggf Einstellungen empfehlen, in denen ich G-Sync wirklich mal testen kann?
Weder in GTA V, CoD: MW noch in CoD WWII erkenne ich einen unterschied, ob G-Sync an oder aus ist...
 
Habe es jetzt mal mit Overwatch getestet. G-Sync aktiviert und deaktiviert.
Ich weiß nicht, ob es die Einstellungen in Overwatch evtl nicht zulässt, da ich die Auflösung zwar in WQHD Einstellen kann, jedoch auch mit einem Framelimiter versehen ist.

Bewege ich mich schnell hin und her, habe ich schlicht kein Tearing, da kann ich machen was ich möchte.
Habe es auch schon mit dem Handy als Slow-Mo aufgenommen und angesehen. Gibt nichts zu erkennen.
Habe mich an dieses Video gehalten
Screenshot_7.png
 
Habe nun etwas weiter getestet.
Stelle ich die Framerate unter die Hz Rate meines Bildschirmes, habe ich Tearing.
Lasse ich die Einstellungen so und schalte G-Sync in den Nvidia Einstellung ein, sollte das Tearing doch weg sein, dafür ist der Chip doch da, oder nicht?
Dem ist jedoch nicht so. Tearing bleibt bestehen
 
Ist denn G-Sync auch in den Einstellungen des Monitors (also am Monitor selber) aktiviert?

Dein Asus ROG Swift PG278Q kann nur G-Sync (bis 144Hz) aber kein FreeSync.
VSync solltest du ausschalten in den Spiele-Einstellungen.
Und wenn du möchtest die maximale Framerate auf 144Hz beschränken, da bei allem drüber kein G-Sync greift.

Was wird dir als Overlay in Spielen oben rechts angezeigt,
wenn du in der nVidia Systemsteuerung beim Reiter "Anzeige" die Option "Indikator G-SYNC-Kompatibilität" aktivierst?

Was G-Sync macht, habe ich hier versucht zu erklären.
 
Zuletzt bearbeitet:
Zurück
Oben