G-Sync oder nicht ?

netGuy

Cadet 1st Year
Registriert
Sep. 2016
Beiträge
8
Hallo Zusammen.
Anfang Oktober soll ich einem Freund helfen einen neuen Rechner zu bauen. Als Grafik streben wir eine gute Geforce 1060 GTX an. Er braucht auch einen neuen Monitor und da geht’s nun um G-Sync oder nicht G-Sync. Wir dachten an 24 bis 27 Zoll und FullHD (damit er wirklich schön flüssig spielen kann nicht mehr). Nun gibt es im gegensatz zum AMD Pedant FreeSync bei G-Sync ja einen ordentlichen Preisaufschlag bei den Monitoren. 24 Zoll für 400€ , 27‘‘ ab 500€ … dabei soll G-Sync ja gerade da helfen , wenn ich das richtig verstanden habe, wenn die Grafikkarte eben nicht die max Refeshrate vom Monitor liefert und es dann dafür sorgt , dass jeder berechnete Frame auch schön dargestellt wird , weil sich die Refreshrate dynamisch an die fps der GraKa anpasst. Das soll dann flüssiger wirken als es sich bisher ohne diese neuen Techniken (G-/Free Sync) bisher angefühlt hat. Soweit so gut … nur passt das nicht , dann G-Sync als HighEnd Feature zu verkaufen und zu vermarkten.
Denn auf der anderen Seite gibt es neben den TN Displays mit Sync Technik und 144Hz auch IPS Panels (die ja angeblich ne viel bessere Bildqualität liefern sollen) mit nur 72Hz für 250€ … macht es dann vielleicht mehr Sinn auf G-Sync zu pfeifen und das gesparte Geld lieber in eine schnellere GraKa zu stecken (1070 GTX)?

Danke fürs Lesen und Antworten
netGuy
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Und wieso nicht das Geld und in einen gegenüger G-Sync günstigeren Free Sync Monitor stecken? Dadurch würde ebenfalls mehr Geld für eine bessere Grafikkarte, in dem Fall AMD bleiben?!

Ich persönlich bin kein G-Sync Freund. Hauptsächlich weil Nvidia immer versucht ihr eigenes Süppchen zu kochen. Free Sync (Adaptive Sync) hingegen könnte von beiden Parteien gentzt werden, sofern diese es auch wollen...

Anstelle von G-Sync Monitor und "schwacher" Grafikkarte, würde ich lieber einen Free Sync Monitor plus "schwacher bis mittlerer" Grafikkarte investieren.
 
Zuletzt bearbeitet:
also wenn die leistung einer rx 480 reicht würde ich auf jeden fall die nehmen und dazu ein freesync monitor. das gesparte geld kann man andersweitig investieren.

wenn die 480 allerdings nicht reicht hat man das dilemma eine ältere generation zu kaufen oder zu nvidia zu gehen und gegebenenfalls den gsync aufpreis zu bezahlen. auch da stellt sich dann die frage ob man nicht doch lieber die ~150 in eine nächstschnellere gpu investiert statt in gsync.
 
Zuletzt bearbeitet:
Die Bildwiederholrate gibt an wie oft pro Sekunde das Bild auf dem Monitor wechselt.
Angegeben in Hz (Hertz) beim Monitor oder in FPS (Bilder pro Sekunde) bei der Grafikkarte.

Ein normaler Monitor hat 60Hz, kann 60Hz darstellen und wird mit 60Hz angesteuert.

Nun ist dein Rechner (CPU/Grafikkarte usw.) leistungsstark genug um, sagen wir mal, CounterStrike mit 134 Hz zu rendern.
Die Grafikkarte wäre also in der Lage 134 Bilder pro Sekunde auszugeben und macht das auch.

- Dein Monitor kann aber nur 60Hz, also 60 Bilder pro Sekunde, darstellen. Das bedeutet, dass Bilder gerendert werden, z.B. eine Bewegung, du aber nicht jedes Bild davon sehen kannst.
Das Bild sieht "unregelmäßig abgehackt" aus. Das nennt man auch Tearing.
Dieses Phänomen ist immer da, wenn die Menge an gerenderten Bildern pro Sekunde nicht mit der Menge an dargestellten Bildern pro Sekunde übereinstimmt.
(Das war jetzt sehr vereinfacht ausgedrückt, korrekt wäre es zu sagen das in dem Fall zwei zeitlich unterschiedliche Bilder gleichzeitig dargestellt werden.)

- Jetzt gibt es VSync. Vertikale Synchronisation. Warum vertikal?
Das stammt aus der Zeit der Röhrenmonitore, die noch mit Halbbildern bzw. Zeilensprungverfahren arbeiteten.

VSync bedeutet das die Grafikkarte künstlich "gedrosselt" wird und maximal nur so viele Bilder berechnet und ausgibt wie der Monitor tatsächlich darstellen kann.
Also z.B. 60 Bilder pro Sekunde. Das sieht dann weniger "abgehackt" aus.
Das führt aber dazu das Bewegungen gleichmäßig "ruckeln".
Seltsamerweise ist man es bei Kinofilmen gewohnt das diese sogar nur mit 24 bzw. 25 Bildern pro Sekunde laufen. Bei Computerspielen wird das aber als störend empfunden...

Achtung. Das kann natürlich trotzdem heißen das ein Spiel mit weniger FPS gerendert wird als der Monitor darstellt.

- Nun gibt es ein verbessertes System: Adaptive VSync.
nVidia nennt es G-Sync, AMD nennt es FreeSync. Beide Systeme sind nicht kompatibel untereinander.
Und sowohl der Monitor als auch die Grafikkarte müssen es beherrschen.

Es gibt nämlich ein weiteres Problem. Die FPS, die gerendert werden, sind nie konstant, sondern schwanken mitunter sehr stark.
Sind nicht viele Objekte usw. im Bild, können mehr Bilder berechnet werden als wenn sehr viel los ist auf dem Bildschirm und du dich auch noch schnell durch diese virtuelle Welt bewegst.

Dieses System sorgt nun dafür das der Monitor genau die Bilder pro Sekunde darstellt die die Grafikkarte aktuell liefert.
Es gibt also keine feste Bildwiederholrate mehr sondern sie passt sich kontinuierlich an die FPS, die die Grafikkarte liefert, an.
Natürlich bis zum für den Monitor maximal technisch darstellbaren.

Monitore mit G-Sync oder FreeSync können nämlich mehr als 60 Bilder pro Sekunde darstellen. Diese haben meist 144Hz oder mehr.
Die Monitore, die mit mehr als 144Hz angegeben werden, haben auch nur ein 144Hz Panel, dass aber quasi "übertaktet" wird.

Wird das Spiel konstant mit mehr als 144Hz gerendert, hast du wieder das gleiche Problem wie ohne G-Sync/FreeSync.
Da diese Monitore aber fast immer eine entsprechend hohe Auflösung haben und der Spieler die Einstellungen der Spiele entsprechend höher dreht (weil die Darstellung flüssiger aussieht)
spielt das aber kaum eine Rolle.

- Input Lag ist wieder was anderes und hat nichts mit dem oben genannten zu tun.
Input Lag bedeutet nichts anderes als die Zeit, die vergeht, bis das gerenderte Bild, von der Grafikkarte kommend, im Monitor verarbeitet, dargestellt und in deinen Augen angekommen ist.
Oder anders formuliert, die Latenz zwischen der Mausbewegung und der wahrgenommenen Bewegung auf dem Bildschirm.

- Zusammenfassung:

Kein G-Sync/FreeSync, kein VSync: Feste Bildwiederholrate, variable FPS.
Schnelle Darstellung aber immer Tearing. Je nach Rechner, Bildschirm, Spiel und Einstellung unterschiedlich stark, aber immer da.

Kein G-Sync/FreeSync, VSync: Feste Bildwiederholrate, feste FPS.
Kein Tearing, aber eine scheinbar langsame und gleichmäßig ruckelnde Darstellung. Vor allen bei Monitoren mit nur 60Hz.
Weniger störend als Tearing, aber vor allem bei schnellen Bewegungen wie Shootern usw. durchaus störend, weil Bewegungen langsamer erscheinen.

G-Sync/FreeSync: variable Bildwiederholrate, variable FPS, beide immer gleich laufend bis zum maximal möglichen des Monitors.
Kein Tearing, kein Ruckeln, eine schnelle und flüssige Darstellung.

Das hat nichts mit dem verbauten Panel-Typ zu tun, also TN, IPS, VA usw.
Diese unterscheiden sich in der Art wie sie letztlich ein sichtbares Bild erzeugen, haben unterschiedliche Kontrastwerte, sind unterschiedlich schnell und unterschiedlich farbecht.
 
Zuletzt bearbeitet:
Wenn es nvidia sein muss klar G-Sync. Würde das Feature nicht mehr missen wollen.
 
IPS Panels (die ja angeblich ne viel bessere Bildqualität liefern sollen) mit nur 72Hz für 250€ … macht es dann vielleicht mehr Sinn auf G-Sync zu pfeifen und das gesparte Geld lieber in eine schnellere GraKa zu stecken (1070 GTX)?
Kann man so machen und die schnellere GarKa dann mit FastSync auf die 72Hz loslassen. Wird komischer weise immer vergessen das es das auch gibt :rolleyes:
 
FastSync ist aber nur gut wenn die FPS die Hz des Monitors übersteigen. Ersetzt G-Sync/FreeSync somit nicht. Wenn man es einmal hat gibt man es nicht mehr her. Wer es nicht kennt, weiss nicht was er verpasst und vermisst es auch nicht :D
 
Zurück
Oben