Bericht Nvidia „G-Sync“ im Praxistest

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.596
Mit „G Sync“ will Nvidia die Vorteile der Modi V-Sync an und V-Sync aus vereinen, ohne neue Nachteile zu schaffen. Wir werfen einen ersten Blick auf die Technik und klären dabei ausführlich, in welchen Anwendungen G Sync Vorteile bringt und in welchen nicht. Auch eine Alternative zur proprietären Technik ist und dabei über den Weg gelaufen.

Zum Artikel: Nvidia „G-Sync“ im Praxistest
 
"Alle 2 Hz" sollte man nochmal überdenken. Rechtschreibfehler sind ja allgegenwärtig, aber die Angabe "alle 2 pro Sekunde" ist ... interessant.

Edit:
In der Grafik zur Performance werden dann Hz zu Hh.
 
Zuletzt bearbeitet:
Ich hab's vor Wochen schon in der PCGH gelesen.

Ist natürlich 'ne feine Sache - auch wenn es kein Allheilmittel ist.

Leider ist das wieder ein (erneutes) Hersteller only-Ding, und wird nur von nV-Karten ab einer gewissen Gen. unterstützt.

Somit wirkt dessen Anwendungsbereich schon mal sehr limitierend.
 
Wieso stark limitierend? Es gibt nur zwei Grafikchiphersteller. Und davon hat die Mehrzahl ohnehin nvidia im Rechner. Fehlt also nur der Monitor.

@persönliche Meinung des Autors
Warum ist man denn zu Kompromissen gezwungen? Die Zeiten, wo man nur einen Monitor vor sich stehen hatte, sind für viele schon längst vorbei. Ein Monitor zum Zocken, ein Monitor für brilliante Farben, ich seh da kein Problem.
 
Wolfgang schrieb:
Wo also bleibt der 27 Zoll große Monitor mit einem hochwertigen Panel, einer Auflösung von 2.560 × 1.440 Pixel, 144 Hertz und gerne auch mit G-Sync?

Das kann man so nur unterschreiben. Habe aufgrund von viel Bild- und Videobearbeitung auch ein Graus vor TN-Panels , würde mich aber über einen flotten 27-/30-Zöller sehr freuen. Aber selbst wenn ich eine NV-Karte hätte müßte ich ja auf eines verzichten.
Ansonsten aber ein schöner Test. Ich hoffe ja, daß Mantle wirklich gut wird und AMD dann vielleicht ein schönes Tauschpaket für Nvidia schnüren kann, was proprietäre Technologien angeht :) (ja ich weiß, wunschdenken, aber es ist bald weihnachten ;) )


schreiber2 schrieb:
Wieso stark limitierend? Es gibt nur zwei Grafikchiphersteller. Und davon hat die Mehrzahl ohnehin nvidia im Rechner. Fehlt also nur der Monitor.

Zwar mögen mehr als 50% die Mehrzahl sein, nichtsdestotrotz haben sie nicht einen derartigen Vorsprung, als daß das AMD-Lager vernachlässigbar wäre.


schreiber2 schrieb:
@persönliche Meinung des Autors
Warum ist man denn zu Kompromissen gezwungen? Die Zeiten, wo man nur einen Monitor vor sich stehen hatte, sind für viele schon längst vorbei. Ein Monitor zum Zocken, ein Monitor für brilliante Farben, ich seh da kein Problem.

Es soll auch Menschen geben, die entweder:
a) nicht ausreichend Platz für mehr als einen (großen) Monitor haben
b) nicht gewillt sind für jeden Wunsch ein eigenes Gerät zu haben
c) nicht das Geld ausgeben möchten, wenn es doch theoretisch auch anders ginge.

Natürlich kann man sich mehr als ein Monitor dahinstellen, aber warum bitte kann ich denn nicht alle Funktionen in einem haben? Ich stelle mir doch auch nicht ein Office-PC, eine Workstation und eine Zockermaschine unter den Schreibtisch, nur weil alle drei Gebiete nicht hundertprozentig übereinstimmende Anforderung haben. Wer sagt denn, daß ein Spiel auf einem Monitor mit besserem Display nicht auch noch ein Fünkchen mehr Spaß machen kann?
 
Zuletzt bearbeitet:
@schreiber2:
Und was ist mit brillianten Farben während des Zockens?
Zudem hat man auch nicht immer Platz für zwei große Monitore.
 
schreiber2 schrieb:
@persönliche Meinung des Autors
Warum ist man denn zu Kompromissen gezwungen? Die Zeiten, wo man nur einen Monitor vor sich stehen hatte, sind für viele schon längst vorbei. Ein Monitor zum Zocken, ein Monitor für brilliante Farben, ich seh da kein Problem.

So ein Humbug. Entweder stelle ich mir 2 oder gar 3 gleiche Monitore auf den Tisch (zum Zocken oder zum Arbeiten oder beides).
Aber ganz sicher nicht einen zum Zocken und einen zum Arbeiten. 2 Screens mit unterschiedlicher Grösse, unterschiedlicher Auflösung und womöglich noch unterschiedlicher Farbwiedergabe? Wär ja noch doller.
 
@reichsverweser. Genau. Weil jede Vorschrift gleich 1 zu 1 in technische Verbesserungen resultiert.
Und weil "ordentlich" auch für jeden das Gleiche bedeutet. Genau. Schreiben wirs mal in ne Norm. Herr je!
 
G-Sync wird vor allem für VR sehr interessant. Tearing und Judder sind im Rift wirklich unangenehm.
 
Wolfgang schrieb:
Wo also bleibt der 27 Zoll große Monitor mit einem hochwertigen Panel, einer Auflösung von 2.560 × 1.440 Pixel, 144 Hertz und gerne auch mit G-Sync?

Du nimmst mit die Worte aus dem Mund ;)

Nie wieder TN und FullHD bei 27 Zoll. Da leb ich lieber mit 60 Hz (75 Hz) und einem Mittelmäßigen Inputlag oO. Ich bin gespannt.
 
naja es ist nicht Nvidias Schuld dass es bisher keinen vernünftigen Standard für dynamische Frameraten gibt... allerdings könnte man die Technik sicher soweit öffnen, dass auch AMD GPU damit was anfangen können.

Das Potential ist sicher enorm, denn gerade zwischen 30 und 60 FPS dürften die meisten gamen... und da wirkt das Bild dann schnell flüssiger und besser als bei 5 oder gar 20 FPS mehr. Wenn das Spiel auf nativen 144hz rennt + auch noch einen 144Hz Monitor befeuert ... dann ist es nur logisch dass hier der Unterschied geringer ausfällt.

Ein 35FPS Game auf einem 144hz Monitor resultiert aber in Tearing... und genau dafür is G-Sync gedacht.
 
sollte es nicht tearing und input lag komplett eliminieren?
jetzt ist es uninteressant für mich, schade eigentlich


vielleicht kommt in 10 Jahren ein echtes G-Sync
 
Schließe mich der persönlichen Meinung von Wolfgang an im endeffekt limitiert man sich auch so die Monitor Auswahl sehr extrem außerdem wird der Straßenpreis zeigen ob sich das durchsetzten kann. Wenn die Technik günstig genug ist das es sozusagen einen Mitnahme Effekt gibt dann würde ich dieser größere Chancen geben.

Schade ist das man sich hier nicht wieder einigen kann also Intel, AMD & Nvidia an einem Tisch, so hat das ganze nicht nur einen leicht faden Beigeschmack sondern wird dadurch länger brauchen und teuer für den Anwender sein.

Mein Fazit

da ich auch am PC arbeite und auch ein EIZO hab -> G-Sync ist Nett aber für mich kein must have
 
Gibt zwei Dinge, die ich an dem Praxistest ändern würde:

Auf seite zwei würde ich in der Tabelle "Auffälligkeiten bei 60 Hz" verdeutlichen, dass sich das "stottern" und "hakt" auf Vsync AN und FPS unter 60 bezieht.

Dachte kurz "Häh, warum ruckelt es denn mit Vsync AN bei euch immernoch?"

Zweitens gibt es ne weitere Alternative, als nur 144Hz Monitore: Triple Buffer!
Klar, es bietet bei weitem nicht jedes Spiel an, aber es wäre nicht verkehrt an dieser Stelle mal die Leute aufzuklären, dass wir alle auf Tearing und (fast keinen) Input-Lag verzichten könnten, wenn die Entwickler mal entsprechende Funktion in ihren Engines einbauen würden.

An dieser Stelle mal: http://www.anandtech.com/show/2794/2
 
Zuletzt bearbeitet:
Das heisst, sollte man sich einen Monitor mit diesem Feature kaufen, muss man sich darüber im klaren sein beim späteren eventuellen aufrüsten der Grafikkarte nur noch nVidia kaufen zu können, wenn man G-Sync weiter nutzen will. Man bindet sich quasi mit dem G-Sync Monitor an den Grafikkartenhersteller. Hmm..
 
Liebe Computerbase-Redaktion, vielen Dank für den informativen Test. Ich vermisse aber im Vergleich 2 Einstellungen.
1. 60 Hz mit aktiviertem Framelimiter auf 58 FPS (NvidiaInspector oder MSIAfterburner/Rivatunerstatisticsserver)
2. 60 Hz mit aktiviertem Framelimiter auf 58 FPS und erzwungenem TripleBuffering und erzwungenem VSYNC durch den DXOverrider. Ich spiele perönlich nur mit letztgenannter EInstellung und diese ist um WELTEN besser als nur 60 HZ und Vsync.

Außerdem meine ich mich zu erinnern, dass der benutzte 144 Hz Monitor im Test (bei Prad.de?) deutlich schlechter im 60 HZ als im 144 Hz Modus agiert.
 
Zurück
Oben