News G-Sync: Nvidia unterstützt nun auch Monitore mit Adaptive-Sync

Moriendor schrieb:
Es wird in der Tat sehr interessant ab 15.01. mal anhand von User Praxiserfahrungen zu schauen, wie viele Adaptive-/FreeSync Monitore in der freien Wildbahn nun tatsächlich fehlerfrei mit nVidia Karten harmonieren... oder dies eben auch nicht tun und inwiefern nVidia da mit den Treibern noch wird nachbessern können bzw. vor allem auch wollen.

Falls ich es nicht vergessen sollte, teste ich es.
Schätze mein Monitor wird unterstützt (man weiß ja nie) und dann Adaptive Sync + GTX 1080.
Aber wie schon mal erwähnt: Ich hatte schon F und G Sync in Verwendung (mit passenden Grakas) und eine Aktivierung bzw. Deaktivierung des Adaptive Sync (F oder G) vs. den normalen 144hz haben für mich keinen Unterschied gezeigt.
60hz dagegen fühlten sich sehr ruckelig an, wenn man von 144hz runterging.

Der Vorteil wäre hier halt der geringere Inputlag, falls man 144hz/Vsync sonst verwendet.
Aber nicht einmal das nutze ich - Immer 144hz ohne Vsync und FPS-Limit. Funktioniert top und ist sehr geschmeidig :P
 
  • Gefällt mir
Reaktionen: Moriendor
Generell ist es begrüßenswert, dass Nvidia den Schritt in Richtung Freesync macht. Ich war oft - trotz meines 2730z verleitet nen G-Sync Monitor zu kaufen. Nun scheint diese Sorge obsolet. Ich bin aber mal gespannt, wie ausgereift, dass Ganze am 15 wirkt. Im Moment habe ich das Gefühl, dass Nvidia diesen Schritt nur wegen des Aktienkurses und der sich anbahnenden Vega 2 Generation fährt.
 
BESTE IT-Neuigkeit 2019 !
 
SKu schrieb:
Na ja, ich hätte gerne mehr als 100fps mit hoher Qualität.^^
Das ist halt mit 4K nicht drin.
SKu schrieb:
Willst du mir jetzt allen Ernstes eine GPU für Content Creator für schlappe 2,5k € als Lösung präsentieren?
Ich sage es mal so: Wenn die RTX Titan die Ergebnisse, die in WQHD erzielt wurden auch in 4K umsetzen könnte, dann wäre das interessant. So sehe ich nichts in 4K, was auch nur annähernd an 144Hz heranreichen könnte.

Zuerst sprichst du von mind. 100 fps.
Und nun müssens auf einmal mind. 144 fps sein? Aha.

Die 2080Ti schafft diese fps auch.
Und muss man wirklich alles maxed out - wie in dem Test - spielen?

Man kanns sichs natürlich immer so hindrehen wie man will.
Aber zu sagen 100 fps in 4k sind heute noch nicht möglich ist schlicht falsch.
 
DocWindows schrieb:
Nein, nicht machen, sondern machen könnten. nVidia verspricht hier keine einwandfreie Funktion weil sie es nicht können. Es kann funktioniere, muss aber nicht.
Dann sind sie lediglich zu faul



Ja, und was ist mit Adaptive Sync kompatiblen Geräten die nicht in dieser Liste stehen? Same problem.

Jetzt hat nVidia halt auch ne Liste mit Adaptive Sync kompatiblen Monitoren. 12 Stück halt.
Beim Rest der Modelle musste halt schauen.[/QUOTE]
HPLT schrieb:
Fühl mich leicht verarscht. Der 2730z is mMn sogar hochwertiger als der 2740 (dank 1440p) und wird nicht unterstützt. Generell wenn ich das richtig Überblicke hat keiner der 27 Zoll Monitore 1440p. Wer nutzt solche Teile überhaupt. Kein Plan, dass sie Freesync unterstützen können zeigt sich ja an den besagten Monitoren - Also warum kein globaler Treiber...
Alle FreeSync Monitore werden unterstützt. Doch nur bei 12 Stück ist es automatisch aktiviert wenn angeschlossen. Bei allen anderen darf man es dann manuell einschalten.

Ist natürlich blöd wenn sie ihren eigenen Monitoren Konkurrenz machen und die Käuferschicht zu den günstigeren Modellen greifen.
 
Wow, das ging ja dann doch schneller als gedacht, auch wenn es viel zu lange gedauert hat.

Endlich unterstützt Nvidia auch den offenen Standard, weiter so! :)
 
MrZweistein schrieb:
Wurden ja quasi gezwungen wenn HDMI 2.1 VRR in der Spezifikation unterstützt. Das muss auf allen HDMI 2.1 laufen können. Aber mal wieder typisches Nvidia Marketing mit den 12 von 400 getesteten Monitoren.
400 Monitore getestet, aber nur 12 haben die nVidia Qualitätsansprüche bestanden. Ob auch alle anderen Displays einwandfrei funktionieren muss sich halt zeigen.
 
Puh, da bin ich heilfroh, dass ich meinen Gsync.Monitor zurückgeschickt und mir stattdessen einen C49HG90 gekauft hatte. Sehr, sehr geil.

Das hat mein Ansehen von NVIDIA gerade massiv gesteigert.
 
  • Gefällt mir
Reaktionen: dersuperpro1337 und SirMiles
Ich bin schwer beeindruckt. Das hätte ich schon in 2019 nicht für möglich gehalten. Also doch nicht mehr ganz so doll beratungsresistent wie bisher. Bestärkt mich in meiner Einstellung kein Geld für proprietäres Gedöns auszugeben wenn auch open source seinen Zweck erfüllt.
 
schkai schrieb:
Als Benutzer sollte man doch in der Lage sein zu unterscheiden welcher Monitor sich fürs Gaming eignet und welcher nicht. Dafür gibt es diverse Tests - nur weil irgendwo Freesync oder Gaming steht heißt es nicht das es ein guter Gaming Monitor ist.
Nebst deiner komischen Bemerkung vorher hast du hier schon Recht. Dennoch wurde bisher zu oft das Argument aufgeführt, dass FreeSync Monitore immer günstiger bei gleicher Ausstattung wären, was augenscheinlich falsch ist. Viele davon sind in den wichtigen Bereichen den G-Sync Versionen meist unterlegen und dennoch wird gebetsmühlenartig gegen Nvidia gewettert. Damals war der Vergleich zwischen dem PG279Q vs. MG279Q sehr populär. Ein aktuelleres Beispiel wäre wohl der LG 34GK950G und LG 34GK950F, welche viele Gemeinsamkeiten teilen und dennoch nicht verschiedener sein könnten.

Im Grunde immer noch eine begrüssenswerte Entwicklung.
 
  • Gefällt mir
Reaktionen: unknown-user und shoKuu
Esenel schrieb:
Zuerst sprichst du von mind. 100 fps.
Und nun müssens auf einmal mind. 144 fps sein? Aha.

Hat doch @SKu nicht gesagt?

144hz =/= 144fps.

144hz Panel = deutlich flüssiger und geschmeider als jedes 60hz Panel.
Wenn man dann ~100FPS hat ist es richtig geil.

Und an dieses Gefühl kommt man mit 4k/60hz nicht ran.

So verstehe ich ihn, bzw. ist das auch meine bisherige Erkenntnis.
 
  • Gefällt mir
Reaktionen: valnar77
SFVogt schrieb:
400 Monitore getestet, aber nur 12 haben die nVidia Qualitätsansprüche bestanden. Ob auch alle anderen Displays einwandfrei funktionieren muss sich halt zeigen.

Selbst wenn es bei bestehenden Monitoren mit Adaptive Sync wirklich so viele gibt, die nicht optimal mit Nvidia-Karten funktionieren, werden die Monitorhersteller bei allen kommenden Modellen garantiert darauf achten. Schließlich sind Nvidias GPUs im PC-Gaming-Bereich mit großen Abstand am verbreitesten.

Bei HDMI 2.1-TVs könnte es schon kritischer werden für Nvidia, weil da praktisch nur XBox One und PS4 als Spieleplattformen eine Rolle spielen und die setzen beide auf AMD-Grafik, woran sich wohl auch in der nächsten Generation nichts ändern wird. Da wird sich kaum ein TV-Hersteller die Mühe machen wollen, darauf zu achten, dass VRR auch mit Nvidia-GPUs sauber funktioniert.
 
RichieMc85 schrieb:
Warum? Dank des Gsync Scalers haben fast alle Gsync Monitore einen deutlich niedrigeren Input Lag. Der Scaler ist halt nicht nur pure Abzocke wie es alle gern denken. Ich würde erstmal ein paar Tests abwarten bevor hier wieder verbreitet wird Gsync wäre überflüssig.

Da Habs doch mal ein Video von Linus Tech tips (crysis 3) und da sahen die Ergebnisse bezüglich des Input lags nicht klar für NVIDIA aus. Woher kommt dieses Gerücht überhaupt?

G-Sync und freesync geben sich im Schnitt überhaupt nichts.
Man suggeriert es nur um diese 150-350€ Aufpreis zu rechtfertigen.

Oder gibt es hierzu neue / andere Erkenntnisse?
Ergänzung ()

maxpayne80 schrieb:
Nein, ich bin mit dem Monitor an sich sehr zufrieden, und wegen den 150 Euro oder was es sein mag mache ich mich nicht Nass.

Das Problem sind nicht die 150€ sondern das du zukünftig keine Wahl mehr hast 😉
 
  • Gefällt mir
Reaktionen: Celinna
Also ich hab den in der News erwähnten AOC G2590FX, dazu eine 2080..
Kenne mich aber nicht wirklich mit diesem ganzen Gsync Zeug aus, bringt das überhaupt was wenn man sowieso meist in 144 fps spielt? Früher wars doch nur für die niedrigen FPS als Ausgleich oder hat sich dort was geändert?
 
Frank schrieb:
zertifiziert sind aber nur 12 Monitore


erst dachte ich ja, ihr meint monate^^ aber naja, irgend ein haar gibt es immer in der suppe.

und like always....konkurenz ist gut fürs geschäft. pupu aa auf "nur" 12 monitore und hoffen, die nvidia jungs begreifen endlich mal, dass der gegner nicht im roten mantel von amd kommt....

mfg
 
GERminumus schrieb:
...Woher kommt dieses Gerücht überhaupt?
Oder gibt es hierzu neue / andere Erkenntnisse?

Aus dem Test des LG 34GK950G auf TFTCentral :

We measured a total display lag of only 3.3ms. We estimate that pretty much all of that will be a result of the pixel response times and so can infer that there is basically zero processing lag at all. This isn't an exact science but provides a good indication of what the signal processing lag is. We have seen similar behaviour from some other G-sync screens such as the Dell Alienware AW3418DW and Asus ROG Swift PG279Q for instance which had basically no signal processing lag and would be directly comparable in this area.

The G model was quite a lot faster than the F model which had shown an estimated 9.70ms of signal processing lag. While the G-sync module might be holding the screen back in some places, it does at least allow for a super-low lag.

Ob einem das den Aufpreis und (derzeit auch noch) die Limitierungen von G-Sync1 gegenüber FreeSync2 wert ist, muss natürlich jeder selbst abwägen.
 
  • Gefällt mir
Reaktionen: Che-Tah, GERmaximus und RichieMc85
Hut ab AMD, dem Initiator für Adaptive Sync auf Desktop-Monitoren. Von diesem Standard profitieren ab dem 15. Januar alle.
 
  • Gefällt mir
Reaktionen: Iscaran
GERminumus schrieb:
Da Habs doch mal ein Video von Linus Tech tips (crysis 3) und da sahen die Ergebnisse bezüglich des Input lags nicht klar für NVIDIA aus. Woher kommt dieses Gerücht überhaupt?

G-Sync und freesync geben sich im Schnitt überhaupt nichts.
Man suggeriert es nur um diese 150-350€ Aufpreis zu rechtfertigen.

Oder gibt es hierzu neue / andere Erkenntnisse?
Ergänzung ()



Das Problem sind nicht die 150€ sondern das du zukünftig keine Wahl mehr hast 😉


Ich zitiere mal TFT Central:

"We measured a total display lag of 13.8ms. With around 4.10ms of that account for by the pixel response times we can estimate a signal processing lag (the part you would feel) of around 9.70ms. This is a fairly low level of lag overall, although a little over 1 frame at 144Hz. Most G-sync screens show between 0 and 5ms of signal processing lag, as those are helped by the presence of the G-sync module and absence of an additional scaler. We've yet to see a G-sync screen that shows any real lag to be honest. FreeSync and other screens with a separate scaler are often quite a bit higher, for instance the LG 38UC99 had 19.4ms of signal processing lag, and the Philips 349X7FJEW had 17.25ms. This LG 34GK950F has 9.7ms which is somewhere in the middle. We don't expect this to cause any major issues for all but the serious, professional gamer to be honest in real use."

Denke der Seite kann man schon glauben.

Edit: Das war wohl jemand schneller :)

Fakt ist jedenfalls das NV das Gsync Modul nicht zu Spaß eingebaut hat. Wer das beste haben will ist auch bereit den Aufpreis zu zahlen.
 
  • Gefällt mir
Reaktionen: SyntaX und GERmaximus
Zurück
Oben