Monitor Suche

Wenn deine Grafikkarte dauerhaft exakt 144 fps liefert (was im Spiel nie passieren wird) und dein Monitor mit 144 Hz läuft wäre das wie G-Sync/FreeSync ohne, dass eines von beidem benutzt würde.
Alleine 144 fps bei einer so hohen Auflösung zu erreichen ist mit aktuellen Spielen nicht gerade einfach und wenn man Pech hat, hat das Spiel noch einen unabschaltbaren Frame-Limiter.

G-Sync und Freesync haben das Ziel Bildrate und Wiederholungsrate in den Einklang zu bringen. Laufen sie auseinander hat man immer einen Unterschied, der eine sieht es, der andere nicht. Mit zunehmender FPS kann es sein, dass der Einzelne keinen unterschied mehr wahrnimmt.

Diese Sache mit wieiel Hz oder FPS man wahrnimmt ist sehr individuell. Bei einem statischen und konstanten Bild sehen die meisten Menschen bei heutiger Technik (LCD) eigentlich keinen (großen) Unterschied, ob 60 oder 144 Hz, bei Bewegtebildern schon eher. Insbesondere seit ich Freesync habe, finde ich Filme/TV als eine einzige Diashow, insbesondere bei horizontalen Kameraschenks. Auch sehe ich bei ruhendem Desktop ob 60 oder 144 Hz laufen (grauer Hintergrund, einfarbig), andere tun das nicht. Ist halt so. Und wehe ich bewege die Maus oder Scrolle, da liegen für mich Welten dazwischen - für andere nicht, entweder es fällt ihnen nicht auf oder sie stört es nicht.

Es geht ja bei GS / FS nicht darum innerhalb von eine 1/144 Sekunde zu reagieren, was sich auf deine Aussage von 1ms Reaktionszeit bezieht, sondern um einen klaren, gefühlt konstanten, gleichmäßigen, aber schnellen Bildaufbau. Je häufiger das Bild neuaufgebaut wird, desto flüssiger erscheint es.

Dazu kommt, dass man bei höherer Frequenz mit hohen FPS, früher etwas sieht und wenn es am Ende bei 144 Hz nur 0,5 ms früher im Hirn verarbeitet und umgesetzt werden kann als bei 60 Hz, reicht das aus, um bei Matches des Sieg davon zu tragen. So gesehen sind dann 144 Hz zu 60 Hz ein nicht so ganz kleiner Unterschied. Ich habe mir aber aus diesem Grund keinen 144 er gekauft, ich spiele quasi keine Shooter und schon garkeine im Internet, wo es auf sehr gute Reaktion ankommt. Mir geht es alleineum die Bildqualität.

Um eine gute Reaktionseit zu erreichen, sollte man zu 144 Hz greifen, FS oder GS sind dann egal, auch ob überhaupt. Wer mehr Wert auf ein schöne Spielerlebnis mit toller Bildqualität legt, sollte zu einer der Systeme mit adaptiver Refresh Rate greifen, dann sollte man FS nicht mit GS mischen, da inkompatibel. Da AMD und Intel zusammen mehr als 70 % der Grafikmarktes ausmachen, könnte nVidia auf Dauer Schwierigkeiten haben sich mit G-Sync zu behaupten, alleine wegen der Lizenzen sind die Monitore 100-200 Euro teurer, die Grafikkarten sind ebenfalls bei gleicher 3D Leistung teurer als bei AMD. Auch deshalb soll nVidia schon gesagt haben, sie werden zwar aktuell kein FS unterstützen, aber den Markt beobachten. Für mich, breits als Besitzer eine AMD Karte, war die Entscheidung also einfach, die Wahrscheinlichkeit, dass in 5 Jahren (Monitore kaufe ich mir immer für einen wesentlich längeren Zeitraum - 8-10 Jahre und mehr) eine nVidia Karte Adaptive Sync unterstützt halte ich für größer, also dass eine AMD Karte G-Sync unterstützt.

Adaptive Sync ist bereits (VESA-) Standard, nur nVidia macht sich nicht viel aus Standards.
 
Zuletzt bearbeitet:
Vielen dank für die umfangreiche Aufklärung. Für mich war es eben schwierig einzuschätzen ob ich das "brauche" oder nicht und wenn ja welches System (G oder F). Es ist nach wie vor nicht meine Aussage. Was ich für mich daraus ziehe ist, das ich eher auf Free Sync setzen werden, da es, wie du auch geschrieben hast, der Standard ist. Bin schon gespannt wie lange Nvidia dann noch G Sync Karten verkaufen kann oder ob die dann "plötzlich" auf Adaptiv/Free Sync umschwenken können.
 
Solange G-sync mehr kann als freesync, werden die nicht umsteigen. Ich hoffe es wird mit dp1.3 Standard, wird tatsächlich unterstützt und reicht immer von 20-max fps.
 
Deckt einen größere Hz Bereich ab. G-Sync kann von 30-maxHz. Das AMD Ding kann entweder 35-75Hz oder 60-144Hz (oder so ähnlich). Zumindest hab ich bisher noch keine AMD Modelle mit 30-Maximum bei Modellen mit mehr als 75Hz von AMD gesehen.
 
Qarrr³: Das ist so nicht richtig. Sei vorsichtig, bevor du technischen Besonderheiten von 2 Monitoren auf alle Freesyc Monitore verallgemeinerst.

Freesync kann per Definition 9 - 240 Hz. Quelle: https://en.wikipedia.org/wiki/FreeSync

Das kaum ein Monitor weniger als 40 und keiner weniger als 30 Hz schafft liegt an der verbauten Hardware (Scaler).
Mein Benq Xl2730Z macht offiziell durchgehend 40 - 144 Hz, ohne den Zwischenschritt 40-90 Hz und 56 - 144 Hz. Das gibt es aktuell nur bei IPS-Panel Monitoren (Asus und Eizo).

Zudem gibt es Bildschrimtreiber Hacks, mit denen man die Monitore noch etwas Tunen kann, habe meinen Range jetzt von 32- 144 Hz laufen.

FreeSync wird aktuell nur durch die Hardware der Monitore eingebremst, was nicht an Freesync und auch nicht an AMD liegt.

Und was an das "Aufgeben" von nVidia geht, hast du das hier gelesen?

Weiter ist nachteilig für nVidia, dass die Monitorauswahl deutlich geringer ist (19 vs. 31), dazu der Preis? Das macht doch kein Spaß mehr.
 
Zuletzt bearbeitet:
FreeSync wird aktuell nur durch die Hardware der Monitore eingebremst, was nicht an Freesync und auch nicht an AMD liegt.
Das ist ja das Gute bei der Zertifizierung. Ohne guten Scaler darf man halt nicht gsync draufschreiben. Der Vorteil ist also mit Sicherheit hohe Qualität (zumindest hinsichtlich der Wiederholfrequenz). Nachteil der höhere Preis.
Bei adaptive Sync ists günstiger, aber dafür muss man halt frickeln und ganz so gut wie mit g-sync ists trotzdem noch nicht.

Dass das mit dp1.3 endlich aufhört und es auch einfach so gute Geräte gibt, die mit allen Grafikkarten funktionieren, ist aber auch mein Traum.


Zu dem Aufgeben und Betrug von NVidia. Es lief auf den nicht zertifizierten Geräten nie so, dass man es wirklich hätte benutzen können. G-Sync war halt ne Neuentwicklung. In den ersten Jahren zahlt man einen Aufpreis, um das beste zu haben und irgendwann gehts in Mainstream über, aber das war ja wie bei PhysX abzusehen. Ist halt wie mit Rückfahrkamera oder Radar. Damals s-Klasse, heute im Golf.
 
Naja, von Betrug hat keiner gesprochen und soweit würde ich mich auch nie aus dem Fenster lehnen.
Physix ist ein schlechtes Beispiel. Das ist ja immer noch nVidia proprietär und kein Mainstream und mittlerweile nicht mal mehr soviel wert, um damit ein Spiel zu bewerben. Ich würde eher sagen, es ist sang und klanglos untergegeangen, es spielt keine Rolle mehr und hat nie eine große Rolle gespielt.
 
Enthusiasten haben das damals gekauft, manche sogar ne extra Karte nur dafür. Und für damalige Verhältnisse sah das bei Batman oder Mirrors Edge auch richtig gut aus. TressFX und manche gameworks Features sind die Überbleibsel. Das bekommt nur niemand mehr mit, weils eben nu Mainstream ist. In 5 Jahren werden es vermutlich auch alle Monitore Adaptive Sync unterstützen und immer wenn man was mit DP1.3b anschließt, hat man es ohne groß was zu merken. Ob Nvidia mit phsix jetzt deutlich weniger verdient hat als mit den Monitoren, kann man nur schwer einschätzen.

In der Diskussion wurde von Betrug gesprochen, weil man noch wegen der 970 sauer war und man g-sync ohne extra Chip bei den Aufpreisen als furchtbar empfand.
 
Zurück
Oben