Free- oder g-sync bei geringen FPS (<80 FPS)

Ganjaman666

Cadet 3rd Year
Registriert
Okt. 2008
Beiträge
40
Ich frage mich schon lange, ob die gesyncte Bildausgabe mir was bringen kann. Derzeit spiele ich mit einem SLI aus zwei GTX 770 mit je 4GB. Ich komme meist über 100 FPS und das sieht dann echt rasant flüssig aus. Wenn ich 60 FPS auf 60 HZ mit VSYNC laufen lasse, sieht das für mich aus wie ein Daumenkino. Würde dieser Effekt mit Free- oder G-Sync verbessert werden?

Dann bräuchte man ja nicht mehr die brachiale Rechenleistung. SLI hat ja auch genug Nachteile.

Mein derzeitiger Monitor ist übrigens der BenQ XL2720Z.
 
Zuletzt bearbeitet:
evtl. ja. Aber du kannst nur Gsync nutzen, da du Nvidiakarten hast. Dein Daumenkino können auch einfach Mikroruckler sein. Typisches Multi-GPU-Problem
 
Ich nutze zeitweise G-Sync an einer GTX 770 4GB und gefühlt sind 30+ FPS völlig in Ordnung. Ich nutze an dem PC G-Sync also dafür, um FPS gegen Grafikqualität einzutauschen und trotzdem ein flüssiges Bild zu haben.
 
kann sli gsync?
generell würd ich an deiner stelle die 2 770-er verkaufen und dann ne 1080 (1070) holen (falls die nicht zu teuer wird)
 
Mr.Smith schrieb:
dann ne 1080 (1070) holen (falls die nicht zu teuer wird)

Ja, Kaufempfehlungen für Produkt die weder angekündigt, noch irgendwelche Daten dazu verfügbar sind, sind immer sehr hilfreich...
Desweiteren gehts dem TE ja genau um das, dass er das SLI auflösen will, falls Gsync sein Problem zufriedenstellend lösen würde
 
Also ich habe nochmal etwas mit Far Cry 3 getestet:

60Hz ohne SLI mit V-Sync: nicht so schlecht wie ich es in Erinnerung hatte. Aber schnelle Schwenks machen das Bild undeutlich.
60Hz mit SLI und V-Sync: kein Unterschied festzustellen
144Hz mit SLI: bei schnellen Schwenks bleibt das Bild viel deutlicher, obwohl es jetzt mit Ultra Setting nur 90FPS gab
60Hz ohne SLI und mit V-Sync auf halbe Frequenz (also 30 FPS) gedrosselt: wie scheisse sieht das denn aus? Das ruckelt wie verrückt. Bei geradeaus laufen geht das ja noch, aber wehe man dreht sich mal etwas. Mir wurde bei einer Minute testen fast schlecht.
60Hz ohne SLI mit Limit 30 FPS (via Inspector): gefühlt etwas besser, aber immer noch eine Zumutung.

Fazit: Wenn G-Sync bei gleicher Frequenz wie V-Sync aussieht, dann kann ich mir das sparen.

Ich frage mich aber, ob ich nicht noch ein anderes Problem habe. Wenn Idon z.B. schreibt, dass 30FPS in Ordnung sind? So blind kann der doch auch nicht sein. Die Konsolenspieler leben ja auch mit 30FPS, wenn auch mit Bewegungsunschärfe.
 
Zuletzt bearbeitet:
@Ganjaman666
deine geschilderten erfahrungen, kannst du überhaupt nicht mit g-sync vergleichen.
Mit 30 fps, ist es am ehesten so wie g-sync, mit 144hz + v-sync.
Das haut dir dann aber den inputlag rein.

Außerdem reagieren games(oder entsprechend dann die grafikkarte) auch mal empfindlich auf FPS-begrenzung(sei es durch v-sync oder gesetzten framecap).

(später kommt noch ein vergleichsvideo aus FC3) :)
 
Zuletzt bearbeitet:
Ich bemerke (mit G-Sync!) einen Einbruch der Frameraten auf <50 FPS schon. Es sieht für mich etwas flüssiger aus als ohne G-Sync, aber man merkt es eben doch, wenn weniger FPS dargestellt werden. Gerade bei schnellen Kameraschwenks - das sieht mit 100+ FPS schärfer aus.
Aber es gibt kein Tearing mehr mit G-Sync - das reicht mir schon, um mich nie wieder von variablen Bildwiederholraten trennen zu möchten ;)
 
hier nochmal das vid:
https://www.youtube.com/watch?v=NIuHkilkIss

(natürlich hat youtube nochmal ordentlich an der qualität rumgepfuscht...:rolleyes:)

der sweetspot für G-sync, liegt so im bereich von 65 FPS würde ich sagen.
Ab da sieht es aus wie >100 FPS + v-sync @144hz(und das ohne merkbaren inputlag, im gegensatzt zu v-sync).
Und wenn die FPS dann auf 50 FPS runtergehen an kritischen stellen, dann merkt man da auch nicht direkt was von wenn man mal den framecounter aus hat. :p
 
Zuletzt bearbeitet:
Danke für die ganzen interessanten Beiträge!

Tearing ist bei mir in letzter Zeit nie ein Thema gewesen. Aber jeder, der bei Bildraten über 100 FPS auf meinen Bildschirm guckt, reagiert begeistert. Das sind aber alles welche, die 60Hz ohne gsync gewohnt sind. Man kan bei einem schnellen Schwenk noch fast alles erkennen.

Für mich ziehe ich erstmal den Schluß, dass ich auch weiterhin lieber auf sehr potente Hardware in Kombination mit Full HD setze. Ich warte aber lieber noch bis Pascal kommt.
 
Beim nächsten Grafikkartenwechsel auch AMD ins Blickfeld fassen. Freeync-Monitore bieten das selbe wie Gsync, sind aber einige hundert Euro günstiger
 
Das stimmt. Bisher war ich an die grünen gebunden, weil ich auch 3D Vision nutze. Da mich dort aber auch die 60Hz inzwischen stören kann man ja mal wechseln. Nur brauche ich vorerst eh keinen neuen Monitor, der Benq ist echt geil. Beim UFO Motion Blur Test kann man das Gesicht vom Alien sehr gut erkennen.
 
jo, ich sags nur, weil deine Karten ja jetzt doch schon ein paar Jahre auf dem Buckel haben.
Beim Neukauf halt im Hinterkopf haben, dass Sync-Monitore schon was geiles sind und die Kosten für so einen davor schon mit einplanen in der Gesamtabwägung ;)
 
Jo, die Karten sind alt. Aber für die Leistung einer GTX 980 reicht es noch. :D
 
Ich wärme das hier noch einmal auf. Inzwischen glaube ich, dass die Wahrnehmung von Ruckeln auch in Zusammenhang mit der Reaktionszeit des Monitors steht. Mein Monitor (BenQ XL2720Z) stellt Bewegungen sehr scharf dar. Wenn ich den UFO Test mache, kann ich dem Alien auch bei 1920 Pixel/s noch in die Augen gucken. Bei langsameren Monitoren verwischt das Bild total und ein Ruckeln ist nicht mehr sichtbar. Hat sonst noch jemand diese Abhängigkeit von der Reaktionszeit des Panels festgestellt?
 
Es gibt verschiedene Ursachen warum wir auf LCD's bei bewegten Objekten motion blur wahrnehmen.
Eine davon ist langsame Pixelübergänge.
Eine andere wesentlichere Ursache ist die hohe Peristence (je länger ein Frame angezeigt wird während einer Bewegung bevor ein neues aktuelleres kommt, desto mehr motion blur) der Frames.
Die zweite wesentliche Komponente ist die Geschwindigkeit des bewegten Objekts, je mehr pixel/s Bewegung ,desto mehr motion blur.

Was du wahrgenommen hast, das man unregelmässigkeiten während der Bewegung bei einem schärferen Bild deutlicher wahrnehmen kann stimmt aber, denn je verschwommener ein Bild ist durch motionblur, desto mehr können zumindest kleinere imperfektionen durch diesen motion blur "maskiert" werden.
 
Zuletzt bearbeitet:
Davon rede ich doch. Egal ob Du jetzt Reaktionszeit ins Englische Persistence übersetzt. Es geht mir aber nicht um Unregelmäßigkeiten, da habe ich mich mit "Ruckeln" wohl etwas missverständlich ausgedrückt. Man sieht einfach, dass es sich um einzelne Bilder handelt und bei nur 60FPS fällt das total auf wenn der Monitor dabei nicht alles verwischt. Leute mit dem Ziel alles auf 60Hz zu zocken sollten lieber zu einem Monitor mit höherer Persistence greifen, denke ich.
 
Mit persistence habe ich etwas anderes als die Reaktionszeit gemeint (ich verwende den englischen Begriff hier nur weil dieser üblicherweise bei LCD Diskussionen über das Thema benutzt wird), nämlich die Dauer wie lange ein Frame angezeigt wird (den vollen Refresh oder z.b.: wie mit ULMB nur für eine kurze Zeit der refresh periode (zb 1 ms lang). Die dauer der peristence hat nicht nur auf die Bewegungsschärfe/den motion blur hohe Auswirkungen sondern auch darauf ob die einzelnen Bilder während der Bewegung als solche wahrgenommen werden können (der Stroboskop Effekt) bzw. ob man die einzelnen Schritte/Löcher zwischen den verschiedenen Frames während dargestellter Bewegung wahrnehmen kann.
 
Ah, sorry, da hab ich was durcheinander geworfen. Du hast wohl Recht.

Dazu kann man sich auch diesen Vergleich ansehen: http://www.blurbusters.com/persistence-vs-motion-blur/
Da bekommt man in Etwa ein Gefühl dafür, was bei den Augen ankommt. Mich stört dann also bei wenig FPS (60 FPS z.B. ;) ) der Stroboskop Effekt. Ich wüsste aber nicht wie man den vermeiden soll, ohne auf unscharfe Bilder zu gehen. Im Film wird das ja auch so gemacht. Sonst würde ein Film mit 24Hz echt unrund wirken.
 
Zurück
Oben