Test AMD FreeSync im Praxistest

Benjamin6972 schrieb:
Was mich verwundert ist, dass die 7790 V-Sync unterstützt, hingegen die R9 280 Serie nicht.

Bonaire (7790, 260(x)) hat GCN 1.1, Tahiti (7970, 7950, 280(x)) sind noch GCN 1.0. Bonaire wurde zwischen der ersten GCN Generation und Hawaii veröffentlicht
 
Die bestmögliche Qualität lässt sich aktuell aber nur mit FreeSync oder G-Sync und 120 Hertz oder 144 Hertz erzielen.
Das ist recht simpel zu beantworten. Das steht auch im Text:
G-Sync verhält sich wie V-Sync, wenn die Grafikkarte mehr Frames rendern kann, als die maximal möglich Bildwiederholfrequenz des Monitors beträgt. Die Framerate wird also bei der Bildwiederholfrequenz gekappt, sodass bei einem 60-Hertz-Monitor nicht mehr als 60 Bilder pro Sekunde dargestellt werden. Dies ist für die Bildqualität die optimale Lösung (kein Ruckeln, keine Bildfehler), hat jedoch den Nachteil, dass der Input-Lag zwischen Steuerbefehl und Umsetzung auf dem Display ansteigt. Je schneller die Grafikkarte rendert, desto größer wird dieser Lag gegenüber einer ungebremsten Ausgabe.

AMD gibt dem Anwender die Wahl. Ist V-Sync im Spiel aktiviert, setzt auch FreeSync auf diese Technik und verhält sich wie G-Sync. Alternativ kann V-Sync im Spiel aber auch deaktiviert werden. Das reduziert den Input-Lag, führt allerdings zu Tearing.

Beide Lösungsansätze gehen einen Kompromiss ein. Höherer Input Lag oder Tearing. Diese Grenze von 60fps kann mit einem 120/144hz Monitor auf eben 120/144 fps verschieben. Der mögliche Input Lag verringert sich entsprechend oder man lebt mit Tearing jenseits der 144 fps.
 
Zuletzt bearbeitet:
Hat man bei Adaptive Sync verglichen mit normalen Monitoren ohne Vsync nun Input-Lag oder nicht, solange man innerhalb des ausgewiesenen FPS-Bereichs ist? Das geht aus dem Artikel nicht eindeutig hervor.
 
@muiwa, Tripple buffering ist aber nicht Monitor abhängig sondern hängt vom Treiber ab glaub ich?
 
Miuwa schrieb:
Ich hab von Display technik wenig Ahnung, daher meine Frage: Wieso nimmt man bei weniger als 40 bzw. 30 Hz Flimmern war? Ich bin bisher davon ausgegangen, dass der Bildaufbau bei TFTs immer gleich lange dauert und der Monitor halt mal länger oder mal kürzer wartet bis er mit dem nächsten Bild beginnt. Dazwischen müsste man doch ein absolut statisches Bild sehen.
Nicht ganz. Beim ansteuern eines Pixels wird ein Kondensator geladen, der bis zum nächsten Refresh das Pixel "hält". Da das System aber real ist und damit endliche Widerstande besitzt, entlädt er sich mit der Zeit. Entlädt er sich zu stark, kann man eine Abnahme der Helligkeit des Pixel feststellen -> Flackern. Andererseits, kann man ihn auch nicht viel größer machen, weil er dann länger zum laden braucht und damit hohe Refreshraten verhindert werden.
Miuwa schrieb:
Was mir auch nicht ganz klar ist: Wäre es bei Frameraten jenseits der Monitorfrequenz nicht sinnvoll eine Option anzubieten, bei der V-Sync+Tripple Buffering aktiviert wird, die Grafikkarte so schnell macht, wie sie kann und dann einfach einzelne Frames gedroppt werden? dann hätte man kein Tearing und den minimalen Inputlag.
Tripple Buffer mit wird FreeSync/G-Sync überflüssig.

Dualbuffer heißt: Ein Frontbuffer (FB), ein Backbuffer (BB). In den BB wird geschrieben, der FB gelesen.
Mit V-Sync wird immer zwischen zwei Lesezyklen zwischen beiden umgeschalte. Back zu Front und umgekehrt. Ist die Grafikkarte aber noch nicht fertig den BB zu füllen, muss ein weiter Zyklus gewartet werden -> Framedrop auf Hz/2.

Mit Tripplebuffer wird ein zweiter Backbuffer eingeführt. Graka schreibt in BB1 und Monitor liest von FB. Bei jedem Zyklus wird der BB1 zu BB2 und BB2 zu FB. Damit hat man immer ein Bild "zu viel".
vorteil, solle die Graka nicht fertig sein BB1 zu füllen, kann trotzdem zu BB2 geschaltet werden. Nachteil: Inputlag

Ist aber nun kein Problem mehr, weil man mit Dualbuffer nicht mehr ein Zyklus warten muss (also bis der Monitor weider fertig ist) sonder nun der Monitor wartet. Damit keine Drops mehr, damit kein Tripplebuffer mehr.
 
Zuletzt bearbeitet:
Miuwa schrieb:
Ich hab von Display technik wenig Ahnung, daher meine Frage: Wieso nimmt man bei weniger als 40 bzw. 30 Hz Flimmern war?

Gibt es keinen Refresh werden alle Pixel immer heller bis hin zu weiß. Kommt dann das nächste Bild hast du wieder die ursprünglichen Farben. Der Helligkeitsunterschied kann man als Flackern wahrnehmen.

pcper schrieb:
Completely stopping the panel refresh would result in all TN pixels bleeding towards white, so G-Sync has a built-in failsafe to prevent this by forcing a redraw every ~33 msec.
 
Miuwa schrieb:
Dazwischen müsste man doch ein absolut statisches Bild sehen.

Die Flüssigkristalle verharren nicht ewig in ihrem Zustand, sondern fallen nach einer bestimmten Zeit in ihren Ausgangszustand (=lichtundurchlässig/dunkel) zurück. Je schneller die Schaltzeit eines Display, umso schwieriger ist es, die Flüssigkristalle für eien bestimmte zeit in ihrem Zustand verharren zu lassen. Der Panelhersteller muss da Kompromisse machen.
 
Also es wäre schön wenn die Hersteller damit die 24p hingekommen würden (23,9xxx)
 
Je höher die maximal unterstützte Bildwiederholfrequenz, desto kleiner wird der Vorteil von FreeSync oder G-Sync, weil Monitor und Grafikkarte bei deaktiviertem V-Sync automatisch häufiger im Gleichklang arbeiten. Zwischen 120 und 144 Hertz ist kaum noch ein Unterschied zu bemerken. Die bestmögliche Qualität lässt sich aktuell aber nur mit FreeSync oder G-Sync und 120 Hertz oder 144 Hertz erzielen.
fox40phil schrieb:
Den Absatz verstehe ich nicht zu 100%.
Verstehe ich auch nicht.

aus
"V-Sync-Wiki: "Moderne Flüssigkristallbildschirme (Flachbildschirme) verwenden im Unterschied zu Röhrenmonitoren nur eine (manchmal auch zwei) Bildwiederholfrequenzen, üblicherweise 60 Hz und 75 Hz. Daher haben Grafikkarten bzw. Grafiktreiber heute meist eine VSYNC-Option. Ist diese aktiviert, synchronisiert der Grafikprozessor oder -treiber das Bild mit der Bildwiederholrate des Monitors, auch wenn die Grafikkarte wesentlich höhere Bildfolgeraten bereitstellen könnte. Daher haben auch Spiele und andere Programme, die hohe Anforderungen an die Grafik stellen, teils einen Parameter VSYNC, der in den Optionen aktiviert werden kann, wenn Darstellungsprobleme auftreten, und dann an den Treiber weitergereicht wird. Ist die Grafikkarte deutlich schneller, als ein Spiel es erfordert, wird durch vertikale Synchronisation die benötigte Leistung und damit die Abwärme reduziert. Vertikale Synchronisation ist problematisch, wenn die Grafikkarte für die Berechnung eines neuen Bildes länger braucht als der Monitor zur Darstellung. Wenn der Monitor beispielsweise mit einer Bildwiederholfrequenz von 60 Hz arbeitet, die Grafikkarte aber nur 50 Bilder pro Sekunde berechnet, werden jede Sekunde 10 Bilder doppelt dargestellt. Das kann zu Rucklern führen. Im schlimmsten Fall hat die Grafikkarte kurz nach dem Rücksprung ein neues Bild berechnet, muss aber warten, bis der Monitor das mittlerweile veraltete Bild fertig dargestellt hat."

d.h. mit VSync laufen Monitor und Grafikkarte auf jeden Fall synchron, man bekommt also immer ein syncronisiertes Bild sofern die Graka genug Wumms hat....
 
@ paul1508

48 Hz geht ja. Wird zwar bei einem 24 Hz Film jedes Bild zwei mal angezeigt, aber das macht ja nix.
 
Ich wuerde mich ja freuen, wenn es so eine Technologie auch fuer Fernseher geben wuerde.
Spiele grundsaetzlich von der Couch auf meinem 40" TV.
Leider scheitert es da gleich an mehreren Faktoren: Es gibt nur sehr wenige Fernseher, die ueberhaupt DisplayPort haben und anscheinend gar keinen, der AdaptiveSync unterstuetzt. Noch dazu ergab meine kurze Recherche, dass es keinen AVR gibt, der DisplayPort anbietet.
Schade!

Btw: Hi, ich bin nach langer Zeit der Passivitaet nun doch einmal auf "Registrieren" ;)
 
Zuletzt bearbeitet: (Typo)
@paul1508: Es ist doch egal wo ich das aktiviere - wenn überhaupt wäre es ein Problem, wenn das vom Spiel abhängen und nicht alle Spiele es unterstützen würden. Der Test liest sich jedenfalls so als gäbe es kein Tripple Buffering (zumindest wird es nicht erwähnt), woraus ich geschlossen habe, dass AMD/Nvidia diese Kombination (FreeSync/GSync + TB) aus irgendwelchen mir unbekannten Gründen nicht anbietet oder CB es nicht für Sinnvoll erachtet, obwohl ich angenommen hätte, dass es die perfekte Kombination ist (wie auch schon davor V-Sync + TB meistens VS+DB überlegen war)

@Nilson & Matzegr & Kisser: Danke für die Erklärung
 
Zuletzt bearbeitet: (Typos)
@ TheGreatMM

60 Hz bedeutet 16,67 ms zwischen zwei Bildern, Heißt eine Asynchronität schwankt mit 16,67 ms, die von G-Sync bzw. FreeSync ausgeglichen werden kann. Bei 120 Hz sind es nur 8,33 ms, bei 144 HZ nur 6,94 ms. Der Effekt wird also deutlich kleiner.
 
Zuletzt bearbeitet:
Schicke Sache, wollte mir sowieso dieses Jahr nen Monitor kaufen. Mal schauen, was bis Spätsommer/Herbst so alles an Geräte verfügbar sein wird. Falls der Asus 27" wirklich 120Hz mit IPS bieten sollte, dann wäre das auf jeden Fall ein Spitzengerät :)
 
Sobald jetzt noch eine breite Verfügbarkeit an Freesync-Monitoren (Stichwort IPS + 144 Hz: Asus MG279Q) gegeben ist und die neuen GPUs von AMD auf dem Markt sind, kann das fröhliche Geld-Ausgeben losgehen :D
 
Den LG haben will. Allerdings muss ich mal schauen ober dieser mir auch in 29Zoll langt. :)
 
Von Vorteil ist das ganze also nur wen die FPS des Spiels in dem angegebenen FPS-Bereich der Monitore sind oder? Wen es sich um einen Monitor mit 120 hertz handelt und das Spiel aber mit z. B. 160 FPS läuft (vsync aus) hat man keine Vorteil mehr? Also Tearing tritt dann auf. Wen statt dessen Vsync an ist hat man die Inputlag Problematik?
 
@ Fighter1337: Genau
 
Netter Test, gibt einen sehr schönen Überblick. Was mich angeht würde ich sagen - die Würfel sind gefallen. Jetzt warte ich noch auf eine etwas größere Monitorauswahl für FreeSync und schaue mal ob AMD (respektive die Panel-Produzenten) die niedrigste Bildwiederholfrequenz noch abgesenkt bekommen. Doof das ich mich dann quasi auf einen GPU-Hersteller festlege - das schmeckt mir nicht wirklich. Aber vielleicht denkt die grüne Fraktion ja noch um - Mantle hat ja M$ und Nvidia auch Beine gemacht.
 
Zurück
Oben