Test AMD FreeSync im Praxistest

Chief_Rocker schrieb:
In wie weit der Rahmen dann auch genutzt wird, hängt eben von vielen Faktoren ab, z.B. technische Machbarkeit, Anwendungsfall und letztendlich auch am Kosten / Nutzen Faktor.

Das ist genau der Punkt. Der Rahmen sollte besser abgesteckt werden, damit das Erlebnis für den Nutzer immer gut und immer gleich ist, egal welche Hardware er kauft. Das ist momentan nicht gegeben.

Es ist doch richtig sich bei FreeSync auf den Adaptive Sync-Standard zu stützen, der die grundlegende Kompatibilität sicherstellt, aber im Rahmen von FreeSync muss man doch auch den Anwendungsfall (Spiele) berücksichtigen.
 
Zuletzt bearbeitet:
Muss man Vsync im Spiel aktivieren oder deaktivieren damit FreeSync lüppt?
Der Acer Predator ist vor einer Stunde geliefert worden, hab den Treiber von 3D Guru geladen und Free Sync aktiviert, aber egal was ich mache, irgendwie hab ich keine spürbaren Verbesserungen.
 
V-Sync deaktivieren und Freesync im Treiber aktivieren!

Edit: ist eigentlich egal ob vsync an oder aus ist, ist deine Entscheidung, ob du vsync außerhalb der freesync Frequenzen haben willst oder nicht, wichtig ist nur, dass freesync im Treiber aktiviert ist und der Monitor per DP angeschlossen ist.
 
Zuletzt bearbeitet:
etoo schrieb:
Sicherlich nicht das was AMD versprochen hat nämlich tear und Lagfree.
Doch genau das zeigen alle Tests, dass AMD dieses Versprechen gehalten hat. Kein Tearing und kein zusätzlicher Lag bei aktivem Freesync.
Ergänzung ()

BiA Master schrieb:
Muss man Vsync im Spiel aktivieren oder deaktivieren damit FreeSync lüppt?
Freesync ist eine Mischung aus AdaptiveSync und VSync, ebenso wie bei Nvidia. Wenn die FPS an die maximale Monitorfrequenz kommen schaltet sich VSync automatisch ein bei beiden. Bei AMD kann man allerdings auch VSync deaktivieren wenn man damit ein besseres Spielgefühl hat. Das ist vor allem bei Monitoren von Bedeutung die lediglich 60 oder 75 Hz als max. Frequenz angeben.
 
Daedal schrieb:
Doch genau das zeigen alle Tests, dass AMD dieses Versprechen gehalten hat. Kein Tearing und kein zusätzlicher Lag bei aktivem Freesync.

Nein! Liest du nur was du lesen willst ^^ Ich habe bei DAYZ KEINE Verbesserungen da 40fps in zb in Dayz zu halten unmöglich ist
 
Nun da Freesync bis 40 Hz aktiv bleibt muss du das auch nicht. Wenn deine GPU keine 40 FPS mehr schafft solltest du die Details runter schrauben. Solange Freesync aktiv ist gibt es kein Tearing und auch keinen erhöhten Lag. Das sagen alle Tests. Wenn du Freesync deaktivierst, kannst du auch keinen Effekt erwarten.

Du kannst aber auch sicherlich solange warten bis die Hersteller Panels verbauen die das können, was allerdings auch entsprechend kostet. Daher werden dies auch nicht als erstes Released, sondern die billigen Schrott Panels für die Early-Adopter, die meinen das wäre das wichtigste Feature eines Monitors.

Sprich mit deinem Monitor-Hersteller warum dein Monitor etwas nicht kann. Nicht mit deinem GPU Hersteller der 9-240 Unterstützt. Aber du kannst ja auch gerne mal bei Intel nachfragen was mit deren SATA Ports los ist wenn eine Samsung SSD nicht genug Performance bringt^^
 
Zuletzt bearbeitet:
naja unmöglich ist es nicht, aber ich weiß schon was du meinst. Doch im Ernst, das Spiel ist technisch ein Katastrophe, da sollte man sich eher an der Hersteller wenden und nicht erwarten das AMD hier in die Bresche springt.
 
jo hast eh recht dass man geräte abwarten muss. Aber eben wieder warten.
 
Chief_Rocker schrieb:
Ausserdem scheint es ja nicht, so als ob die NV Produkte zwischen 30-40 HZ da so mega performen, Helligkeitsschwankungen etc sind wahrnehmbar und selbst bei 35 FPS scheint das ganze nicht wirklich flüssig zu wuppen.
Kannst du mir diesbezüglich Quellen nennen damit ich mich da mal ein wenig einlesen kann?
 
Unterm Strich zeigen alle diese Kritikpunkte an GSync als auch an Freesync mit ihren Einschränkungen, dass dies alles ein Schnellschuß war der die benötigte Technik für Enthusiasten noch nicht in der Industrie vorfindet.

Das was alle Gamer hier wollen wird mit DP 1.3 Standard und dem dort implementierten eDP 1.4 Standard. Das Monitor Panel wird Segmentiert und kann von mehreren GPUs seperat angesprochen und auch refresht werden. Somit würde eine Dual-GPU Konfiguration bei 4K je GPU nur noch 2 K Rendern und der langsamste Halbframe bestimmt wann der komplette Frame ausgegeben wird oder refresht sogar den Teil sofort ohne zu warten. Wenn da pro Frame nur noch 60-80% der pixel refresht werden müssen, da eben nicht das ganze Monitorbild neu gerendert werden muss, bringt das mehr als eine neue GPU-Generation an Performance je nach Spiel. Jede iGPU könnte sich daran beteiligen - auch wenn es nur 10% mehr Performance bringt, ohne ein stottern oder Ruckeln zu verursachen. Sie rechnet an einem Segemnt und die große GPU an den 9 anderen (fiktive 10 Panel Segemente angenommen). Jedes Sgement erhält einen eigenen Framebuffer der entweder koordiniert Refresht wird mit allen oder eben eigenständig.

Diese halbgare Marktsituation ist eindeutig von Nvidia verursacht worden, die eben nicht warten wollten bis die Technik auch bei den Monitorherstellern gereift ist um daraus Nutzen zu ziehen ohne auf schon bestehende Features verzichten zu müssen. AMD war genötigt schnell etwas zu bringen noch bevor DP 1.3 ratifiziert wird. Nur deshalb gibt es diesen belämmerten DP 1.2a Zwischenstandard und mit Sicherheit auch auf Druck der Panel-Hersteller LG und Samsung die offensichtlich recht wenig davon halten den Industriestandard um solche Mätzchen zu erweitern wie ein GSync-Modul um dafür auch noch Lizenz zu zahlen. Und die Monitorhersteller werden sich noch mehr Zeit lassen bevor DP 1.3 implementiert wird, oder eben keine Massentauglichen Preise haben.
 
Das hier beschreibt es im Grunde recht gut. Die 40 FPS sind auch bei Gsync ein Problem. Ich würde einfach mal sagen das das Problem auch zu einem großen Teil bei den Panels zu finden ist. Hier muss einfach noch was getan werden, aber das is halt nur meine Meinung.


4K G-SYNC in Practice

We’ve had G-SYNC displays for most of the past year, though the earliest option was a DIY kit where you had to basically mod your monitor, but the Acer XB280HK is something new: a 4Kp60 G-SYNC display. That’s potentially important because where high-end GPUs might easily run most games at frame rates above 60 FPS at 1920x1080 and even 2560x1440, even a couple of GTX 980 GPUs will struggle to break 60 FPS at 4K with a lot of recent releases. My personal feeling is that G-SYNC with 60Hz displays makes the most sense when you can reach 40-55 FPS; if you’re running slower than that, you need to lower the quality settings or resolution, while if you’re running faster than that it’s close enough to 60 FPS that a few minor tweaks to settings (or a slight overclock of the GPU) can make up the difference.

To get straight to the point, G-SYNC on the XB280HK works just as you would expect. For those times when frame rates are hovering in the “optimal” 40+ FPS range, it’s great to get the improved smoothness and lack of tearing. In fact, in many cases even when you’re able to average more than 60 FPS, G-SYNC is beneficial as it keeps the minimum frame rates still feeling as smooth as possible – so if you’re getting occasional dips to 50 FPS but mostly staying at or above 60, you won’t notice the stutter much if at all. Without G-SYNC (and with VSYNC enabled), those dips end up dropping to 30 FPS, and that’s a big enough difference that you can see and feel it.

There are problems however, and the biggest is that the native resolution of 3840x2160 still isn’t really ready for prime time (i.e. mainstream users). If you’re running a single GPU, you’re definitely going to fall short of 40 FPS in plenty of games, so you’ll need to further reduce the image quality or lower the resolution – and in fact, there are plenty of times where I’ve run the XB280HK at QHD or even 1080p to improve frame rates (depending on the game and GPU I was using). But why buy a 4K screen to run it at QHD or 1080p? Along with this, while G-SYNC can refresh the panel at rates as low as 30Hz, I find that anything below 40Hz will start to see the pixels on the screen decay, resulting in a slight flicker; hence, the desire to stay above 40 FPS.
 
bringt der neue treiber was wenn man nicht so ein monitor hat?

und bringt es was jetzt schon so ein monitor zu kaufen?
 
Das sehe ich auch so nur muss man wieder warten bis der offene standard Früchte trägt. Im September letzten Jahres hats geheissen die monitore kommen bald und mit tearing soll schluß sein. Was jetzt dabei rausgekommen ist sehen wir jetzt ein halbes Jahr später an der Diskusison hier. Sicherlich nicht das was AMD versprochen hat nämlich tear und Lagfree.

Na ja, was heisst tear und lagfree wurde nicht eingehalten?
Klappt doch, solange du dich im Bereich des Frequenzbereichs des Monitors bewegst.
Und da sogar sehr gut.
Und wer erwartet, dass eine neue Technik vom Start weg alles kann was theoretisch geht, lebt irgendwie an der Realität vorbei. Das war noch nie der Fall, bei keinem Produkt dieser Welt. Als Early Adaptor kann man zwar immer super cool posen mit dem neusten Technik Schei...., aber dafür zahlt man halt nen höheren Preis und muss mit den technischen Einschränkungen leben. Richtig rund wird das erst mit der 2. oder 3. Generation.

@CyberDyneSystem:
Findest du alles hier im Treat bzw. im Artikel.
Die Aussage das bis 35 FPS das G-Synk nicht wirklich flüssig läuft findest du als Kommentar vom Autor des Artikels hier im Treat, das andere ist alles verlinkt. Sorry, hab grad keine Zeit das nochmal rauszusuchen...

Edit: War doch so frei, kuck dir den PCPER Artikel an:
http://www.pcper.com/reviews/Displa...hnical-Discussion/Inside-and-Outside-VRR-Wind
 
Zuletzt bearbeitet:
@Doc Windows:

Du forderst AMD sollte mehr "spezifizieren" bevor man das Zertifikat Freesync erhält.

Aber:

1.) Ist Freesync überhaupt ein "Zertifikat" in dem von dir dargestellten Sinne ?
Freesync ist doch nur der Name des Treiberteil (bzw. der Treiberfunktion) von AMD welche mit dem zertifizierten standard DP1.2a (subsektion adaptive sync) zusammenarbeitet.

2.) Was genau "zertifiziert" denn nVidia mit G-Sync ?
Das Wort heisst ja nur dass der Monitor das wie auch immer geartete Hardwaremodul = Scaler (FPGA, DRM - whatever supergeheimes Modul) enthält und damit die von nVidia selbst definierte G-Sync funktionalität bereitstellen kann.
Somit stellt sich doch die Frage was genau gibt nVidia an dass G-Sync können soll ?
Es ist wesentlich leichter in der DP1.2a Spezifikation nachzulesen was genau adaptive Sync macht (und demgemäß was der von AMD getaufte Treiberschalter Freesync unterstützen muss).

Kannst du mir diese 2 Fragen beantworten bitte ?
 
Und auch wenn es im bereich von 30-40 fps mit g-sync zu flimmern kommen sollte, so ist dies in der praxis immer noch zu bevorzugen, wenn man seine grafik settings trotzdem so hoch einstellen kann, daß es im spiel dann ab und zu mal in diesen bereich abfällt, man dort aber immer noch flüssig weiterspielen kann.
Bei freesync kommt in diesem bereich dann der inputlag- oder stutter/tearing hammer, welcher wohl deutlicher schwerer ins gewicht fällt, als das "flimmern".

Und ja, es ist einzig allein die schuld von den monitorherstellern... "Die Hürde hat laut AMD dabei durchaus einen Grund: Bei weniger als 40 neuen Bildern pro Sekunde würden erste Menschen ein Flimmern, das sogenannte „Backlight Flickering“, wahrnehmen."

das sind doch alles nur ausreden, warum sollten denn die monitorhersteller bei freesync nur auf min. 40hz runter, wenn es bei eigenen monitoren mit g-sync schon immer 30hz waren.

Der performance vorteil, von in der praxis nichtmal einem FPS, kann auch kein wirkliches argument für freesync sein.
Die preisunterschiede in den regionen, in denen sich die monitore ansonsten bewegen, auch nicht wirklich.
 
Also bei mir ist alles wie gehabt, egal was ich einstelle, der ganze Sync-Krams von Nvidia und AMD scheint nur Blendwerk zu sein.
Der Acer Monitor hat einen hässlichen Kristalleffekt aufm Desktop, generell ist die Bildqualität ab Werk schlecht, in Spielen fällt es nicht so auf.
Zudem hab ich immer noch das Problem dass bei schnellen Drehungen Objekte mehrfach dargestellt werden, ich hoffte 144Hz würden dem entgegenwirken, wiederum sind 144 Hz beim scrollen und CSGO ganz nice, mir aber keine 500 Euro wert.
 
Und auch wenn es im bereich von 30-40 fps mit g-sync zu flimmern kommen sollte, so ist dies in der praxis immer noch zu bevorzugen, wenn man seine grafik settings trotzdem so hoch einstellen kann, daß es im spiel dann ab und zu mal in diesen bereich abfällt, man dort aber immer noch flüssig weiterspielen kann.

Und ja, es ist einzig allein die schuld von den monitorherstellern... "Die Hürde hat laut AMD dabei durchaus einen Grund: Bei weniger als 40 neuen Bildern pro Sekunde würden erste Menschen ein Flimmern, das sogenannte „Backlight Flickering“, wahrnehmen."

das sind doch alles nur ausreden, warum sollten denn die monitorhersteller bei freesync nur auf min. 40hz runter, wenn es bei eigenen monitoren mit g-sync schon immer 30hz waren.

Was heißt da Ausrede???
Du sagst doch selber das es bei Nvidia / G-Sync anfängt zu flackern. Genau das was AMD auch sagt und es deswegen (aktuell) nicht frei gibt. Nur weil dir persönlich Flickern weniger missfällt als reduzierte Details, ist die Aussage doch nicht falsch.
 
Iscaran schrieb:
1.) Ist Freesync überhaupt ein "Zertifikat" in dem von dir dargestellten Sinne ?
Freesync ist doch nur der Name des Treiberteil (bzw. der Treiberfunktion) von AMD welche mit dem zertifizierten standard DP1.2a (subsektion adaptive sync) zusammenarbeitet.

2.) Was genau "zertifiziert" denn nVidia mit G-Sync ?
Das Wort heisst ja nur dass der Monitor das wie auch immer geartete Hardwaremodul = Scaler (FPGA, DRM - whatever supergeheimes Modul) enthält und damit die von nVidia selbst definierte G-Sync funktionalität bereitstellen kann.
Somit stellt sich doch die Frage was genau gibt nVidia an dass G-Sync können soll ?
Es ist wesentlich leichter in der DP1.2a Spezifikation nachzulesen was genau adaptive Sync macht (und demgemäß was der von AMD getaufte Treiberschalter Freesync unterstützen muss).

Kannst du mir diese 2 Fragen beantworten bitte ?

zu 1: Dass im Rahmen von FreeSync ein (kostenloses) Zertifikat an Monitorhersteller vergeben wird steht schon im Text. Die (meine) Frage ist welche Kriterien angelegt werden sollten um diese Zertifizierung zu bestehen.

zu 2: nVidia legt z.B. fest, dass ein G-Sync Monitor im Bereich von 30 bis 144 Hz zu arbeiten hat. Wenn das Panel das nicht kann, wirds nicht für G-Sync hergenommen.

Es ist wesentlich leichter in der DP1.2a Spezifikation nachzulesen was genau adaptive Sync macht (und demgemäß was der von AMD getaufte Treiberschalter Freesync unterstützen muss)

Das ist aber gar nicht die Frage. Die Frage ist was FreeSync zusätzlich als Einschränkungen verlangen müsste, damit der Kunde am Ende der Kette immer eine FreeSync-Kombi hat die genau gleich funktioniert und vor allem auch die Bedürfnisse des Gaming berücksichtigt. Adaptive Sync berücksichtigt dies nicht. Das ist auch nicht dessen Aufgabe. Es wäre die Aufgabe von AMD, da die ja Gaming-Produkte verkaufen wollen.

Ein Monitorhersteller könnte z.B. auch - rein hypothetisch - ein Panel verbauen welches nur im Bereich von 120Hz bis 240 Hz arbeitet. Da FreeSync im Bereich von 9 bis 240 Hz arbeitet wäre das per Definition und auch technisch kein Problem. Vielleicht wäre es sogar sinnvoll wenn man an Fernseher und Medienkonsum denkt. Fürs Gaming macht dieser Frequenzbereich aber wenig Sinn.
 
Zurück
Oben