Test AMD FreeSync im Praxistest

Naja nur dass es unter 30fps genau das macht was auch V sync macht ^^ nämlich das Bild nochmals ausgeben.
 
Zuletzt bearbeitet:
etoo schrieb:
Naja nur dass es unter 30fps genau das macht was auch V sync macht ^^ nämlich das Bild nochmals ausgeben.

Es passt weiterhin die Bildwiederholfrequenz der Framerate an, schaltet also z.B. bei 21 fps auf 42 Hz. Wenn das richtig gemacht ist, gibt es dabei weder Holpern (also unterschiedlich lange sichtbare Frames) noch Vsync-typische Totzeiten, in denen die Grafikkarte mit der Berechnung des nächsten Bildes warten muss. Die G-Sync-Funktion bleibt vollständig erhalten.
 
In dem Bereich wird halt " geraten " ... und
das Flimmern ab bereits 30hz beginnt, bei empfindlichen umso stärker wahrnehmbar. ( Bei mir flimmerten alle, mal mehr mal weniger, *würg )
Aber dafür kann G-Sync nix. Liegt am Panel. Also sind die auftretenden Probleme bei 30hz gezwungenermaßen gewollt, Papiertiger sozusagen.
Dann lieber 40 aber die sind mir zu viel - egal wie man es dreht und wendet, die Panels sind erstmal so sowohl für G/F-Sync nicht wirklich zu gebrauchen.

Viel zu verfrüht das ganze.

Jetzt kann man natürlich mutmaßen, dass es:

a) Daran liegt, dass Nvidia in der VESA-Gruppe davon Wind bekam und als erstes damit aufschlagen wollte um damit Kasse zu machen
b) Dass es Nvidia zu langsam voran ging, bis die VESA das als Standard bekannt gibt und das auf den Markt drückt, weswegen die es in eigener Sache durchdrücken wollten, so wie es AMD und DICE mit Mantle getan hat.
c) Unerwartet doch schneller ging als erwartet und deswegen die Specs auf dem Papier erhöht hat, die Hersteller aber die selben Gurken-Panels verbauen die das nur mit hängen und würgen hinbekommen, weswegen einige Monitore nach wenigen Tagen abgeraucht sind.

Hätte nvidia G-Sync nicht gebracht, würde es G/F-Sync ebenfalls geben ( die Software halt ) aber eben so wie jetzt über AdaptiveSync mit 40hz bla bla... und sobald die Panels da sind, eben auch weniger....

Das Nvidia damit Kasse machen wollte halte ich für unwahrscheinlich, weil die Verkaufszahlen dramatisch unter den Erwartungen der Monitor Hersteller liegen.
Das es Nvidia zu langsam voran ging, bis die VESA den neuen Standard verabschiedet, wohl aber eher... und es doch schneller ging, als sie selbst erwartet haben.
Vielleicht trat AMD sogar auf die Bremse und hat diese erst gelöst, nachdem G-Sync bekannt gegeben hat.

Erklärt beides... AMD war die Diskrepanz mit den Panels bekannt, und Nvidia nutzte seine Marktmacht und $$$ aber das die Hersteller darauf scheißen, weil es keine Panels gibt, haben wir nun diesen wirr warr und müssen auf die Hersteller warten ( bessere Panels als auch Scaler )

Daher gehe ich sehr stark davon aus, dass G-Sync "2.0" Einzug hält, wenn die Panels, sagen wir einfach mal 24-144hz beherrschen und das ganze ohne Modul eben über den AdaptiveSync.
Der Name bleibt natürlich gleich und am Ende beherrscht jeder Monitor beides.
Early Adaptors haben dann zunächst den Nachteil über die schlechteren Panels, fehlende Anschlüsse ( ist ja nur DP vorhanden ) und die Bindung an Nvidia, und das neuere Monitore eben auch 24hz mitmachen ( Filme o.Ä )...

Dafür spricht einfach, dass die 3 größten Big Players die Scaler liefern und voll zustimmen.
Panels für diesen Bereich seit über 2 Jahren in Entwicklung sind ( Sharp )
Weniger Kosten, breite Unterstützung für beide (Neutral)
Keine Lizenzkosten.

Technisch lohnen sich die Monitore die F-Sync unterstützen nicht ( Panels kacke )
Technisch mit weiteren Nachteilen lohnen sich die G-Sync unterstützten nicht ( Panels kacke, Anschlüsse, Bindung )...

Fazit: Warten :D
 
Zuletzt bearbeitet:
Aus den vorherigen Framezeiten "geraten" werden muss nur die Verschiebung des "Fangbereichs". Ein Panel mit 30-144 Hz benötigt spätestens nach 33 ms den nächsten Refresh, und der dauert 7 ms. Läuft das Spiel mit durchschnittlich 20 fps (50 ms), kann man sinnvollerweise nach 30 ms vorsorglich einen Autorefresh auslösen. Das verschiebt den Fangbereich von G-Sync von 7-33 ms auf 37-63 ms (16-27 fps), der neue Frame darf also um bis zu 13 ms früher oder später als erwartet ankommen, ohne dass Ausfälle der G-Sync-Funktion zu befürchten sind.

Und das angebliche Flimmern bei 30 Hz ist auf jeden Fall deutlich schwächer als das eines Röhrenmonitors bei 75 Hz, letzteres kann ich noch gut sehen.
 
Wer warten kann ist klar im Vorteil. Nur was macht Der, dem sein Monitor grad heute den Geist aufgegeben hat und morgen was neues braucht ?

So wahnsinnig viele private Freesync Tester scheint es ja nicht zu geben...
 
JMP $FCE2 schrieb:
Und das angebliche Flimmern bei 30 Hz ist auf jeden Fall deutlich schwächer als das eines Röhrenmonitors bei 75 Hz, letzteres kann ich noch gut sehen.

Jeder Mensch ist verschieden. Ich sehe es bei allen, mal mehr mal weniger stark. Auf Dauer absoluter Müll diese Panels.
Angeblich ist sowieso erstmal quatsch, es ist vorhanden, je nach Mensch nur eben unterschiedlich stark wahrzunehmen, es aber als " Gerücht " abzutun ist blanker Hohn.
Du verteidigst damit niemanden, denn Nvidia und AMD können dafür nix.


@Pumpi,

die Messen reichten mir - absoluter Müll was die da einem andrehen ( für den Preis wohlgemerkt ) ... also bei 600-800€ erwarte ich Top Qualität und nicht so halbgares Zeug, weil die ihre alten Panels loswerden wollen. Acer schießt von allen den größten Vogel ab... das die sich das trauen sowas anzubieten ...

Und der unbedingt, wie in deinem geschilderten Szenario einen braucht, soll sich irgend ne 100-150€ klitsche als Übergang holen. Später wieder verkaufen und gut ist. Top Zustand, Garantie etc.. da ist weniger Verlust bei.
 
Zuletzt bearbeitet:
BlauX schrieb:
Dafür spricht einfach, dass die 3 größten Big Players die Scaler liefern und voll zustimmen.
Panels für diesen Bereich seit über 2 Jahren in Entwicklung sind ( Sharp )
Weniger Kosten, breite Unterstützung für beide (Neutral)
Keine Lizenzkosten.

Technisch lohnen sich die Monitore die F-Sync unterstützen nicht ( Panels kacke )
Technisch mit weiteren Nachteilen lohnen sich die G-Sync unterstützten nicht ( Panels kacke, Anschlüsse, Bindung )...

Fazit: Warten :D

Dem stimme ich zu, sowie deinen Ausührungen im Beitrag. Zumal auch eDP 1.4a Teil von DP 1.3 sein wird und es Segmentierte Panels geben soll mit seperaten PSR.
 
BlauX schrieb:
Angeblich ist sowieso erstmal quatsch, es ist vorhanden, je nach Mensch nur eben unterschiedlich stark wahrzunehmen, es aber als " Gerücht " abzutun ist blanker Hohn.

Ich bezweifle es deshalb, weil es hier nur aus dem Hut gezaubert wurde, um die 40-Hz-Untergrenze als Vorteil anzupreisen. Verbreitet sind nur Berichte über den Bug bei "stall events".
 
Da wird nix aus dem Hut gezaubert. Bei so geringen Hertzzahlen erkennen manche Menschen eben flimmern.
Ich erinnere dabei mal an die Zeiten wo AMD mit der HD 4870 geflimmert hat.:freak:
 
@JMP $FCE2,

ahja..... aaaand out.
Das eine ist ein Bug, und das andere wird zum Feature. Die Argumentation kenne ich schon aus einem anderem Thema...
 
Zuletzt bearbeitet:
Daedal schrieb:
Wer flimmern mag darf gerne auch dafür Geld ausgeben.
Naja. Ich sehe es eigentlich ähnlich wie der Tester von pcper.com
I'll gladly take the potential slight flicker of G-Sync over the 40 Hz judder/tearing of the BENQ

Beides hat Nachteile, aber ein leichtes Flimmern bei Framerateeinbrüchen dürfte noch am wenigsten auffallen.
Gerade wenn irgend etwas explodiert und die Framerate in den Keller drückt, dann merkt man das Flimmern überhaupt nicht. Andererseits sieht man gerade in Explosionen die Tearingeffekte die durch deaktiviertes Freesync auftreten besonders stark. Von daher wähle ich lieber das flimmen.

Man sollte auch nicht vergessen, dass wir hier immer nur von TN Panels sprechen.
Gibt es auch informationen darüber wie sehr das Flimmern bei IPS Panels zu sehen ist? Wie verhalten die sich, wenn dort der Refresh für längere Zeit nicht statt findet?

Bei einem 144 Hz IPS Panel könnte die Sache nämlich schon wieder ganz anders aussehen.
 
Zuletzt bearbeitet:
Ghostet leicht..
beides (G/F-Sync) toll, aber aufgrund des Panel Defizits kein rundes Paket.
Erstmal schauen was Samsung abliefert, die haben ja zu den kommenden noch gar nüx gesagt.
 
Das ganze befindet sich halt noch im Anfangsstadium.
Ich denke noch zwei/drei Jahre, dann werden die Panels auch entsprechend ausgereift sein das sich ein Kauf auch wirklich Lohnt. Bis dato heißt es abwarten und hoffen das der Monitor auf dem Tisch keine Grätsche macht :D
 
CyberdyneSystem schrieb:
und hoffen das der Monitor auf dem Tisch keine Grätsche macht :D


Ich kauf nur bei den Herstellern, die in Schlagreichweite sind. Kein Problem damit dort persönlich den scheiß hinzuschmeißen :D
 
BlauX schrieb:
ahja..... aaaand out.
Das eine ist ein Bug, und das andere wird zum Feature. Die Argumentation kenne ich schon aus einem anderem Thema...

Das eine ist offensichtlich, es kommt aber in normalen Spielesituationen nicht vor. Die andere Situation kommt häufiger vor und das Flimmern wäre weit dramatischer, wenn denn die Intensität die gleiche wäre. Ist sie aber nicht, sonst hätte es hier und woanders schon viel eher Dresche für Nvidia gegeben.
 
Zurück
Oben