News Monitore: AMD FreeSync bald auch mit G-Sync-Modul von Nvidia

Tearing ist mMn. der auffälligste und unangenehmste Bildfehler, der, ungeachtet der Monitorfrequenz, auftreten kann.
Wie man das über eine minimale Eingabeverzögerung stellen kann ist mir schleierhaft.

TR2013 schrieb:
Ich schrieb UNTER 30. Wenn ich auf Geizhals nach Range filtere, finde ich FreeSync Monitore mit 30-144 Hz. Bei GSync finde ich aber auch Monitore mit 1-144 Hz.
Semantik, sowohl Gsync, als auch Freesync nutzen Framedoubling unterhalb von 30Hz (bzw. der jeweiligen Minimalfrequenz des Monitors).

Bei Gsync heißt es halt 1-xx Hz und bei Freesync xx-xx Hz (LFC Support).
 
  • Gefällt mir
Reaktionen: duskstalker
Sehr schön.

Sollen FreeSync und GSync den gleichen Weg gehen wie DVD+R und DVD-R.
Anfangs künstliche Inkompatibilitäten und später absolut egal und austauschbar.
 
  • Gefällt mir
Reaktionen: Zitterrochen
TR2013 schrieb:
Bedeutet das dass dann endlich auch freesync bei unter 30hz verfügbar wird? Im Moment gibt es solche Monitore ha nur mit GSync.

Das hat nichts mit FreeSync zu tun. Oder nur sehr wenig. Freesync unterstützt eine maximale Range von 9-240 mhz, aber der Scaler muss es abkönnen, und die Hersteller müssen die entsprechende Hardware in ihren Monitoren verbauen. Sollte Nvidia tatsächlich das Häckchen bei "G-Sync ist nur für Geforce-GPUs aktiviert!" raus nehmen, dann wird FreeSync auch mit allen G-Sync-Monitoren funktionieren.
 
TR2013 schrieb:
Ich schrieb UNTER 30. Wenn ich auf Geizhals nach Range filtere, finde ich FreeSync Monitore mit 30-144 Hz. Bei GSync finde ich aber auch Monitore mit 1-144 Hz.
Du vergleichst praktische Angaben mit theoretischen. 1-144Hz kann kein G-Sync-Monitor, das ist einfach nicht möglich. Man hat mal einen G-Sync-Monitor auf die Range getestet und kam auf 38-144Hz.
 
TR2013 schrieb:
Bedeutet das dass dann endlich auch freesync bei unter 30hz verfügbar wird? Im Moment gibt es solche Monitore ha nur mit GSync.

Einige Monitore schafen deutlich niedrigere Hz wenn man es manuel einstellt, meiner kann offiziell 44-144 und läuft momentan mit 34-144
 
  • Gefällt mir
Reaktionen: 416c
Smagjus schrieb:
Du vergleichst praktische Angaben mit theoretischen. 1-144Hz kann kein G-Sync-Monitor, das ist einfach nicht möglich. Man hat mal einen G-Sync-Monitor auf die Range getestet und kam auf 38-144Hz.
Aber vielleicht will er einfach auf 1 Hz zocken, weil nvidia es kann! Und es läuft dann auch total flüssig!
 
Ich frag doch nur. Als Laie denkt man halt, dass das irgendwas bedeutet wenn man die Specs auf Geizhals sieht... :rolleyes:
 
MaverickM schrieb:
Sowohl G-Sync als auch FreeSync erhöhen den Input Lag. Ist allgemein bekannt. V-Sync ist übrigens noch viel schlimmer.

Ja schon, aber bei 144hz Praktisch nicht wahrnehmbar wenn die Frames unter der Bildwiederholrate liegt. V-Sync off/on is eig fast egal. Mag ausnahmen geben.
 
Na toll.... das kurz vom meinem Kauf.... wollte eigentlich den 34GK950F nehmen.... bzw der G wäre mir lieber....
 
also hier gibts ja einige haarsträubende äußerungen.

1. "ghosting ist ein generelles problem von freesync."

ist komplett falsch. das ist ein generelles problem von monitoren. das ghosting bei freesync tritt dann auf, wenn ein monitor, der schlechte ghosting performance unterhalb seiner nativen max refresh rate hat, weit weg von seiner nativen max frequenz betrieben wird, wie bspw knapp oberhalb der LFC frequenz. bspw. 50 hz bei einer range von 48-144 hz. hat der monitor kein ghosting problem, gibts mit freesync auch kein ghosting.

anscheinend ist das bei gsync weniger ein problem, weil bei gsync weit oberhalb der min angegebenen sync range schon frame doubling eingesetzt wird. das bringt den monitor wieder näher zu seiner nativen frequenz, aber eine 1:1 darstellung ist das nicht mehr.

das ist viel eher eine philosophiefrage. das framedoubling bei nvidia bringt bei niedrigen fps (sagen wir mal 55 fps) bei monitoren mit schwacher ghosting performance unterhalb der nativen frequenz weniger ghosting, da der monitor bei freesync mit "echten" 55 hz läuft, und gsync bei 110 - zumindest so die theorie.

auf der anderen seite sind die sync range angaben von nvidia ala 1-144hz marketing bullshit.

weder synct der monitor bei 1hz, noch sind 30hz "echt" und am allerwenigsten wird diese range ohne LFC erreicht.

alles unterhalb von 30 hz ist LFC, 30 bis 60 hz ist LFC, und 60 bis faktor ~2 der max refresh rate ist ebenfalls LFC. 1:1 darstellung passiert dann unterhalb faktor ~2 der max refresh rate, also bspw. 100 fps. das heißt aber auch, dass freesync und g-sync im fps sweetspotbereich eines 144hz monitors absolut identisch arbeiten (80-140 fps).

bei freesync 48-144hz ist alles unterhalb von 48hz LFC und der rest 1:1. 48-144 freesync und 1-144 gsync sind funktionell identisch, bis auf das detail, dass nvidia LFC oder frame doubling oberhalb der unteren grenzfrequenz des monitors nutzt. das i-tüpfelchen ist dann eine "wir haben den längeren" angabe von nvidia, die eine range von 1-144hz angibt. tatsächlich sind die panels, die gsync monitore verbaut bekommen, kein bisschen besser (von der sync range) als freesync monitore - nvidia maskiert das nur mit agressivem LFC / Frame doubling und gibt die native sync range nicht an.

2. "adaptive sync bringt input lag".

leider auch kompletter unfug.


freesync an / aus macht keinen unterschied. bei nvidia reduziert sich durch adaptive sync sogar der input lag.

der inputlag skaliert hier höchstens mit dem natürlichen inputlag, der durch eine reduzierte refreshrate einhergeht. mit der synctechnik hat das allerdings nichts zu tun.

3. "ab XXX fps braucht man kein adaptive sync mehr".

auch falsch:


mit steigender frequenz werden die "risse" im bild bestenfalls hochfrequenter, d.h. kleinere amplitude, dafür mehr risse. mehr fps bei mehr hz ergibt sehr unschönes, massives kantenflimmern. von "sauber" kann keine rede sein, und von "adaptive sync unnötig" schon zwei mal nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheMoe87, TheUngrateful, AssembIer und 14 andere
MaverickM schrieb:
Abgesehen davon wird tatsächlich ein einziger Monitor von Samsung mit 4096 horizontalen Pixeln gelistet.

Ach was? Das sind aber 96 Pixel zu viel für 4K, das zählt nicht! :freak: ;)
Ich nenne meinen UHD-Monitor 4K weil es eben einfacher ist und das Bild ist trotzdem super.
Was interessiert mich die genaue Bezeichnung solange "genügend" Pixel da sind? Rein theoretisch verliert man ja auch bei allen Seitenverhältnissen die nicht 1:1 sind bei gleicher Monitor-Größe in Zoll Bildfläche und Pixel! (Dass Monitore immer mehr Zoll haben seit die Seitenverhältnisse breiter werden ignoriert man dabei am besten)
Echtes 4K müsste also 4000x4000 Pixel sein, alles andere ist Betrug behaupte ich! ;)

Aber im ernst, UHD auf 27" mit OLED, 120Hz und FreeSync Support (ob über G-Sync oder ohne wäre mir egal) für <1000€ wäre schon sehr verlockend. Hatte eben noch das Video von Linus mit dem OLED TV gesehen. Jetzt müssen sie das nur noch als bezahlbaren Monitor bringen. Ja, einbrennen könnte problematisch sein, aber man kann ja im schlimmsten Fall zum arbeiten einen TFT nehmen und für alles andere den OLED, Dual-Monitor hab ich jetzt auch schon. (idealerweise würden sie das mit dem Einbrennen irgendwie in den Griff bekommen) :D
So ganz, ganz, ganz langsam scheinen sich Monitore in eine interessante Richtung zu entwickeln. Vllt weil man im kommenden Jahr auch wieder mit noch mehr 4K-fähigeren GPUs rechnen kann?

Dass NVidia am Ende ausgerechnet durch HDMI zur FreeSync-Kompatibilität gezwungen würde, wäre natürlich schon interessant. So haben Konsolen dann auch hin und wieder einen guten Einfluss auf den PC-Markt?
 
Rickmer schrieb:
Die nächsten Konsolen kommen mit AMD Freesync implementiert. Wenn G-Sync nicht geöffnet wird, sieht es schlecht aus für die nvidia's Gaming-TVs mit G-Sync.

kommen die konsolen nicht mit hdmi2.1 und der dort spezifizierten VRR??
meines wissens unterstützen die xbox/xbox one aktuel auch lediglich vrr via hdmi 2.0.

einige tv's wie z.b. die neueren samsungs unterstützen auch explizit freesync, aber dennoch ist VRR ein hdmi 2.1 feature, welches wahlweise auch über 2.0 implementiert werden kann.
ich gehe davon aus dass die konsolen vor allem das vrr implementieren werden, da ab kommendne jahr hdmi 2.1 in wesentlich mehr tv-geräten zum einsatz kommen wird als den paar lg-oled's aus dem jetzigen modeljahr und den samsungs/sonys welche es vereinzelt für hdmi 2.0 implementiert haben; was im grunde in uhd auflösungen "lediglich" bis 60hz@hdmi2.0 funktionieren würde..

gerade bei freesync heißt es es wäre eine "spezifikationskonforme erweiterung" - konform zu was? hdmi1.4? hdmi2.0?
freesync und vrr "basieren" beide auf dem entsprechendne vesa standard, wobei freesync/adaptive sync über displayport 1.2a nativ implementiert sind. während das ganze übe hdmi eine andere geschichte ist und hier eher das VRR die "waffe der wahl" in zukunft werden dürfte...

tldr: so wirklich eindeutig durchblickbar ist die situation ja nicht.
 
Balrog schrieb:
Na toll.... das kurz vom meinem Kauf.... wollte eigentlich den 34GK950F nehmen.... bzw der G wäre mir lieber....
Der F ist nach dem FWUpdate ebenbürtig mit dem G.. ich liebe meinen F und gebe ihn nicht mehr her..

Lies dir den Test auf TFTCentral durch zu beiden..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheBeastMaster
duskstalker schrieb:
das ghosting bei freesync tritt dann auf, wenn ein monitor, der schlechte ghosting performance unterhalb seiner nativen max refresh rate hat, weit weg von seiner nativen max frequenz betrieben wird
Entweder das oder weil der User Overdrive auf Maximum dreht und den Ufo-Test nicht gemacht hat.
Ohne den wäre mir das Ghosting auch nicht sofort aufgefallen, aber in schnellen Bewegungen spürt man es eigentlich bei den meisten Monitoren, dass die Pixel einfach zu lange nachleuchten mit vollem Overdrive.
 
TR2013 schrieb:
Ich frag doch nur. Als Laie denkt man halt, dass das irgendwas bedeutet wenn man die Specs auf Geizhals sieht... :rolleyes:
Dass Geizhals da so dermaßen irreführend ist, wundert mich allerdings auch. Theoretisch müsste man entweder bei beiden Herstellern 1 bis xHz angeben oder eben die tatsächlichen Werte recherchieren. Das was die derzeit machen ist mindestens unseriös.
 
r4yn3 schrieb:
Seit ich 144Hz habe, vermisse ich FreeSync eigentlich kein Stück, ist auch deaktiviert. Sollte das bei 240Hz nicht noch egaler sein? Bei meiner 60Hz 4K Möhre war das noch was anderes.
Ist es dank 144hz auch bei Frameraten um 40FPS ein massiver Unterschied zu 60hz? Merci
 
m.Kobold schrieb:
Hab mein G-Sync deaktiviert, das ist alles nur marketing bullshit, jetzt läuft mein Monitor konstant auf 144Hz, 10 mal besser als vorher und das sag ich mit einer dicken 2080Ti... ich find es echt heftig was für ein Hype um solche schwachsinns features gemacht wird.

Schwachsinn? Das Feature ist ein Traum sobald du unter 60 FPS kommst. Da erkenne selbst ich im Blindtest sogut wie gar nicht mehr wann ich unter 60 FPS Falle. Ohne GSync erkennt man das sofort!
 
  • Gefällt mir
Reaktionen: Laphonso
m.Kobold schrieb:
abgesehen von CS gibt es kaum probleme
mit den meisten games und V-Sync.
Wie schaut es da aus wenn dein Titel zB nur 45 FPS macht? Wie zockst du da mit deinem 144hz Display? VSync off? Ist dann Tearing wegen den 144hz kaum ein Problem oder wie stell ich mir das vor?
 
Krautmaster schrieb:
Ist es dank 144hz auch bei Frameraten um 40FPS ein massiver Unterschied zu 60hz?
Mehr Hz bringt immer was. Die Reaktionszeit wird einfach besser. Und der Riss ist weniger lang zu sehen, macht das Bild also auch ruhiger (bei 120 zu 60 Hz nur halb so lang).
 
  • Gefällt mir
Reaktionen: m.Kobold und Krautmaster
Nilson schrieb:
Mehr Hz bringt immer was. Die Reaktionszeit wird einfach besser. Tearing hat man aber weiterhin, weniger stark pro Riss, dafür mehr Risse. Was einem besser gefällt muss man selbst entscheiden.
Latenz ist klar da das Abstand Bild zu Bild kleiner wird, das nächste Bild potentiell früher kommt.
Wenn aber das Display zB 144hz und Adaptive Sync hat kann ja ein Stream mit 65FPS via Frame Dopplung auch 2x ausgegeben werden, also die Ausgabe trotz quasi VSync mit 130hz erfolgen. Die Latenz wäre also quasi unerheblich länger.

Bei unter 144/3 auch drei Mal usw. Immer mit Vorteil dass kein Bild "zerrissen" wird.
 
Zurück
Oben