News Monitore: AMD FreeSync bald auch mit G-Sync-Modul von Nvidia

Krautmaster schrieb:
Ist es dank 144hz auch bei Frameraten um 40FPS ein massiver Unterschied zu 60hz?
Hm ich kann das aktuell gar nicht vergleichen. Ich hab jetzt mal den 4K auf 1440p gesetzt, und den 144Hz Monitor gespiegelt. Beides über DP, aber beim 4K hab ich dennoch Tearing und leichtes gelagge. Ich weiß also nicht ob hier FreeSync aktuell greift.
Mit FS off ist es mit dem 144Hz natürlich smoother, aber ich denke das war nicht die Frage.
Greift FS nicht wenn der Monitor nicht in der nativen Auflösung betrieben wird?
 
cvzone schrieb:
Warum hält den Nvidia immer noch an diesen G-Sync Modulen fest? Was können die den jetzt mehr als Freesync, außer Nvidia Geld in die Kasse zu spülen?
Variables Overdrive.
 
Krautmaster schrieb:
65FPS via Frame Dopplung auch 2x ausgegeben werden, also die Ausgabe trotz quasi VSync mit 130hz erfolgen.
Ob ich den Frame jetzt einmal bei 65 Hz oder zwei mal bei 130 Hz sehe ist egal. Du siehst in jedes mal 15,38 ms lang.
 
Gelackmeiert alle die sich einen GSync Monitor zu horrenden Preisen gekauft haben und irgendwann doch mal zu AMD greifen wollen.

Richtig hochwertige Freesync Monitore sind selten.
Bin gespannt ob dies sich nun ändert... Wenn ja, dann hat nVidia die Hersteller angehalten die FS Monitore irgendwie künstlich zu beschränken.

Rein technisch basieren beide Techniken auf der selben Technik ( :D :freak: - Satzbau)

Hatte schon immer das Gefühl das nVidia hier die von Intel bekannte und adaptierte Melktaktik fährt. Nur in einem Segment läuft das schon nicht mehr so.
G-Sync ist in ein paar Jahren ausgestorben.
 
  • Gefällt mir
Reaktionen: Zitterrochen und Mcr-King
Nilson schrieb:
Ob ich den Frame jetzt einmal bei 65 Hz oder zwei mal bei 130 Hz sehe ist egal. Du siehst in jedes mal 15,38 ms lang.
Ja aber das hat mit der Latenz ja nichts zu tun. Bei der geht's ja darum wie lange es dauert bis du siehst was du sehen sollst. Wird ja kaum einer mit über 120FPS zocken wo fast jedes wiedergegebene Bild dann auch ausgegeben wird. Vom fertig gerechnet Bild bis zur Ausgabe ist doch theoretisch der Bild zu Bild Wert(Hz) und InputDelay entscheidend. Ob das Bild dann nur 1 Refresh oder 2 Stehen bleibt entscheidet sich ja nach dem wie viele Bilder vorne reinpurzeln. Also FPS.

Wenn zu t0 das Bild fertig ist und man mit 0ms InputDelay rechnet dann dauertes eben bis zum nächsten Refresh und der hängt von der Hz Zahl ab.
Du hast also zB 1000ms / 144hz = 7.Xms Delay bis es angezeigt wird. Egal ob das Bild danach nur 7.X oder 15.Xms stehen bleibt.
 
Zuletzt bearbeitet:
Klar die FPS geben die mindest Latenz vor. Schneller als alle 22,22 ms bei 45 FPS wirst du keine Reaktion bekommen. Im worst case hast du aber aber 60 Hz 22,22 ms+ 16,66 ms = 38,33 ms Verzögerung, wenn der Refresh von dem Pixel gerade vorbeigezogen ist, als der fertig berechnet wurde. Bei 144 Hz ist dieser worst case nur noch 22,22 ms + 6,94 ms = 29,16 ms lang, also fast 10ms kürzer, bei gleicher FPS.
 
Ja aber wie sieht's da mit Adaptive Sync und 144hz Panel aus? Wenn das Bild schon fertig ist sind es ebenso nur 6,94ms, ist es nicht fertig steht das alte weitere 6,94ms.

Bei VSync off am 144hz ohne Adaptive Sync würde er dann sobald das Bild fertig ist das entsprechend auch schon "halb" ausgeben und beim nächsten Frame dieses dann mit dem selben Frame erneut zB sauber ausgeben - oder eben wieder halb.

Hm Frage mit mich nur ob es so den Unterschied macht. Würde ja bedeuten ich muss von dem eigentlichen Tearing den Vorteil sehen. Es ist ja abers als bei einem 60hz Panel wo ich immer die zB 22ms warten müsste kp

Ich will mehr oder weniger drauf raus dass Adaptive Sync bei 60 FPS mit 144hz Panel sicher besser was Latenz angeht ist als ein Native 60hz Panel (da zB Bildaufbau mit 120hz), wegen der schnellen Bildfolge. Hab aber noch nicht wirklich den Vorteil von 144 Hz AS off gegenüber 144hz AS on vor Augen der hier genannt wurde.

:affe:
 
Zuletzt bearbeitet:
Bei AS on wartet der Monitor bis der Frame fertig ist. Heißt, du hast nie den Fall bei dem der Monitor "zu früh" einen Pixel refresht und du auf den nächsten Zyklus warten musst.
Bei festen 144Hz dauert es immer ein vielfaches von 6,94 ms bis ein Pixel sich ändert. also bei 6,94ms, 13,88ms, 20,83ms und so weiter. Mit AS on / VRR kann der wert jeden beliebigen einnehmen. 7,81ms, 15,3ms oder was auch immer. Abhäning von den FPS. Und 7,81ms sidn weniger als die 13,88ms die man mit festen Hz hätte warten müssen.
Sind die FPS natürlich ein Teiler von 144 Hz, bringt VVR nix.
 
Andersherum gesprochen ist AS Off bei 144hz im besten Fall 6.94ms schneller als mit AS On. Korrekt?

Und hat jemand die Erfahrung gemacht dass das relevant ist? Im Schnitt bei Normalverteilung dürfte der Vorteil gehen 6.94ms/2 gehen oder?

Verglichen mit zB Vsync bei 60hz ist das ja trotzdem nen Top Wert oder?
 
r4yn3 schrieb:
Seit ich 144Hz habe, vermisse ich FreeSync eigentlich kein Stück, ist auch deaktiviert.

ich merks auch bei 144hz sofort, wenn freesync aus ist. für mich persönlich ist es schwer nachvollziehbar, wenn jemand sagt, er sähe da keinen unterschied. 144hz 144 fps ohne freesync ist am zuckeln und flackern (kanten), dass es sich nach dreifachen frametimes und buggy fullscreen, den man frisch tabben muss, anfühlt.
 
  • Gefällt mir
Reaktionen: JMP $FCE2 und Krautmaster
Sehen tu ich den Unterschied schon, minimalst. Ein zuckeln und flackern kann ich jedoch nicht feststellen.
 
Krautmaster schrieb:
Andersherum gesprochen ist AS Off bei 144hz im besten Fall 6.94ms schneller als mit AS On. Korrekt?
Ich bin gerade schon zu müde um klar zu denken :n8:, aber imho ist es genau um gekehrt. Wenn das heute Nacht keiner Richtig stellt, melde ich morgen noch mal.
 
  • Gefällt mir
Reaktionen: Krautmaster
KarlKarolinger schrieb:
Echtes 4K müsste also 4000x4000 Pixel sein, alles andere ist Betrug behaupte ich! ;)

Smiley hin oder her: 4k ist lediglich als horizontale Auflösung definiert. Die vertikale Auflösung spielt dabei keine Rolle. Rein theoretisch wäre selbst 4000x2 eine valide 4k Auflösung, folgt man der strengen Logik. ;)
 
Inxession schrieb:
Gelackmeiert alle die sich einen GSync Monitor zu horrenden Preisen gekauft haben und irgendwann doch mal zu AMD greifen wollen.
Nein, dass ist quatsch. Die G-Sync Monitore sind immer noch besser als ihre FS Gegenstücke.
Freesync kann weiterhin kein variables OD (eigentlich das absolut wichtigste), kein vernünftiges HDR (wegen Dimming). G-Sync funktioniert besser bei niedrigen FPS, kein (oder kaum) Flickern oder Kontrastwechsel bei low FPS, besserer Inputlag und lass uns gar nicht erst bei den Treibern anfangen. G-Sync ist einfach besser implementiert.
Bei den CPUs mag AMD derzeitig Intel quasi in Grund und Boden stampfen und ich habe mir deswegen jetzt auch einen Ryzen 3600 gekauft, aber GPUs + Treiber und allem rund um... Gott würde ich AMD gerne ohrfeigen. Würde mir nur zu gerne eine 5700XT kaufen... aber ne. Alleine schon weil seit 'nem Jahre nix mehr bzgl. VRR kommt.
 
  • Gefällt mir
Reaktionen: Sappen, AirForce, Stuntmp02 und 2 andere
RichieMc85 schrieb:
Weniger Input Lag bei HDR und Local Dimming. Ohne das Modul könntest du die aktuelle HDR Technik vergessen. Sieht man schon an den Samsung TVs die Local Dimming deaktivieren müssen um auf den tollen Input Lag zu kommen.

Informiert euch lieber mal eh immer so haltlose Behauptungen kommen. Es gibt noch immer keinen einzigen vernünftigen HDR Monitor mit Freesync was zeigen sollte das es nicht nur banale Software Lösungen sind.

Und gut das es keinen einzigen g Sync Monitor (normales Modul) mit hdr erst gibt. Suche den Fehler 😂🤦‍♂️
 
Inxession schrieb:
Rein technisch basieren beide Techniken auf der selben Technik

Wenn du es genauer haben willst, dann setzt beides zwar auf gleichen Schnittstellen auf, die Lösung von Nvidia setzt aber tiefer an.

The module carries all the functional parts. It is based around an Altera Arria V GX family FPGA featuring 156K logic elements, 396 DSP blocks and 67 LVDS channels. It's produced on the TSMC 28LP process and paired with three DDR3L DRAM chips to attain a certain bandwidth, for an aggregate 768MB capacity. The employed FPGA also features a LVDS interface to drive the monitor panel. It's meant to replace common scalers and be easily integrated by monitor manufacturers, who only have to take care of the power delivery circuit board and input connections.

Was das letztendlich bedeutet? Nvidia hat bei G-Sync die Hand auf der gesamten Signalverarbeitung, kann mit Softwareupdates das Modul anpassen, Fehler beheben oder wie nun angedacht die Unterstützung von VRR implementieren. Zumindest solange der verbaute FPGA es mitmacht.

Bei AMD hört Freesync an dem Stecker auf. Wie gut der Hersteller es dann implementiert ist reine Glückssache, wie man wunderbar bei Nvidia Tests sehen konnte. Die wenigsten Hersteller bieten zudem Firmware Updates an und in den meisten Fällen wird die Hardware in den Monitoren gar nicht anpassbar sein.

Das LG bei ihren OLEDs nachträglich VRR implementieren konnte liegt einzig daran, dass auch dort ein hochwertiger Prozessor zum Einsatz kommt, nur dürfte das in so gut wie keinem Monitor der Fall sein.
1574730163666.png

http://de.tab-tv.com/?p=14767

Vielleicht mal anders ausgedrückt. Bei einem guten Hersteller mit einem guten Panel und guter Abstimmung des Prozessors auf Gaming, wird man zwischen Freesync und G-Sync keinen Unterschied merken. In der Realität sind viele Freesync Implementierungen schlichtweg Schrott.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stuntmp02 und redgreenblue
TR2013 schrieb:
Bedeutet das dass dann endlich auch freesync bei unter 30hz verfügbar wird? Im Moment gibt es solche Monitore ha nur mit GSync.
... 30 Hz? Wo gibt es denn so etwas, und was soll man damit?
 
  • Gefällt mir
Reaktionen: VYPA
Bible Black schrieb:
Nein, dass ist quatsch. Die G-Sync Monitore sind immer noch besser als ihre FS Gegenstücke.

Ja, das steht ja quasi einen Satz unter dem, den du zitiert hast ,in meinem Post. ;)
Dafür kann AMD aber nix.

Bible Black schrieb:
Gott würde ich AMD gerne ohrfeigen.

Mittlerweile liest man sehr viel, die mit der altbackenen nVidia Software so ihre Querelen haben.
Ich hab selbst nVidia bestmöglich gemieden und kann keine Probleme mit AMD feststellen.

Erst letzte Woche hab ich einen nVidia Jetson Nano Dev Kit gekauft.
Der geht wieder zurück.
Nicht weil das Ding nicht toll ist ...
Aber jeglicher Support von nVidia ist Wunschdenken.

Zudem ist das Gebotene für den Preis dann doch zu teuer.

Dann bleibt es bei der nicht ganz astreinen Meinung gegenüber nVidia.

Zum basteln reicht der Pi4 für mich auch. Die Makerboards sind generell alle zu teuer aktuell. (Aufgrund hoher Nachfrage)
 
Ich stelle immer den RTSS auf einen Teiler von 60 (60) oder 144 (meist 48, manchmal 72, 144 nutze ich eigentlich nie) ein, je nachdem wo ich gerade sitze (Laptop). Obwohl der 144Hz als auch mein Lappi G-SYNC-fähig sind, nutze ich das nicht, da per HDMI 2.0 betrieben, und habs auch bisher nicht vermisst. VSYNC muss natürlich an, dann ist das Bild sauber, oder ich bin zu anspruchslos ;)

Dennoch wünschenswert, wenn sich die verschiedenen Technologien annähern und sich vielleicht irgendwann auch ein Standard etabliert.
 
cvzone schrieb:
Warum hält den Nvidia immer noch an diesen G-Sync Modulen fest? Was können die den jetzt mehr als Freesync, außer Nvidia Geld in die Kasse zu spülen?
Sehe ich genauso.
Nvidia soll besser eine verbindliche Liste mit FreeSync kompatiblen Monitoren pflegen und die G-Sync Module beerdigen.
 
Zurück
Oben