Test FSR 3 mit FMF im Test: AMDs Frame Generation ver­wirrt, zickt und zeigt Potenzial

Windell schrieb:
Von der Nummer 2 erwarte ich eben nicht eine 1:1 Kopie...
Dass es mindestens genauso gut funktioniert, kann man doch erwarten. CB und PCGH haben DLSS 3 direkt getestet und mögliche Baustellen aufgezeigt. AMD konnte wunderbar bei der Konkurrenz gucken/testen/fühlen. Daher ist die Erwartungshaltung auch eine andere.

Windell schrieb:
Nvidias Hauptgrund die Technologien größtenteils für die neueste Gen zu releasen ist sicherlich der finanzielle Aspekt in der Hoffnung mehr Käufer zum Neukauf der 4xxxer Serie zu bewegen.
AMDs Hauptgrund nachzuziehen, ist doch das gleiche. Das Geschäftsmodell ist es, den Goodguy zu spielen.

Windell schrieb:
Was hätte AMD besser machen sollen?
...
Hätten die das nicht angekündigt, hätten die Leute weiter gemeckert, das bisher nix von AMD kommt. Wäre also auch nicht in Ordnung gewesen.
Im November 2022 wurde es angekündigt. Anfang Januar 2023 hieß es dann "coming soon" siehe CB Update. Bei der kurzen Zeit hätte ich eher gedacht "wow krass... die arbeiten schon ewig dran und der Release ist jeden Moment". Und dann wird es anscheinend sogar noch zu früh in diesem aktuellen Zustand released. Ironischerweise läuft es dann auch noch nur auf einer RTX 4000 zufriedenstellend 😑 AMD war weder in der Lage früh noch zufriedenstellend abzuliefern - und das wissen die selbst, außer die testen das nicht. Besser wäre es daher, nach der ersten Ankündigung zu schweigen (Schadensbegrenzung).

Erfüllt alles erneut perfekt das AMD Klischee... wieder rumprobieren und basteln, manchmal klappt's und manchmal nicht... Kompromisslösung gegenüber Nvidia... keine Reaktion/Antwort durch AMD... Fine Wine wird's schon richten usw.
 
  • Gefällt mir
Reaktionen: raPid-81
Windell schrieb:
Noch bevor die es angekündigt haben, haben die Leute doch gemeckert das es nix von AMD gibt

Hab ich in den Foren wo ich mitlese und gelegentlich schreibe nicht so wahrgenommen. Man hat darüber diskutiert ob und was AMD wohl tun könnte.

Das fand grob im gleichen Maße statt wie zu der Zeit als G-Sync kam und man sich fragte was AMD jetzt wohl machen würde, oder als DLSS kam und man sich fragte was AMD jetzt wohl machen würde.
Da hat man auch nicht Hals über Kopf angekündigt und dann ein Jahr lang nicht geliefert.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
raPid-81 schrieb:
Das unrunde Spielgefühl ist also in Ordnung so für Dich. Mag ja sein, für viele ist das aber ein Gamebreaker.

Keiner der Tester (und ich hab 3 Artikel + 3 Youtube Channels diesbezüglich durchgeschaut) empfiehlt FMF ON zur Zeit. Alle sagen dass es besser ist mit weniger Frames zu spielen, dafür aber das rundere Spielgefühl zu bekommen.

Mit Vsync auf konstant 100FPS fühlt das sich schon sehr rund an, jedenfalls viel runder als 60FPS. Ich kann dieses unrunde Gefühl nicht nachempfinden. Ich habe allerdings auch nur die Forspoken Demo getestet.

Hast du es selber mal probiert?
 
raPid-81 schrieb:
Die Releasenotes des AFMF Preview Treiber sowie den entsprechenden Blogpost.
Ergänzung ()

raPid-81 schrieb:
Ganz genau.
Ergänzung ()

raPid-81 schrieb:
Ich kenne keinen Youtuber oder ein Fachmagazin welches FMF aktuell empfiehlt.
Das war aber auch nicht meine Aussage. Sondern das fast alle gesagt haben das man das Feature noch nicht abschließend bewerten kann anhand von 2 Spielen.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
.Sentinel. schrieb:
Siehst Du... Keine Kompromisse....
Naja als Kompromiss würde ich das jetzt nicht bezeichnen. Selbst DLSS und RTX sind nicht komplett ohne Fehler was ja Ray Reconstruction und immer wieder Updates von DLSS zeigen.
Ich habe ja nie gesagt das es nur um Rohe Rechenpower geht. Das weiß man ja seit mindestens 10 Jahren. Aber leider sind diese Techniken wie FSR/DLSS und FG kein Allheilmittel. Und leider verkommen diese Techniken dazu entweder überhaupt 60 FPS in 4k auf Highend Karten zu erreichen oder im Falle von FG gute 60 FPS fast zu verdoppeln. Ich denke viele und selbst ich dachten bei FG bzw. FMF zuerst wow ich bekomme die doppelten FPS. Da werden dann aus lausigen 25 Durchaus spielbare FPS aber dem ist nicht so. Auch DirectML ist so eine Sache. Komme gerade nicht darauf wer hier das als Killer Feature angepriesen hat und damit war AMD damals unkaufbar für ihn. Nach drei Jahren gibt es glaube 2-3 Spiele die das nutzen. Und die Tests dazu hier auf CB waren ja ziemlich enttäuschend.
Was ich damit sagen will, mag sein das die Technologien ganz toll sind. Aber entweder sind sie das oft nur in der Theorie oder diese werden von den Spieleentwicklern schlecht oder gar nicht umgesetzt.
Somit hat man wie hier schon jemand schrieb Feature Bullshit Bingo. Und dann gibt es hier Leute die damit ganze Threads füllen ohne im geringsten zu verstehen das ihnen dieses Features nichts oder kaum was bringen. Wenn wir FSR und DLSS weglassen. RT braucht ja noch bis in jedem Spiel komplett auf Pathtracing gesetzt wird. Und das auch noch in der Mittelklasse ankommt. Solange ist das nur eine Techdemo für einige wenige. Auch wenn hier viele was anderes behaupten.
Und ja ich nutze RT in jedem Spiel das es unterstützt.
 
NOTaNerd schrieb:
Die Releasenotes des AFMF Preview Treiber sowie den entsprechenden Blogpost.
Ergänzung ()
Ach ja? Wo genau?

https://www.amd.com/de/support/kb/release-notes/rn-rad-win-23-30-afmf-tech-preview
https://community.amd.com/t5/gaming...-now-on-amd-radeon-rx-7000-series/ba-p/634372
https://community.amd.com/t5/gaming/amd-fsr-3-now-available/ba-p/634265
https://gpuopen.com/fsr3-in-games-technical-details/

Bitte mal die Stelle zitieren, ich finde sie leider nicht auf allen oben verlinkten, offiziellen, Seiten.

Da steht sogar unter "Known Issues":
FreeSync™ displays may report an erratic FPS when AFMF is enabled.

Und hier:
Frame Pacing and Recommended VSync Settings


It is recommended to use AMD FSR 3 with VSync, as when enabled, frame pacing relies on the expected refresh rate of the monitor for a consistent high-quality gaming experience. Additionally, it is recommended that Enhanced Sync is disabled in AMD Software: Adrenalin Edition™ settings, as it can interfere with frame pacing logic. A game using AMD FSR 3 in this configuration will show a “zigzag” pattern on frame time timing graphs in performance measuring tools such as AMD OCAT. This is completely expected and does not indicate uneven frame pacing.


FSR 3 can also be used with VSync disabled, for example for performance measurement, but the experience will be less optimal due to frame tearing inherent to not having VSync enabled. For more in-depth details about how AMD FSR 3 frame pacing works, you can check out our technical blog on GPUOpen.

Und Freesync wird laut Dir empfohlen? Jetzt bin ich echt gespannt was Du lieferst. Denn ich finde nichts dazu. Nur dass man Vsync aktivieren sollte.

NOTaNerd schrieb:
Ganz genau.
Ergänzung ()
Ich persönlich bin einfach kein Fan von "fine wine" Versprechungen.

NOTaNerd schrieb:
Das war aber auch nicht meine Aussage. Sondern das fast alle gesagt haben das man das Feature noch nicht abschließend bewerten kann anhand von 2 Spielen.
Stimmt. Konnte man bei DLSS FG zu Release auch nicht, und trotzdem war hier im Forum die Hölle los. Also komm klar darauf. :rolleyes:
 
TigerherzLXXXVI schrieb:
Und das zerstört für mich das Erlebnis
Du verwechselst Erlebnis mit der Sehgewohnheit. Wenn du bei der Framerate das Alte gut findest,
also ein ruckeliges Bild wie vor 100 Jahren auf schwarz/weiß Lichtbild Projektor, warum findest du
bei Auflösung, Kontrast und Ton das Neue gut also HD bzw. UHD/4K, HDR und Surround Sound ?
Warum schaust du jetzt auf LCD/OLED statt auf einer Bildröhre ? Das zerstört doch "das Erlebnis".

TigerherzLXXXVI schrieb:
Ganz objektiv betrachtet sind mehr als 60 FPS absoluter Luxus
Ein Auto dass schneller als 60km/h fährt oder mehr als 60FPS hat ist auch Luxus bzw. Fortschritt.
Heizung statt Ofen, fließend warm Wasser statt Aufkochen, Kleidung statt Fell, Haus statt Höhle.
Wenn du dich in allen Lebensbereichen mit dem Nötigsten zufrieden gibst dann ist das positiv
aber wenn du es nur bei bestimmten Dinge tust dann ist das nicht konsequent und fragwürdig.

TigerherzLXXXVI schrieb:
Darüber hinaus besitzen beispielsweise OLEDs technikbedingt eine deutlich bessere Bewegungsdarstellung als LCDs.
Aber für eine Bewegung brauchst du erst einmal FPS und zwar Viele denn deine geliebten 24p
sehen auf OLED noch ruckeliger aus als auf LCD und bei Spielen macht dich die geringere Panel
Reaktionszeit auch erst bei hohen FPS bemerkbar weil LCD dort an seine technische Grenze stößt.
Also ob 60FPS auf LCD oder OLED ist egal, bei 120FPS wirkt OLED schärfer und bei 240FPS optimal.

TigerherzLXXXVI schrieb:
Weil LCDs ebenfalls technikbedingt eine schlechte Reaktionszeit besitzen. Und dies kann man nur mit entsprechend vielen dargestellten Bildern pro Sekunde kompensieren.
Mit hohen FPS bleibt die Panel Reaktionszeit genauso schlecht und 240FPS sehen kaum besser aus
als 120FPS also dies bezüglich ergibt deine Aussage gar keinen Sinn. Dafür braucht man OLED oder
man nutzt BFI (Black Frame Insertion) indem man durch eine "pulsierende" Hintergrundbeleuchtung
schwarze Zwischenbilder einfügt um unsere trägen Augen zu täuschen. Das Bild wirkt dann schärfer.
 
MrHeisenberg schrieb:
Alles was du in deiner Freizeit tust ist Luxus, also was soll die Diskussion?
Mal ganz davon ab, hat das gar nichts mit dem Thema zutun.
Wenn ich nach Feierabend in meiner Freizeit weiter an privaten Projekten arbeite, ist das wohl kaum Luxus. Oder wenn ich Sport treibe.

Natürlich hast du meine Diskussion nicht richtig durchgelesen. Es ging darum, ob es UNBEDINGT mehr als 60 FPS in Spielen sein müssen. Beispielsweise hatte ich vor einiger Zeit Resident Evil 4 auf dem Gamecube auf einem CRT gespielt. Das Spiel läuft selbstverständlich nur mit 30 FPS. Wer jetzt der Meinung ist, dass deswegen der Titel unspielbar wäre, der liegt komplett daneben. Und da sind wir weit weg von 60 FPS... Wenn jemand unbedingt 120 FPS in jedem Spiel braucht, der soll es selbstständig anstreben. Ich werde ihm das nicht ausreden. Es geht mir allein um die fragwürdige Einstellung, dass alles darunter das Spielerlebnis maßgeblich verschlechtert oder gar unspielbar ist. Das ist ein Luxusproblem, welches ich nicht so durchgehen lassen kann.
 
Ray Donovan schrieb:
Meine Xbox Series X verbraucht ~210W unter Vollast. Da sieht man ja das Potenzial was möglich ist (was würde die RTX4090 mit einem Cap auf 210W erreichen? wobei man den reinen CPU-Verbrauch der Xbox Series X ja noch abziehen müsste, also müsste man den Cap sogar noch weiter unten ansetzen).
Tatsächlich würde ein PC mit 5700X (60W) und RTX4000 per UV auf 160Watt begrenzt mit identischen Grafikeinstellungen doppelt so viel FPS schaffen. Mit vielbesseren Grafikeinstellungen genauso viel FPS
und mit Frame Generation eben wieder doppelt so viel FPS. Meine 4090 zieht 200-250W in 4K@120FPS.
 
  • Gefällt mir
Reaktionen: Ray Donovan
Ray Donovan schrieb:
Meine Xbox Series X verbraucht ~210W unter Vollast. Da sieht man ja das Potenzial was möglich ist (was würde die RTX4090 mit einem Cap auf 210W erreichen? wobei man den reinen CPU-Verbrauch der Xbox Series X ja noch abziehen müsste, also müsste man den Cap sogar noch weiter unten ansetzen). Aber da spielt man 4k auch nicht in >144 Hz.

Wenn die RTX 4090 nur 210 Watt brauchen würde hätte sie sicherlich auch noch eine sehr gute Leistung aber das würde die Karte obsolet machen, denn wer sich solch eine Karte in den PC zimmert der hat normalerweise keine Sorgen, wenn es um Stromverbrauch und Leistungsaufnahme geht. Die Karte ist und bleibt etwas für Enthusiasten.

Undervolting hat bei den Nvidia Karten eigentlich schon immer gut funktioniert. Meine letzte Nvidia (RTX 2070 Super) von Gigabyte war ja schon eine sehr per Bios hochgeprügelte Karte mit einer Leistungsaufnahme bis hin zu 250 Watt.

IMG_20220625_235715.jpg


Das konnte man per MSI Afterburner aber so gut konfigurieren, das man durch Undervolting und gleichzeitiger Übertaktung die GPU gerade mal 180 Watt verbaucht hat plus den Rest des Systems noch hinzu addiert.

Meine jetzige Karte, eine AMD RX 6800 im Referenzdesign ist auch eine sehr gute und effiziente Karte, wenn es um 4k Gaming geht, aber so gut wie die RTX 2070 Super bekomme ich es bei der Radeon nicht hin.

Ray Donovan schrieb:
Ich denke, dass da deutlich mehr gehen würde, wenn man Effizienz priorisieren würde. Man hat mit KI aber einen anderen Ansatz und kann die Rohleistung vernachlässigen. Dazu noch RT was auch noch Leistung on mass zieht.

Ich finde nicht das RT so sehr an Leistung frisst, sondern eher an Performance. Leistungsaufnahme steigt enorm an, wenn du einen Gaming Monitor hast, der so wie meiner neben den üblichen 60Hz auch 120Hz und 165Hz anbietet. Was da die 2070 Super auch an Spulenfiepen erzeugt hat, war für meine Ohren schon zu viel. Das konnte ich damals nur mit Undervolting & Overclocking in den Griff kriegen. Als ich mir den Gigabyte Gaming Monitor G32QC Ende November 2020 zugelegt habe, wollte ich auch mal das ganze Potenzial von G-Sync & Co austesten ohne darüber nachzudenken wie sehr dadurch der Stromverbauch ansteigt. Es war einfach nicht zu Ende gedacht und zu wenig Recherche die ich da betrieben habe. Wenn du dann auch noch HDR 400 Rendering beim Monitor in Anspruch nimmst frisst das alleine schon 40 Watt mehr an Leistung. Der Monitor hat eine native 1440p Auflösung, wir sprechen hier also nicht einmal von nativen 2160p.

Ray Donovan schrieb:
Es geht ja gar nicht mehr um Effizienz sondern die letzten fps rausquetschen. Dabei wird die Grafik erst mit enormen Aufwand durch RT verbessert nur um es dann nativ runterskalieren zu müssen (weil die Leistung nicht reicht) damit die KI es dann anschließend mit künstlichen Bilder (in Echtzeit, was zwangsläufig - gerade bei sehr schnellen Bewegungen - zu lags führt und G-Sync/FreeSync eigentlich absolet macht) wieder hochskalieren kann. Wie gesagt, ich kann mit dieser Entwicklung nichts anfangen.

Ich mittlerweile auch nichts mehr. Es kommt aber auch darauf an, wie gut diese Features in die Spiele implementiert werden in der Zukunft. Ich ertappe mich dabei immer wieder, das ich FSR2.0 sowie FSR2.1 in den Games die ich habe und dies unterstützen schon mal anteste und es natürlich schön ist, das die FPS dadurch konstanter werden oder auch spürbar ansteigen, aber für mich ist der Leistungsschub eher zu vernachlässigen weil ich mit meinen Augen leider auch eine Verschlechterung der Bildqualität feststelle. Da mag auch an meinem VA Panel liegen aber im Gegensatz zu FSR sah DLSS egal ob hoch oder runterskaliert auf der RTX 2070 Super um längen besser aus.

Ray Donovan schrieb:
Muss man 4k denn mit > 144 hz spielen? Ist das nötig oder das nicht eigentlich auch ein "Luxus-Problem"?

Es ist und bleibt eine optionale Möglichkeit, die bei dem einen oder anderen Game sicherlich Spaß bereitet. Ich gebe dir aber recht. Es ist eher ein Luxusproblem.

Ich spiele in erster Linie Renn sowie Jump & Run Spiele auf meinen 4k TV und da langen mir die 60 FPS die der Bildschirm max ausgeben kann vollkommen aus. Dadurch bleibt die Leistungsaufnahme der RX 6800 im Rahmen und tut der Spielfreude keinen Abbruch.

Aber Spiele wie Doom 2016 oder Doom Eternal machen auf dem Gaming Monitor mit 120Hz bzw 165Hz schon Spaß. Das HDR Feature ist eine nette Nebensache, aber wenn es Verbindung mit FSR 3 mit FMF noch solche Probleme bereitet dann kann man selbst in der Beta befindlichen Treiberentwicklung von keinem echten Gegenspieler zu DLSS sprechen.

Schön ist, das AMD es für Nvidia Karten mitentwickelt und ich wäre Nvidia dankbar wenn man DLSS auch etwas quelloffener gestalten würde.

Vor dem Gigabyte Monitor hatte ich einen AOC 4k 75Hz AMD Freesync Monitor in 27 Zoll aber da empfand ich damals alles zu klein von der Auflösung im Verhältnis zu Zollgröße.

Meine Glupscher werden auch immer schlechter seit 5 Jahren. Die Last der Älterwerdens halt 🤓
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ray Donovan
raPid-81 schrieb:
Also komm klar darauf. :rolleyes:
Muss ich nicht klar darauf kommen, wenn man nicht sachlich und respektvoll kommunizieren kann, wird einfach nicht mehr mit dir kommuniziert, so einfach ist das.
Ergänzung ()

raPid-81 schrieb:
Und Freesync wird laut Dir empfohlen

  • The AFMF technical preview currently requires the game to be played in fullscreen mode with HDR disabled and VSYNC disabled.
  • For the optimal experience, AFMF is recommended to be used on AMD FreeSync™ displays.
 

Anhänge

  • afmf.png
    afmf.png
    15,7 KB · Aufrufe: 65
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Ghostfacekalle und raPid-81
NOTaNerd schrieb:
  • The AFMF technical preview currently requires the game to be played in fullscreen mode with HDR disabled and VSYNC disabled.
  • For the optimal experience, AFMF is recommended to be used on AMD FreeSync™ displays.

Da steht aber nicht dass Freesync enabled sein soll. Denn, soweit ich mich da nicht irre, funktioniert jegliches Adaptive Sync nur richtig wenn Vsync aktiv ist. Und das soll explizit deaktiviert werden.

Also eigentlich hast Du damit gar nichts belegt.
 
raPid-81 schrieb:
Da steht aber nicht dass Freesync enabled sein soll.
Wozu sollte man dann explizit ein "Freesync,- Display" empfehlen. Macht keinen Sinn wie du es versuchst zu interpretieren.

raPid-81 schrieb:
Denn, soweit ich mich da nicht irre, funktioniert jegliches Adaptive Sync nur richtig wenn Vsync aktiv ist.
Adaptiv Sync funktioniert unabhängig von Vsync und ist auch eine alternative Sync Methode gegen Tearing. Warum sollte es also dann nur mit Vsync richtig funktionieren.

raPid-81 schrieb:
Also eigentlich hast Du damit gar nichts belegt.
Habe ich. Nur versuchst du deine Argumentation mit Erbsenzählerei aufrecht zu erhalten.

Weshalb ich auch nicht weiter mit dir diskutieren möchte. Weil es schlicht sinnbefreit ist, selbst bei Fakten versucht du auf Krampf Recht zu behalten und sowas ist mir einfach zu anstrengend.
 
raPid-81 schrieb:
Denn, soweit ich mich da nicht irre, funktioniert jegliches Adaptive Sync nur richtig wenn Vsync aktiv ist
wenn du Vsync aktivierst, funktioniert Freesync (VRR) nicht.
 
Zuletzt bearbeitet:
NOTaNerd schrieb:
Adaptiv Sync funktioniert unabhängig von Vsync und ist auch eine alternative Sync Methode gegen Tearing. Warum sollte es also dann nur mit Vsync richtig funktionieren.
Er hat aber recht. Es wird empfohlen Freesync/GSync zusammen mit VSync zu nutzen:
https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/14/

Northstar2710 schrieb:
wenn du Vsync aktivierst, funktioniert Freesync (VRR) nicht.
Sicher? Bei GSync wird es empfohlen.

Könnt auch hier mal schauen: https://www.computerbase.de/forum/t...en-falls-freesync-aktiv.1973012/post-24705254
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ghostfacekalle, NOTaNerd und raPid-81
NOTaNerd schrieb:
Wozu sollte man dann explizit ein "Freesync,- Display" empfehlen. Macht keinen Sinn wie du es versuchst zu interpretieren.


Adaptiv Sync funktioniert unabhängig von Vsync und ist auch eine alternative Sync Methode gegen Tearing. Warum sollte es also dann nur mit Vsync richtig funktionieren.


Habe ich. Nur versuchst du deine Argumentation mit Erbsenzählerei aufrecht zu erhalten.

Weshalb ich auch nicht weiter mit dir diskutieren möchte. Weil es schlicht sinnbefreit ist, selbst bei Fakten versucht du auf Krampf Recht zu behalten und sowas ist mir einfach zu anstrengend.

Tue ich nicht, ich kenn mich mit dem Kram einfach ein bisschen aus. Empfohlen ist immer Vsync aktiv + Adaptive Sync aktiv + Treiber Framelimit etwas unterhalb der maximalen Hz des Monitors. Somit hat man sowohl bei FPS innerhalb der Adaptive Sync Range (meist irgendwas zwischen 35-maximale Hz des Monitors) kein Tearing, also auch wenn die FPS die maximale Refresh Rate des Monitors übertreffen kein Tearing.

Schaltet man Vsync ab und lässt Adaptive Sync an, dann funktioniert das gut solange man mit den FPS UNTERHALB der maximalen Refresh Rate des Monitors bleibt. Sobald man diese überschreitet gibt es dort wieder Tearing.

Northstar2710 schrieb:
wenn du Vsync aktivierst, funktioniert Freesync (VRR) nicht.
Falsch.

Hier auch noch ein Test diesbezüglich von Igor:
https://www.igorslab.de/nvidia-g-sync-vs-amd-freesync-vs-v-sync-wir-messen-die-systemlatenz-praxis/
 
MrHeisenberg schrieb:
Er hat aber recht
Okay. Kannte ich so nicht. Wobei der Beitrag ist halt schon aus 2017 und bezogen auf Gsync. Aber sei es drum. Wenn es so ist, dann okay.

Mir ging es hier auch weniger um diesen Punkt als um das Thema das ein Freesync Display empfohlen wird aber "da nicht steht das Freesync aktiviert sein soll."
Warum sollte man dann explizit ein Freesync Display empfehlen.
Das ist für mich halt Wortspielerei.

Danke aber für den anderen Link. Man lernt nie aus.
Ergänzung ()

MrHeisenberg schrieb:
Es wird empfohlen
Funktionieren tut Adaptiv Sync aber auch ohne VSync. Es ist ja nur eine Empfehlung oder?
 
MrHeisenberg schrieb:
Sicher? Bei GSync wird es empfohlen.
Das ist bei Freesync auch so. Ich nutze auch beides in Kombination.
Dazu gibt es aber schon Threads hier auf CB... ;)
 
  • Gefällt mir
Reaktionen: MrHeisenberg und raPid-81
NOTaNerd schrieb:
Okay. Kannte ich so nicht. Wobei der Beitrag ist halt schon aus 2017 und bezogen auf Gsync. Aber sei es drum. Wenn es so ist, dann okay.
Es ist immer noch aktuell. Siehe Test von Igor den ich verlinkt habe.

NOTaNerd schrieb:
Mir ging es hier auch weniger um diesen Punkt als um das Thema das ein Freesync Display empfohlen wird aber "da nicht steht das Freesync aktiviert sein soll."
Dir geht es darum Recht zu behalten.

NOTaNerd schrieb:
Warum sollte man dann explizit ein Freesync Display empfehlen.
Weil AMD manchmal seltsame Dinge schreibt. Wie gesagt, VRR funktioniert nicht richtig mit AFMF. Wenn man Vsync deaktiviert hat man auf jeden Fall mit Tearing zu rechnen sobald die FPS die maximalen Hz des Monitors überschreiten, und genau das will man ja mit VRR verhindern.

NOTaNerd schrieb:
Das ist für mich halt Wortspielerei.
Wieso? Dort steht nur dass ein Freesync MONITOR empfohlen wird. Nicht dass Freesync empfohlen wird.

NOTaNerd schrieb:
Funktionieren tut Adaptiv Sync aber auch ohne VSync. Es ist ja nur eine Empfehlung oder?
Ja, aber, wie ich bereits geschrieben habe, nur dann wenn die FPS innerhalb der Hz des Monitors bleiben. Sobald man z.B. 150 FPS erreicht (was mit AFMF ja drin sein sollte) und "nur" einen 144Hz Monitor hat gibt es Tearing. Das verhindert man durch Vsync aktiv und max. FPS 140.
 
Zurück
Oben