Asus RTX 5080 OC Prime: Kein Frame Generation bei Verwendung von VSync

PARALAX

Cadet 3rd Year
Registriert
Juni 2007
Beiträge
32
Folgendes Problem: Ich verwende eine RTX 5080 von Asus (Prime) zusammen mit dem stets aktuellen NVidia-Treiber von der Webseite, allerdings nur den reinen Treiber mit dem "Control Panel" ohne "Game Ready"-Treiber und "NVidia Updater", auf die ich bei der Installation verzichtet habe, da ich die Treiber bei Bedarf manuell aktualisieren möchte. So weit laufen auch alle Spiele wie erwartet, wobei ich bisher von den AAA-Titeln nur "Indiana Jones und der Große Kreis", sowie "Doom - The Dark Ages" installiert habe. Die Grafikkarte ist per HDMI mit meinem Denon AVR 2400H AV-Receiver verbunden, der wiederum mit meinem Panasonic Full HD TV (2011) verbunden ist. Die Auflösung entspricht also dauerhaft 1080p.

An Einstellungen kann ich innerhalb beider (und vermutlich auch anderer) Spiele alle Features auswählen, die mir die Karte vom Treiber aus anbietet. "DLSS Quality" entspricht dann zum Beispiel intern 720p, was auf 1080p hochskaliert wird. Um "Screen Tearing" zu vermeiden, was ich noch aus CRT Monitor Zeiten der 90er Jahre kenne und standardmäßig auch bei meinem TV auftritt, verwende ich stets die "VSync"-Option bei beiden Spielen, was die Framerate dann natürlich auf 60 fps und somit auf die vordefinierte Desktop-Auflösung beschränkt. So weit - so gut! Das ist ja auch beabsichtigt, zumal die Karte dann auch um einiges sparsamer und leiser läuft. Die Spiele laufen dann ohne Geruckel wie von den aktuellen Konsolen gewohnt.

Versuche ich nun aber "Frame Generation" (bzw. in meinem Fall "Multi Frame Generation") zu aktivieren, funktioniert das nur bei deaktivierten "VSync". Dann bekomme ich zwar wie erwartet das 3-4fache an Frames, also etwa 180-220 fps bei "Indiana Jones und der Große Kreis", aber das "Screen Tearing" taucht dann wieder auf und ist gerade bei Frameraten unter 120 fps unübersehbar. Lediglich bei ca. 200 fps und mehr ist es für mich kaum noch wahrnehmbar. Es ruckelt zwar nicht so stark, wie bei Framerate-Einbrüchen unter 60 fps, sieht aber dennoch furchtbar aus, da hässliche Artefkte entstehen, wenn sich das Bild verschiebt, gerade wenn man sich dreht. Ist das normal, das stets nur eines von den beiden Optionen im Spiel wählbar bzw. ansonsten ausgegraut ist? Oder wird das nur aufgrund des alten Fernsehers auf eine der beiden Optionen limitiert? VRR und 4K beherrscht mein TV leider nicht. Daher kann ich Bildinhalte nur nach HDMI 1.4 Standard bis max. 60 Hz. darstellen. Würde sich das mit einem neuen Fernseher ändern? Und bräuchte man da überhaupt noch die "VSync"-Option?

Danke schonmal für eure Hilfe!
 
Es kommt auf die Implementierung von (M)FG an. Bei einer einfachen Implementierung von (M)FG wird diese erst greifen wenn die Target-FPS nicht erreicht werden. Mit (M)FG + Vsync sollten sich die Einbrüche abfedern lassen - auf Kosten brutaler Latenz.

Es dürfte ratsamer sein, die Qualitätseinstellungen zu reduzieren anstatt FG zu aktivieren.

PARALAX schrieb:
Und bräuchte man da überhaupt noch die "VSync"-Option?
Hängt von der Empfindlichkeit ab. Man kann Tearing zwar auch ohne VSync reduzieren, aber nicht eliminieren.

Bei 60FPS an einem 240Hz-Monitor sind auch ohne VSync mindestens 3/4 der Monitor-Bilder ohne Tearing, an einem 120Hz-Monitor noch mindestens die Hälfte.*

*Wenn die 60FPS ausnahmslos mit entsprechenden Frametimes erreicht werden. :evillol:

Bei 240FPS an einem 240Hz-Monitor hast du ohne VSync vermutlich in jedem Bild Tearing. Fällt auf Grund der geringen Unterschiede und kurzen Bildschirmzeiten aber kaum auf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PARALAX
PARALAX schrieb:
Panasonic Full HD TV (2011)
PARALAX schrieb:
Um "Screen Tearing" zu vermeiden, was ich noch aus CRT Monitor Zeiten der 90er Jahre kenne und standardmäßig auch bei meinem TV auftritt, verwende ich stets die "VSync"-Option bei beiden Spielen, was die Framerate dann natürlich auf 60 fps und somit auf die vordefinierte Desktop-Auflösung beschränkt.
PARALAX schrieb:
Versuche ich nun aber "Frame Generation" (bzw. in meinem Fall "Multi Frame Generation") zu aktivieren

Wozu überhaupt Frame-Generation? Die 5080 dreht so oder so schon Kreise um die 1080p Auflösung, da braucht es keine "Fake-Frames", vor allem wenn der TV eh nur 60Hz beherrscht.

Und ja, so funktioniert das mit V-Sync. Du solltest Dir einen neuen TV oder Monitor zulegen, die 120Hz+ und VRR/FreeSync/G-Sync beherrschen. Und dann natürlich auch V-Sync ausschalten.
 
  • Gefällt mir
Reaktionen: Winston90, entengruetze und PARALAX
Naja, so überdimensioniert ist das gar nicht mehr, wie man mir damals nachgesagt hat. :) Ich habe es auch schon geschafft, die Karte in Full HD derart auszulasten, das sie auf unter 60 fps fällt und das merkt man dann natürlich auch bei aktivierten VSync. Beispiel: Eines der o.g. Spiele mit aktivierten "Path Tracing" und sämtlichen Qualitätseinstellungen auf "Hyper" bzw. "Alptraum" zusammen mit "DLAA". Das ist selbst für eine RTX 5080 zuviel, so das ich schon "DLSS - Quality" verwenden muß, wobei es natürlich immer aus die jeweilige Szene ankommt. Gerade am Spielanfang von "Indiana Jones" merkt man die Eindrüche schon deutlich. Selbst mit DLSS liegt die Framerate an einigen Stellen mit viel Vegetation auch nur knapp über 60 fps und das trotz einer Ryzen 7 9800X3D CPU (die allerdings aufgrund des Micro ATX Gehäuses stets im "Eco Mode" läuft, was mich vielleicht 2-3 fps kostet).

Den Fernseher habe ich bisher aufgrund seiner 3D-Fähigkeiten und der recht guten Bildqualität behalten, zumal er noch über die alten "Scart", "Composite", und "Component"-Anschlüsse verfügt, die ich gelegentlich noch für ältere Konsolen, dem C64 oder Amiga benötige. Ich müßte da erstmal schauen, ob es da überhaupt nochwas gibt, was 3D, 4K und VRR beherrscht und zumindest noch über "Composite" und "Component"-Anschlüsse verfügt. Da werde ich wohl Kompromisse eingehen müssen, zumal ich über eine ziemlich große Sammlung von 3D-Filmen verfüge.

MaverickM schrieb:
Wozu überhaupt Frame-Generation? Die 5080 dreht so oder so schon Kreise um die 1080p Auflösung, da braucht es keine "Fake-Frames", vor allem wenn der TV eh nur 60Hz beherrscht.

In Hinblick auf künftige, noch anspruchsvollere Spiele war mir das schon sehr wichtig. Noch komme ich damit locker hin, aber es gibt bereits die ersten Titel wie "Mafia - The Old Country", bei denen selbst in 1080p bei allen aktivierten Einstellungen schnell die Grenzen erreicht sind (laut Benchmarks nur noch um die 50 fps). Das war ja auch der Hauptgrund für die Anschaffung, da ich stets auf höchsten Qualitätseinstellungen samt "Path Tracing" (sofern verfügbar) spielen möchte, während 4K für mich nicht so wichtig ist. Dagegen würden fehlendes Ray- und Path Tracing auch bei 1080p schon deutlich unrealistischer wirken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes
PARALAX schrieb:
da ich stets auf höchsten Qualitätseinstellungen samt "Path Tracing" (sofern verfügbar) spielen möchte, während 4K für mich nicht so wichtig ist. Dagegen würden fehlendes Ray- und Path Tracing auch bei 1080p schon deutlich unrealistischer wirken.
dann hättest du dir aber eine 5090 zulegen müssen. Bei FG(MFG) ist es wichtig nicht ausserhalb der Freesync/gsync rang zu agieren. Heisst mit 120hz maximal 120fps(besser noch nur 118fps) bei deinen 60hz tv am besten garkein FG
 
PARALAX schrieb:
zumal ich über eine ziemlich große Sammlung von 3D-Filmen verfüge.
Dann bete schon mal das deinem TV ein ewiges Leben zuteil wird. Einen aktuellen TV mit 3D Funktion gibt es nicht mehr und das wird sich ziemlich sicher auch in absehbarer wie ferner Zukunft nicht ändern. 3D Funktion im heimischen TV Gerät wurde mittlerweile von allen Herstellern für tot erklärt.
 
  • Gefällt mir
Reaktionen: floTTes
Da hat BAssDad nicht Unrecht. Wäre vielleicht sinnvoll ein anderen Thread aufzumachen und nach alten Fernsehern oder Alternativen (3D-Brillen) zu schauen. Sollte dir das Teil in paar Jahren abrauchen, stehst du vielleicht ohne da.

Oder auf den nächsten 3D-TV-Hype und die Langlebigkeit deines TVs hoffen. Alle paar Jahre ist es wieder soweit. :evillol:
 
  • Gefällt mir
Reaktionen: PARALAX
Kauf dir einen vernünftigen, zu deinem sehr großzügigen, PC-Setup passenden Monitor und "schone" deinen wertvollen, nicht ersetzbaren, Fernseher für seinen eigentlichen Zweck.
Mit einem modernen 4k-OLED hast du auch noch ein besseres Bild, ohne immer alle Regler auf Anschlag stellen zu müssen.
 
PARALAX schrieb:
Ryzen 7 9800X3D CPU (die allerdings aufgrund des Micro ATX Gehäuses stets im "Eco Mode" läuft, was mich vielleicht 2-3 fps kostet).

Wozu? Was hast Du denn da für einen Micker-Kühler drauf? Bei mir rennt der unbeschränkt im ITX-Gehäuse ohne Probleme.
 
BAssDad schrieb:
Dann bete schon mal das deinem TV ein ewiges Leben zuteil wird. Einen aktuellen TV mit 3D Funktion gibt es nicht mehr und das wird sich ziemlich sicher auch in absehbarer wie ferner Zukunft nicht ändern. 3D Funktion im heimischen TV Gerät wurde mittlerweile von allen Herstellern für tot erklärt.

Ja, leider! Ich bin tatsächlich ein langjähriger Verfechter von 3D-Filmen. Wenn man es einmal von zu Hause mit den richtigen Filmen miterlebt hat (Beispiel "Gravity" oder "Avatar"), dann möchte man es nicht mehr missen. Nichtmal im Kino kam der Effekt so gut rüber. Und es gibt auch noch eine ganze Reihe von PS3-Spielen, die es sehr eindrucksvoll rüber gebracht haben, z.B. die "God of War" Collection oder die "Pinball FX"-Reihe.

floTTes schrieb:
Da hat BAssDad nicht Unrecht. Wäre vielleicht sinnvoll ein anderen Thread aufzumachen und nach alten Fernsehern oder Alternativen (3D-Brillen) zu schauen. Sollte dir das Teil in paar Jahren abrauchen, stehst du vielleicht ohne da.

Oder auf den nächsten 3D-TV-Hype und die Langlebigkeit deines TVs hoffen. Alle paar Jahre ist es wieder soweit. :evillol:

Wäre auch dafür! Es gibt zwar noch ein paar Top-Klasse Beamer mit 3D-Funktionalität, aber die kosten auch entsprechend. Ich bin auch kein großer Fan von Beamern, zumal die sich schon alleine wegen der Räumlichkeiten nicht eignen würden.


Jintho schrieb:
Kauf dir einen vernünftigen, zu deinem sehr großzügigen, PC-Setup passenden Monitor und "schone" deinen wertvollen, nicht ersetzbaren, Fernseher für seinen eigentlichen Zweck.
Mit einem modernen 4k-OLED hast du auch noch ein besseres Bild, ohne immer alle Regler auf Anschlag stellen zu müssen.

Ich habe neben dem 32-Zoll Haupt-TV noch einen 24-Zoll TV von Philips (2014), der ebenfalls über die Anschlüsse, allerdings über keine 3D-Funktionen verfügt. Ich warte derzeit nochwas mit der Neuanschaffung, halte es aber tatsächlich nicht für ausgeschlossen, das der 3D-Hype wieder zurückkehrt. Gleiches galt ja auch schon für die VR-Brillen, siehe damals der verkorkste "Virtual Boy" von Nintendo. Trotzdem habe ich mir sowas nie zugelegt, zum einen wegen "Motion Sickness", zum Anderen weil der große Support von Top-Titeln bisher ausgeblieben ist, vor allem was die "PSVR 2" betrifft.

MaverickM schrieb:
Wozu? Was hast Du denn da für einen Micker-Kühler drauf? Bei mir rennt der unbeschränkt im ITX-Gehäuse ohne Probleme.

Der Kühler ist nicht das Problem. Der dürfte mit einem "Dark Rock 5" (Be Quiet) schon mehr als ausreichend sein. Das Problem ist eher die Wärme, die die Grafikkarte neben dem Kühler nach hinten abgibt und damit auch durch den CPU-Kühler schleust, auch wenn die meiste Wärme nach oben durch das Lüftungsgitter des Gehäuses abgeführt wird. Trotz verbauten Front- und Rear-Lüfter erreiche ich ohne den Eco-Mode Temperaturen um die 95 Grad bei Vollauslastung der CPU, mit dem Eco-Mode hingegen nur eine Durchschnittstemperatur von 75 Grad (max. 85 Grad bei rund 25 Grad Raumtemperatur und 15-20 Min. Vollauslastung, wenn die Grafikkarte ebenfalls in dieser Zeit mit Vollauslastung läuft - getestet mit "FurMark" inkl. "CPU Burner"). Das Gehäuse hat halt seine räumlichen Grenzen, insbesondere wenn man noch ein optisches Laufwerk drin verbaut hat. Da hat selbst das verbaute "Thermal Grizzly PhaseSheet PTM", sowie eine zweite Abdeckung mit Lufteinlässen auf der rechten Seite, die ich mir extra gesondert von "Chieftec" bestellt habe, keine Besserung gezeigt.

Habe dieses Gehäuse hier, was mir auch optisch sehr gut gefiel. Ich könnte die CPU theoretisch auch ungebremst laufen lassen, denn Abstürze gab es trotz der hohen mit "Hardware Info" gemessenen Temperaturen bislang nicht. Aber ich sehe da jetzt auch kein großes Problem, den "Eco Mode" zu verwenden, denn mir war Langlebigkeit durch niedrige Temperaturen stets wichtiger, als gleich alles zu übertakten. Zudem spart es einiges an Energie ein.
 
Zuletzt bearbeitet:
@floTTes Ich schaue die Filme bisher direkt über den 3D-fähigen "LG UBK90" UHD-Player, weil ich dafür nicht extra den PC nutzen möchte (der auch einiges mehr an Energie verbraucht). Keine Ahnung, ob es da auch eine Lösung gibt, die nur mit HDMI und ganz ohne PC auskommt. Da müßte ich mich erstmal schlau machen.

Aber Ja, ich habe auch noch eine zweite 3D-Brille, um solche Filme ggf. auch mit einem Freund anzuschauen.
 
PARALAX schrieb:
Keine Ahnung, ob es da auch eine Lösung gibt, die nur mit HDMI und ganz ohne PC auskommt.
Es gäbe die Möglichkeit deine Blu-Ray-Disks in eine VR-Brille zu streamen: 4XVR. Vermutlich aber mit Bastelei und ohne HDMI.
Eine Meta Quest 2 gibt es jetzt schon ziemlich günstig. Wäre halt eine Option für den Notfall.

Hat dein ITX-PC ein Blu-Ray-Laufwerk? Wäre ggf. sinnvoll noch eines zu holen, um im Notfall Disks "digitalisieren" zu können.

PARALAX schrieb:
Aber Ja, ich habe auch noch eine zweite 3D-Brille, um solche Filme ggf. auch mit einem Freund anzuschauen.
Ist doch einfach. Werde deine Freunde los. :evillol:

Früher unterstütze der nVidia-Treiber Stereoskopie. Das Feature flog dann irgendwann raus. Schade, dass deine 5080 zu neu ist.
 
  • Gefällt mir
Reaktionen: PARALAX
floTTes schrieb:
Hat dein ITX-PC ein Blu-Ray-Laufwerk? Wäre ggf. sinnvoll noch eines zu holen, um im Notfall Disks "digitalisieren" zu können.

Es ist ein Micro ATX PC und Ja, ein Blu-Ray Laufwerk bzw. Brenner ist vorhanden (Asus BW 16D1HT). War gar nicht so einfach, da nochwas halbwegs taugliches zu finden, weil die leider immer seltener werden. Aber auf optische Medien mag ich als Verfechter von physischen Datenträgern nunmal nicht verzichten. :)


floTTes schrieb:
Ist doch einfach. Werde deine Freunde los. :evillol:

Ist manchmal gar nicht so einfach, seine Freunde loszuwerden, wenn man eine feste Lebenspartnerschaft hat. :evillol: :love:🏳️‍🌈

Aber vielleicht gebe ich der VR-Brille zumindest zum Schauen von 3D-Filmen nochmal eine Chance. Danke jedenfalls für den Tip. Werde mich da mal schlau machen. :bussi:

Was das "Tearing" bei Verwendung von "Frame Generation" betrifft, habe ich evtl. eine Lösung gefunden, die ich heut Abend mal ausprobieren werde: https://www.reddit.com/r/cyberpunkgame/comments/16t4w6b/frame_generation_tearing_here_is_the_fix/

Vielleicht funktioniert das dann auch bei anderen Spielen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes
PARALAX schrieb:
Was das "Tearing" bei Verwendung von "Frame Generation" betrifft, habe ich evtl. eine Lösung gefunden, die ich heut Abend mal ausprobieren werde: https://www.reddit.com/r/cyberpunkgame/comments/16t4w6b/frame_generation_tearing_here_is_the_fix/
Diese Lösung ist leider nicht generell zu empfehlen.
Getestet habe ich es nicht, aber es hängt davon, ob das FPS-Limit vor oder nach FG greift und ob es sowas wie einen "Mailbox"-Modus gibt.

Hast du gelesen, dass der "Low Latency"-Modus ggf. deaktiviert werden sollte?

Kannst ja mal schreiben, wie es sich "anfühlt".
 
PARALAX schrieb:
Das Problem ist eher die Wärme, die die Grafikkarte neben dem Kühler nach hinten abgibt und damit auch durch den CPU-Kühler schleust, auch wenn die meiste Wärme nach oben durch das Lüftungsgitter des Gehäuses abgeführt wird. Trotz verbauten Front- und Rear-Lüfter erreiche ich ohne den Eco-Mode Temperaturen um die 95 Grad bei Vollauslastung der CPU, mit dem Eco-Mode hingegen nur eine Durchschnittstemperatur von 75 Grad (max. 85 Grad bei rund 25 Grad Raumtemperatur und 15-20 Min. Vollauslastung, wenn die Grafikkarte ebenfalls in dieser Zeit mit Vollauslastung läuft - getestet mit "FurMark" inkl. "CPU Burner").

Ja, Kunststück. Die CPU ist dafür ausgelegt auf bis zu 95°C zu boosten. Deine Einstellungen setzen TJMax auf 85°C und somit boostet die CPU nicht so hoch. Das ist aber halt maximal unnötig. Bei mir rennt die CPU in einem ITX Gehäuse mit Sandwich-Layout ohne Probleme. Zugegeben allerdings ohne Blow-Through-Karte.
 
floTTes schrieb:
Hast du gelesen, dass der "Low Latency"-Modus ggf. deaktiviert werden sollte?
Kannst ja mal schreiben, wie es sich "anfühlt".

Der war bei mir bereits deaktiviert, siehe Screenshot.

NVidia Systemsteuerung 1.jpg

Ich habe darüber hinaus mit allen möglichen Einstellungen herum experimentiert, die im o.g. Link für "Cyberpunk 2077" empfohlen wurden, nur eben für "Indiana Jones". Leider kam ich da allerdings zu keinem brauchbaren Ergebnis. Zwar konnte ich über die NVidia Systemsteuerung "VSync" override-mäßig erzwingen und somit die Framerate trotz aktiviertem "Frame Generation" auf 60 fps begrenzen. Aber dann hatte ich eine Eingabeverzögerung von gefühlt einer halben Sekunde, was das Spiel nahezu unspielbar macht. Da brachte auch das zwischenzeitliche Aktivieren des "Low Latency"-Modus nichts. Das manuelle Herabsetzen auf max. 58 fps fügte Ruckler hinzu und scheint nicht mit meinem Fernseher zu harmonieren. Ich habe also nur die Wahl zwischen "Frame Generation" mit "Tearing" oder dem o.g. Trick mit unspielbaren Input Lag. Da hilft dann wohl doch nur irgendwann ein neuer Fernseher. :(


MaverickM schrieb:
Ja, Kunststück. Die CPU ist dafür ausgelegt auf bis zu 95°C zu boosten. Deine Einstellungen setzen TJMax auf 85°C und somit boostet die CPU nicht so hoch. Das ist aber halt maximal unnötig. Bei mir rennt die CPU in einem ITX Gehäuse mit Sandwich-Layout ohne Probleme. Zugegeben allerdings ohne Blow-Through-Karte.

Diese Einstellung ist mir bekannt, da ich sie zuvor schon im BIOS entdeckt habe. Allerdings hielt ich es für sinnvoller, gleich die von AMD gebotene Stromsparfunktion zu nutzen, die auch laut diverser Praxistests wesentlich effizienter ist. Und auch wenn der Rechner ohne diese Begrenzung stabil läuft, verzichte ich lieber zugunsten der Energieeinsparungen und einer höheren Langlebigkeit auf ein Minimum an Performance, zumal sich das bei so einer CPU in Kombination mit der schnellen Grafikkarte in der Praxis eh kaum bemerkbar macht - außer vielleicht bei Benchmarks, aber da möchte ich mich gar nicht mit Anderen messen.
 
  • Gefällt mir
Reaktionen: floTTes
Also:
Ich habe weder Indiana Jones, Doom noch (M)FG. Mit CP2077 könnte ich dienen.

Habe mir jetzt extra mal ein Video von Indiana Jones angesehen. Es gibt ja viele Settings.

Wenn du das nVidia-Profil resetest und im Spiel FG 2x + VSync einstellst, wie spielt es sich denn dann? Spielt es sich wie 30FPS + FG? Was sagt Low Latency/Reflex? Wie reagiert das Spiel ohne VSync mit FPS-Limit von 60?

Oder VSync im Spiel aus und im Control Panel mal auf "adaptiv" oder "schnell" stellen. Das Ganze mal mit FG 2x testen.
 
  • Gefällt mir
Reaktionen: PARALAX
Finde es wirklich nett, wie intensiv Du Dich dessen annimmst und mir da Hilfe leisten möchtest. Wollte in an dieser Stelle einfach mal gesagt haben. :love:🤗

floTTes schrieb:
Wenn du das nVidia-Profil resetest und im Spiel FG 2x + VSync einstellst, wie spielt es sich denn dann? Spielt es sich wie 30FPS + FG? Was sagt Low Latency/Reflex? Wie reagiert das Spiel ohne VSync mit FPS-Limit von 60?

Oder VSync im Spiel aus und im Control Panel mal auf "adaptiv" oder "schnell" stellen. Das Ganze mal mit FG 2x testen.

Also mit erzwungenen "VSync" aus dem NVidia Panel, bekomme ich bei jeder FG-Einstellung nahezu die gleiche Eingabeverzögerung von ca. 300-500 ms, auch bei 2x FG. Und mit den Standardeinstellungen (Einstellung für 3D-Einstellung verwenden) kann ich es ja in den Grafikeinstellungen des Spiels erst gar nicht mit VSync nutzen - nur jeweils eine der beiden Optionen. Den "Low Latency" Modus hatte ich gestern zusätzlich testweise aktiviert und deaktiviert, ohne das es zu einer Änderung kam. Damit bin ich also auch schon durch. Und auch bei den VSync-Optionen habe ich alle Einstellungen ausprobiert, inklusive "adaptiv" und "schnell". Dabei bewirkt die letzte Option eigentlich gar nichts bzw. läßt die nur die vollen FG-Frames zu (mit Tearing), während ich bei "Adaptiv" wieder eine flüssige 60 fps Darstellung mit dem krassen Input Lag habe. Und "Adaptiv (halbe Aktualisierungsrate)" reduziert das ganze dann zusätzlich nochmal um die Hälfte, also auf furchtbare 30 fps.

Übrigens habe ich bis auf "schnell" auch alle VSync-Optionen bereits im Spiel integriert. Ich gehe mal davon aus, das der Treiber in Verbindung meines TV's einfach nicht in die Lage ist, mir mehr Optionen anzubieten. Der Fernseher ist übrigens ein Panasonic TX-L32DT30E.

https://www.chip.de/test/Panasonic-TX-L32DT30E-Test_139885541.html

Es würde mir wirklich schwer fallen, mich von diesem Schätzchen zu trennen, nachdem er mich die ganzen Jahre über nie im Stich gelassen hat und alles bot, was ich benötigte. Bis dahin werde ich wohl erstmal mit 1080p@60 fps auskommen müssen und hoffen, das die Performance auch ohne FG mit Path Tracing in nächster Zeit noch ausreicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes
PARALAX schrieb:
Es würde mir wirklich schwer fallen, mich von diesem Schätzchen zu trennen, nachdem er mich die ganzen Jahre über nie im Stich gelassen hat und alles bot, was ich benötigte. Bis dahin werde ich wohl erstmal mit 1080p@60 fps auskommen müssen und hoffen, das die Performance auch ohne FG mit Path Tracing in nächster Zeit noch ausreicht.
Das kann ich verstehen. Ich klammere mich immer an lieb gewonnene Hardware - allerdings landet die in Kisten und klaut nur Platz.

Adaptives VSync würde zwar bei Performanceeinbrüchen zu Tearing führen, federt die extra Latenz aber etwas ab.

Schätze dann muss es ohne FG gehen. Schade.

Was ich übrigens irritierend finde, müsste dein TV nicht mehr als 60Hz können? Dachte das braucht man für 3D mit Brillen? Weil wegen 60Hz pro Auge.
AUA, was für ein Deutsch. Muss Kaffee trinken.

/edit:
Plan für die nächsten Jahre ist klar: fetten TV mit viel Hz kaufen sobald der 3D-Hype wieder da ist! :evillol:

PARALAX schrieb:
[...] "Scart", "Composite", und "Component"-Anschlüsse verfügt, die ich gelegentlich noch für ältere Konsolen, dem C64 oder Amiga benötige.
Einen Tod muss man leider immer sterben.
Meine noch funktionierende 50Hz/60Hz-Röhre habe ich damals dann auch hergegeben, obwohl meine Lightguns (PSX/PS2) mit LCD nicht funktionieren. Jetzt darben sie in Kisten. :freak:
Gerade den Amiga 500 von 'nem Freund für 20€ inkl. vieler Original-Spiele "verschleudert". Wäre bei mir nur in die Kammer gewandert.

Dass ich mich so für dich interessierte, liegt eigentlich nur an deinem interessanten Setup. :evillol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PARALAX
Zurück
Oben