Nordwind2000
Commodore
- Registriert
- Dez. 2009
- Beiträge
- 4.518
Schon krass, dass die 4080 teilweise echt auf dem Level der 5080 in so einigen Spielen ist. Die Super überholt dann meistens sogar noch die 5080. Schon wirklich faszinierend.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Nachweislich hat AMD die RDNA4 Karten als MIDRANGE betitelt/beworben. 4K/UHD ist NICHT Midrange. Fakt.ElliotAlderson schrieb:Sieht AMD anders
Anhang anzeigen 1616592
Aber wem sag ich das? Wie schmeckt dir deine eigene Medizin?
TomBolo schrieb:Ich feiere, dass ich mit der 9070 XT nicht daneben gegriffen habe. Mal schauen, wie weit der 5600 X nun mitspielt…
Mir ging es auch wirklich um das neue Doom.
Das ist mir egal? Auf der offiziellen Seite wird sie fast ausschließlich mit 4K Benches beworben.SweetOhm schrieb:Nachweislich hat AMD die RDNA4 Karten als MIDRANGE betitelt/beworben. 4K/UHD ist NICHT Midrange. Fakt.
Bla bla bla:SweetOhm schrieb:Und auf Deinem "Beweis" schreibt AMD lediglich, dass die 9070XT in 4K schneller als eine 7900GRE ist.
So viel zum Thema lesen UND verstehen ...![]()
Whataboutism in ReinformSweetOhm schrieb:Demnach ist für Dich uneingeschränkt eine RTX 3090 eine 8K/HDR Karte, weil NV das so schreibt ?!?![]()
Wenn man sich eine 4090 für 1440p gekauft hat, o.k.bogge101 schrieb:mit 120 FPS bin ich völlig zufrieden
Wolfgang schrieb:Da wäre ich vorsichtig, das sehe ich anders.
Ich kann es nicht beweisen, aber ich habe da eine Theorie:
Und zwar ist meiner Meinung nach das Hauptproblem für das Spielgefühl mit Frame Generation gar nicht unbedingt die Latenz alleine. Natürlich spielt die Latenz eine Rolle, aber nicht unbedingt die allgemeine Latenz.
Ich glaube, dass da eigentliche oder zumindest ein Teil des Problems ist, dass die Framerate auf dem Display und das Spielgefühl bezüglich der Reaktionszeit schnell nicht mehr zueinander passen. Da ist es dann egal, dass die Latenz ohne FG nicht großartig anders ist. Aber während die Latenz ohne FG so ist wie gewohnt, es passt quasi das Bild zum Input. Gibt es mit FG plötzlich einen Disconnect: Das Bild wird für das Auge schneller, aber nicht für "die Hände".
Und das ist etwas, wo das Gehirn zumindest bei manchen dann dicht macht und quasi mitteilt, dass hier etwas nicht mehr stimmt. Und das fühlt sich dann komisch an.
Anders kann ich es mir zum Beispiel nicht erklären, dass sich die Latenz von 60 ms auf der RTX 5070 Ti mit DLSS Q sich für mich gut anfühlen, die 62 ms für DLSS MFG 4x aber plötzlich komisch. An den 2 ms Unterschied kann es nicht liegen, das bekommt wohl keiner mit.
Und man hätte eine kaputte Grafik. Das funktioniert so nicht in Spielen, die RT von Anfang an für die Beleuchtung vorsehen.
SweetOhm schrieb:Also wenn ohne das ganze Software Fake Gedöns auf einer ca. 2000 € Karte lediglich 20 (!) FPS rum kommen, eben schon !
Dito / Same SameElliotAlderson schrieb:Was du dir persönlich zusammenreimst, spielt für mich keine Rolle, sorry.
Hab damit erst 1,5 Jahre 4k gezocktSweetOhm schrieb:Wenn man sich eine 4090 für 1440p gekauft hat, o.k.![]()
Dank Dir für die vielen LehrstundenElliotAlderson schrieb:Whataboutism in Reinform![]()
Spielt absolut keine Rolle. Der Entwickler kann die Settings/Presets so benennen, wie er will. In einer Config wird aus dem "Medium" ein "Ultra". Siehe dazu Stalker 2 True Epic Mod. In einer Textdatei wird z. B. "sg.SkyQuality" auf 4 gesetzt, was noch über dem offiziellen Maximum des Spiel liegt. Jetzt stell dir vor, du setzt es auf 10. Alles eine reine entwicklerpolitische Entscheidung, welche Setting er als Maximum definiert. Er kann auch "Low" in "Ultra" umbenennen und wir erfreuen uns alle plötzlich an einem "sehr gut optimierten" Spiel - sofern die grafischen Einbußen nicht zu drastisch sind. Mit dem richtigen Setting bringt man auch eine RX 9070 XTXTXTX in die Knie.SweetOhm schrieb:Also wenn ohne das ganze Software Fake Gedöns auf einer ca. 2000 € Karte lediglich 20 (!) FPS rum kommen, eben schon !
Sind halt 4K Bench Vergleiche, ja und ? Stell Dir vor, es gibt mit der Karte auch welche mit FullHD Auflösung.ElliotAlderson schrieb:Alles 4K, aber hat nichts mit nichts zutun
Es ist immer wieder amüsierend, wie du dir bei AMD alles zum Guten zurecht biegst, aber sprich dich nächstesmal besser mit Lisa Su ab, sonst setzt du dich wieder in die Nesseln.
Es ist natürlich richtig, dass es keinen 1:1 Bezug zwischen FPS und Latenz gibt, dies variiert von Spiel zu Spiel.Mimir schrieb:Ich verstehe natürlich was du meinst, aber die Latenzen bei einer bestimmten Framerate sind doch von Spiel zu Spiel sowieso total unterschiedlich. Wenn man den Gedanken zuende führt, dann müsste sich ein Spiel das man nur mit Reflex spielt und damit viel zu wenig FPS für die erreichte Latenz hat, unglaublich ruckelig anfühlen.
Weil mit Reflex (ohne FG) passt ja Latenz und Framerate auch nicht mehr zusammen.
Daher verstehe ich nicht, warum FG dann ein Problem ist, Reflex aber nie. Das ergibt für mich irgendwie keinen Sinn. Eine Abweichung vom "normalen" verhalten hat man also in beide Richtungen.
Wenn das Leute so wahrnehmen, meinetwegen. Ich würde aber behaupten, dass das viel Kopfsache ist. Es gibt nunmal keinen festen Bezug zwischen Framerate und Latenz. Es gibt tendenzen, aber niemals einen 1:1 direkten Bezug, der universell für alle Spiele gelten würde.
Die 3070ti ist doch etwas schneller als die 2080ti, wenn du dann die Detail etwas runterdrehst, solltest du auf 60fps kommen: https://www.pcgameshardware.de/Doom...iew-Steam-Benchmarks-Raytracing-1471919/3/#a1 Mit DLSS dann auch mehr, wenn du das nutzen willst.CrazyWolf schrieb:Spiele eh nur auf 1080p, aber mit meinem Ryzen 9 3900X und ner 3070 TI kann ich das vergessen.
Naja, wenn wir die Werte anschauen ist die Differenz zwischen FPS und Latenz bei Reflex ohne FG fast genauso hoch wie bei FG 2xWolfgang schrieb:Die Differenz zwischen FPS und Latenz ist aber vermutlich in kaum einem bis (fast) gar keinem Spiel so groß wie wenn ich in irgend einem Spiel FG anschalte, mit MFG ist die Differenz nochmal viel, viel größer. Das gibt es sonst halt einfach nirgendwo.
Wolfgang schrieb:Wo ich mit dir überein stimme ist, dass das ganze viel Kopfsache ist. Dabei meine ich aber nicht unbedingt, dass sich die Leute das einbilden (das bemerke/bilde mir das nämlich auch ein, aber dennoch finde ich FG in gewissen Situationen praktisch, bin also nicht negativ gegen FG eingestellt), sondern das sie das eben unterschiedlich wahrnehmen. Quasi genauso, wie FPS von Leute unterschiedlich wahrgenommen wird, gilt das auch für den Disconnect zwischen FPS/Latenz.
Ich beziehe mich wie gesagt primär auf den Unterschied zwischen kein FG mit MFG 4x und damit das Extrem-Szenario. Siehe oben und siehe Text, normales FG flutscht in Doom für mich deutlich besser bei FPS um die 60.Und ja, wenn ich nicht nur FG sondern MFG einschalte und dann aus 50 FPS 200 FPS mache, dann ist natürlich logisch, dass das sehr sehr weit von dem entfernt ist, was man gewöhnt ist. Ist ja auch logisch. Das liegt in der Natur der Sache.
Aber trotzdem ist es für mich eben Kopfsache, da das ja nichts schlechtes sein kann. Es gibt einfach keinen rationalen Grund, lieber mit 50 statt 200 FPS zu spielen. Ja, das kostet mit MFG ein wenig performance und damit latenz. Aber das hindert dich nicht daran, trotzdem mit einer guten latenz zu spielen, falls das ein Problem sein sollte. In zeiten von FG und MFG sind das eben zwei paar schuhe, die man separat und völlig unabhängig voneinander einstellen kann.
dannubra schrieb:Diese Karten sind aber auch 6-7 Jahre alt, was erwartest Du?
Oder hast Du mal versucht im Jahr 2004 Half-Life 2 oder Doom 3 mit Hardware aus 1998 zu spielen? Das ist gar nicht gestartet.
Doom wird auf einer RTX 2070 immerhin noch mit Low Settings in 1080p laufen. Die Hardware bleibt heute länger spieletauglich denn jemals zuvor.
ElliotAlderson schrieb:Dabei wurde die id Tech Engine immer so gelobt, weil sie so optimiert und performant ist![]()