danyundsahne
Commodore
- Registriert
- Okt. 2007
- Beiträge
- 4.844
passiert in letzter Zeit immer wieder mal, dass man hier sehr eng beieinander liegtDriveByFM schrieb:Wow die 9070XT hat die 5080 rasiert.![]()
Zuletzt bearbeitet:
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
passiert in letzter Zeit immer wieder mal, dass man hier sehr eng beieinander liegtDriveByFM schrieb:Wow die 9070XT hat die 5080 rasiert.![]()
Ja, aber was willst du machen wenn Spiele das irgendwann vorraussetzen und die native Auflösung gar nicht mehr anwählbar ist. Dann gibt es eben eine neue Ära, in der wieder mehr über Bildqualität geredet wird.duskstalker schrieb:die presse macht sich mit dem konfusen upscaling gebenche mit unterschiedlichen upscalingfaktoren zum marketing spielball der industrie
Ja, das wäre echt ne Nummer gewesen. Aber AMD hat wohl gedacht, mit einer 5080 aufwärts hätte man nicht bestehen können. Hätten sie mal gewusst wie überschaubar klein der PerformanceFrozenPie schrieb:Je mehr Benchmarks ich zur aktuellen GPU Generation sehe, desto mehr trauere ich einer um 50% aufskalierten RX 9080 (XT) als direkter Nachfolger der 7900 XT(X) hinterher, da die NVidias RTX 5080/5090 echt das Leben schwer gemacht hätte.
Ja solche Karten hätten tatsächlich in der Liga von 5080/5090 spielen können. Zumindest hätte man die alte 4090 sicher schlagen können. Wäre ein toller Achtungserfolg geworden.FrozenPie schrieb:
GPU CUs (Shader) Interface Memory TDP RX 9080 XT 96 (6144) 384 Bit 24 GB 450 W RX 9080 80 (5120) 320 Bit 20 GB 375 W
Okay, ich höre auf zu träumen...
Wie ich schon geschrieben habe, die Abstände sind mit TSR absolut gleich. DLSS 4 und FSR 4 kosten gleich viel Performance, darum sind die GeForce-Karten hier nicht so langsam. Darum gibt es hier auch keine Zweifel. Die Ergebnisse sind so, wie sie in der Testsequenz einfach sind.xexex schrieb:Nicht falsch verstehen, aber solche Kombinationen mit mit Dritttools und völlig verschiedenen Skalierungssettings, geben nicht zwingend die Fakten wieder. Im Zweifel einfach die Rohleistung vergleichen, sich irgendwas mit Optiscaler zusammen zu fummeln, ist für mich eher ein Vergleich zwischen Apfel, Birne und Banane.
Die reine Rohleistung interessiert einen nur nicht mehr, wenn es nicht mehr sinnvoll ist, in entsprechenden Modi zu spielen. Und so weit sind wir eben spätestens mit DLSS 4 und FSR 4 gekommen. Jetzt kann man zwangsweise daran festhalten (weil man es ja immer so getan hat) oder man passt sich an. Letzteres ist schwierig und sicherlich manchmal holprig. Aber es ist nun einmal die Gegenwart und vor allem die Zukunft. "Rohleistung", also TAA, ist die Vergangenheit. Und Nativ ist es auch.duskstalker schrieb:nur benches in nativer auflösung zeigen die reale rohleistung. upscaling ist nur ein feature.
die presse macht sich mit dem konfusen upscaling gebenche mit unterschiedlichen upscalingfaktoren zum marketing spielball der industrie, weil für eine wirkliche vergleichbarkeit dann nicht mehr objektiv messbare performance sondern schwer quantifizierbare "bildqualität" als maßstab herangezogen wird, und was unter der haube passiert, kann niemand mehr nachvollziehen.
Ich sag immer wieder kauft euch die 9070/xt. Aber nein die Leute kaufen NVIDIA 😂 kannst es einfach nicht gut meinen… zu blöd!DriveByFM schrieb:Wow die 9070XT hat die 5080 rasiert.![]()
Häufiger als gedacht. Ich bin die letzten 10 getesteten Spiele durchgerechnet und im Mittel liegt die 9070XT exakt auf dem Niveau der 5070Ti und "nur" noch 14% hinter der 5080.danyundsahne schrieb:passiert in letzter immer wieder mal, dass man hier sehr eng beieinander liegt![]()
Tatsächlich erhoffe ich mir das. Reflex 2 in Kombination 8x MFG oder so.ChrisMK72 schrieb:Ich hoffe, Nvidia bringt mit der nächsten Generation MFG 32-fach raus.(Edit: und überspringt damit gleich 8 und 16fach)
Und am Ende ist die 5070 Ti dann doch wieder langfristig schneller. Spekulation aber. Erinnert ein wenig an die 7900XTX, die war erst auf 4080 Niveau und dann je nach Test 5% oder auch bisschen mehr schneller. Nun hat sich das wieder eher umgekehrt, vor allem durch das Upsampling. Na mal schauen.kristwi schrieb:Ich sag immer wieder kauft euch die 9070/xt. Aber nein die Leute kaufen NVIDIA 😂 kannst es einfach nicht gut meinen… zu blöd!
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Da darf man sich natürlich die Frage stellen wer hier die "falsche" Testsequenz verwendet hat, du oder PCGH oder alle beide.Wolfgang schrieb:Die Ergebnisse sind so, wie sie in der Testsequenz einfach sind.
Auch wenn ich dir hier zustimmen mag, so macht es die ganzen Benchmarks zu einem subjektiven Ergebnis, denn alleine der Tester entscheidet, was am Ende von der Bildqualität gleichwertig ist und setzt die entsprechenden Settings.Wolfgang schrieb:Die reine Rohleistung interessiert einen nur nicht mehr, wenn es nicht mehr sinnvoll ist, in entsprechenden Modi zu spielen. Und so weit sind wir eben spätestens mit DLSS 4 und FSR 4 gekommen.
Zum Glück gibt es dank MFG deutliche Leistungssteigerungen und viel mehr FPS. 👍firesnake schrieb:Da Nvidia´s RTX 50er Karten den Multframegeneration Modus dazu schlaten sieht AMD keine Sonne mehr, genauso die RTX 4000er reihe.
Die Blackwell Karten Sind Multframenerations Karten, Punkt.
Ich würde da durchaus differenzieren, welches Ziel der jeweilige Test hat. Bei einem Hardwaretest soll schlicht aufgezeigt werden, wie sich die einzelnen Karten objektiv zueinander positionieren und nicht, welche sich wie gut in "spielbaren" Settings schlägt. Entsprechend gehört da auch kein Upscaling mit rein, weil dessen Qualität von Jedem anders eingestuft wird und der Test dadurch keine rein objektive Aussage mehr trifft.Wolfgang schrieb:Die reine Rohleistung interessiert einen nur nicht mehr, wenn es nicht mehr sinnvoll ist, in entsprechenden Modi zu spielen.
Naja, was heißt "falsche Testsequenz". Ich weiß was du meinst, aber falsch ist ja keine. Beide zeigen, wie schnell die Grafikkarten in eben genau jenen Szenen sind. Das heißt dann eben nicht, dass die Karten auch nur irgendwo anders nochmal so agieren, auch wenn dies optimalerweise so ist. Aber wie will man das rausfinden? Man kann nicht eine Radeon und eine GeForce durch das ganze Spiel jagen und da die Performance vergleichen. Die Limitierung haben eben sämtliche Benchmarks von Spielen. Nicht nur unsere und die der PCGH, sondern schlicht alle.xexex schrieb:Da darf man sich natürlich die Frage stellen wer hier die "falsche" Testsequenz verwendet hat, du oder PCGH oder alle beide.
Über Monate hinweg hast auch du, Tests mit DLSS gegen FSR in der gleichen "Qualitätsstufe" gemacht, im Nachhinein sind die praktische allesamt Makulatur, weil du selbst mittlerweile festgestellt hast, dass es große Unterschiede im Ergebnis gibt. Die gab es auch schon bevor DLSS4 auf den Markt kam, aber da bist du nur im Text drauf eigegangen, wenn sie dir überhaupt aufgefallen sind.
Dein geschultes Auge in allen Ehren, alleine aus dem Kameratest wissen wir recht gut, dass es bei 100 Leuten mindestens 20 unterschiedliche Meinungen gibt. Ohne deine Arbeit abwerten zu wollen, es ist mittlerweile eine Farce es den Herstellern zu überlassen, was sie als Qualität, Leistung oder Ausbalanciert deklarieren und welche Details sie unter der Haube weglassen, um ihr Produkt besser oder gleich, wie das der Konkurrenz zu platzieren.
Es wäre zur Einordnung aber extrem hilfreich, ob eure Testszene nur einen Worstcase abbildet oder ob es für die meisten Zeit des Spiels repräsentativ ist. Genauso die Szene bei PCGH, die die Karten eher in der gewohnten Reihenfolge zeigt.Wolfgang schrieb:Naja, was heißt "falsche Testsequenz". Ich weiß was du meinst, aber falsch ist ja keine. Beide zeigen, wie schnell die Grafikkarten in eben genau jenen Szenen sind.
Mir würde echte Mehrleistung besser gefallen, denn von MFG profitieren nur Games und auch nur die, die es unterstützen. Abseits davon ist die Mehrleistung minimal. Zum Glück kommt mit den nächsten Modellen ein ordentlicher Shrink was wieder reale Mehrleistung in Aussicht stellt.ChrisMK72 schrieb:Ich hoffe, Nvidia bringt mit der nächsten Generation MFG 32-fach raus.(Edit: und überspringt damit gleich 8 und 16fach)![]()