• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test The Elder Scrolls IV: Oblivion Remastered im Test: Benchmarks mit 24 Grafik­kar­ten von Nvidia, AMD und Intel

@brabe
😁Deine Liste ist meiner nicht unähnlich. Da habe ich keinen wirklichen Tipp mehr. Das Spiel in dem ich am meisten Stunden verbracht habe ist Battletech mit dem Rouge Tech Mod. Aber das ist nicht für jeden Was.

Achja... Warhammer 40k Rouge Trader ist auch ein sehr gutes Spiel, dass ich auf deiner Liste nicht sehe. Ganz besonders mit dem DLC, dass das Spiel nochmal enorm erweitert. Schau es dir mal an. Das Spiel hat mich dazu gebracht, die Bücher zu lesen.
 
  • Gefällt mir
Reaktionen: Blackland und brabe
Taxxor schrieb:
Die Idee von Upsampling war immer, bessere Grafik zu ermöglichen,
dafür war - eine sehr kurze zeit - supersampling gedacht; rendern in höheren auflösungen um dann durch skalierung auf niedrigeren auflösungen vor allem aliasing effekte besser in griff zu haben und ggf. verlorene schärfe durch skalierungseffekte wieder reinzuholen.

Taxxor schrieb:
Schwache Hardware noch länger nutzen zu können war nie die Idee, sondern nur ein Nebeneffekt
doch, genau das war die idee; schwachbrüstige hardware welche unterhalb der spielbarkeitsschwelle stand durch das upscaling soviel luft zu verschaffen dass man eben in spielbare framerates reinkam - genau das war die ursprüngliche idee von dlss und konsorten.

dass die hardwareentwicklung über die zeit nicht die gleiche leistungsskalierung mitbringt wie sprünge in den auflösungen ist nicht abwegig und dass auch hier upscaling helfen kann lässt sich nicht bestreiten.
nur ist es eine sache wenn man schwächerer hardware zu einem leistungsboost verhilft um an hohen anforderungen nicht zu zerschellen - es ist aber eine andere sache wenn selbst potente hardware upscaling plötzlich nötig hat um überhaupt akzeptabel zu performen. ich finde dass ist ein sehr großer unterschied!

das ist keine kritik an upsampling selbst, denn diese technik hat ohne frage ihre daseinsberechtigung - es ist kritik an dem was publisher/entwickler einem so servieren - es ist die bestätigung der befürchtung dass viel weniger aufwand in optimierung gesetzt wird, denn wo wäre das remaster von oblivion oder das release von so manchem aaa-game ohne upscaling?? eigentlich müssten gametester die performancefrechheiten in der luft zerreisen!
CB ist dazu übergegangen quasi garnicht erst in nativen auflösungen zu testen - wie soll man da erst berechtigte kritik an der entwicklung anbringen? was muss man als nächstes hinnehmen? dass die käufer von den 2-3 graka top-gpu's das privileg haben in upscaling "quality" spielen zu können und das fußvolk mit den midrange karten darf dann dankbar sein dass sie mit "balanced" oder "performance" profilen überhaupt noch in spielbare ranges kommen?

Taxxor schrieb:
Speziell die UE5 hat ja ihr eigenes TSR auch bei 75% als Standardeinstellung gesetzt in den meisten Spielen.
auch das ist ein problem; nicht alles was ue5 und unity "per default" machen ist gut oder gar zu begrüßen (z.b. auch forciertes taa) nur gibt es auch hier viel zuwenig kritik; wie den auch wenn ein teil der tester garnicht weiß was genau da von den parametern und settings her getestet und verglichen wird, wenn von fachmedien hierzu kaum kritik zu hören/lesen ist und wenn dazu dann noch halbwissen kommt welches von vermeintlichen "instanzen" der visuellen qualität (z.b. DF) verbreitet wird, hat man genau den zustand dass die visuelle qualität in den letzten jahren nur beschränkt zugenommen hat, die hardware anforderungen dagegen steil gestiegen sind!!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mäxle87 und Nookyn
Slainer schrieb:
nein, tut es nicht.
Du bist vermutlich nur verwöhnt oder Deine Kiste ist miserabel eingestellt.

Ich verstehe gar nicht, warum sich so viele dermaßen echauffieren.
Die Systemanforderungen sind doch offiziell ersichtlich und entsprechen (verrückterweise!) denen der Tests.

Das das vielleicht mal ankommt:
Das ist inhaltlich zwar ein 20 Jahre altes Spiel, technisch jedoch nicht.
Das ist auch technisch alt, zumindest sieht es so aus. Da sieht man daß der Ganze Marketing bla blup nichts Wert ist, außer für die Unternehmen. Nein, ich habe es nicht installiert und wunder mich nur. Gaaaanz zufällig landet die neue 5060TI 16GB bei 60 Frames in 1440p, noch direkter verarschen kann keiner. Da mache ich lieber den 1000sten Speedrun durch Farcry, das entspannt mich wesentlich mehr.
 
Blad3runn3r schrieb:
Das ist auch technisch alt, zumindest sieht es so aus.
Meinst du Oblivion Remaster?

Das ist technisch auf dem neusten Stand. Die Grafik ist für das Jahr 2025 aktuell. Aber was Wassergrafik angeht muss ich auch sagen, das geht besser. Wasseroptik ist in den meisten Spielen leider nicht so gut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slainer
cypeak schrieb:
doch, genau das war die idee; schwachbrüstige hardware welche unterhalb der spielbarkeitsschwelle stand durch das upscaling soviel luft zu verschaffen dass man eben in spielbare framerates reinkam - genau das war die ursprüngliche idee von dlss und konsorten.


Der Mann in Lederjacke sagte das aber mal anders. Um es schnippisch zu übersetzen: "Wir haben hier eine Technologie namens Raytracing eingeführt. Die ist so fordernd, dass sie unsere Chips überfordert. Aber dafür fanden wir eine Lösung: DLSS™ (KAUFT ES!)"

(8:44)

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson
cypeak schrieb:
doch, genau das war die idee; schwachbrüstige hardware welche unterhalb der spielbarkeitsschwelle stand durch das upscaling soviel luft zu verschaffen dass man eben in spielbare framerates reinkam - genau das war die ursprüngliche idee von dlss und konsorten.
Nein. DLSS war dazu da, um RT in flüssiger Framerate zu ermöglichen. User wie du behaupten das immer nur, weil sie es gerne so hätten.
 
  • Gefällt mir
Reaktionen: GrooderWanderer, Taxxor und Mimir
@ElliotAlderson Wenn man das jetzt aber auf die (nicht wenigen Millionen an Konsolen) bezieht ist das aber letztlich (ein Mix davon) das Ergebnis. Es ging ja an mit der PS4 Pro und Checkerboard.....
Bezogen auf die PS5 und X:
Eine komplett auf eine Hardwarebasis limitierte Kiste kann so immer noch -gerade so- einen Quality und Performance Modus anbieten. Ja hier und da mit ein wenig Raytracing. Der Punkt ist letztlich, dass -genau wie die Konsolen- ältere Karten längerfristig in spielbaren Bereichen bleiben bei neueren Spielen. Ich verstehe schon wenn man von "Optimierungsproblemen" spricht wenn ein Spider Man 2 in 4K auf einer 6700XT mit Frame Generation 60-90 FPS erreicht und ein anderes Spiel nicht mal 60fps in FHD schafft welches keine sonderlich größeren Anforderungen hat.
Am Ende ist es eh egal, entweder man findet das Spiel so toll und hat entsprechende Hardware sodass man darüber hinweg sieht, oder man "würde es sehr gerne spielen" -kann aber nicht- und regt sich darüber auf. Am Ende ist es wie es ist. Dann muss man es halt liegen lassen oder in ein paar Jahren mit stärkerer Hardware zocken. Ich werde z.B. kommende Games die auf der PS5 keinen Performance Modus bekommen auch nicht mehr spielen....warten auf PC Version oder PS6. So ist das leider...
 
Corpus Delicti schrieb:
Und ich Esel habe einfach gespielt und meinen Spaß gehabt.

Dabei hätte ich das Haar (die Haare) in der Suppe suchen sollen. Im nachhinein muss ich sagen: Ist ja schlimmer wie Gamebreaking Bugs in Serie und ich habe es nicht einmal bemerkt.

Werd' s hoffentlich noch lernen, um zukünftig weiterhin an Spiele-Diskussionen teilnehmen zu dürfen. ;)

PS: Aber erst mal eine 3000,- GraKa kaufen, damit die Sache mit RT auf max auch halbwegs mit 4xFramegeneration bei 60FPS läuft.
Ich habe genauso meinen Spaß gehabt, das eine schließt das andere doch nicht aus? Als Technik Interessierter in einem Technik Forum interessiert mich das ganze Drumherum aber halt auch. Und Technik schreitet nun mal immer weiter voran und wenn man das einmal die neuste Technik XY erlebt hat, fällt es halt auf, wenn man zu etwas Älterem zurückkehrt. Das ändert am Spiel selber doch aber erstmal nichts. Dennoch, wäre es mir egal, würde ich mir einfach eine 400€ Konsole hinstellen und gut ist, dann wäre PC Technik rausgeworfenes Geld.
 
Ja, RT war die Not, die erfinderisch machte. Nvidia wollte Raytracing in Echtzeitgrafik ermöglichen (übrigens keine Nvidia Marketing Erfindung, davon hat man zuvor seit Jahrzehnten geträumt). Und damit RT in echtzeit halbwegs flüssig läuft brauchte es eben auch eine technologie, um Abkürzungen beim Rendering zu machen. Nvidia investierte daher neben RT Cores auch in Tensor cores, da KI bzw. Machine Learning mit neuronalen Netzen die Lösung sein sollte.

Und DLSS war da einfach der erste und effektivste Schritt, da Raytracing und noch extremer Pathtracing unglaublich stark von der Auflösung abhängig sind. Während bei Rastergrafik die 4-fache Auflösung nur etwa doppelt so viel Leistung kostet sind es bei Pathtracing eben tatsächlich vierfache Leistung. Jedes Pixel das man beim Rendering spart erhöht die performance also 1:1. Deswegen war das der erste Schritt. Der nächste dann eben RayReconstruction, Frame Generation und letztendlich „Neural Rendering“ für viele weitere solcher Features die noch stärker ins Rendering eingebunden werden.

Alles mit dem Ziel die Grafik so weit es geht über das Niveau hinaus zu pushen, was traditionell mit konventioneller technik bei gleicher Hardwareleistung möglich wäre.

Dass Features wie Upscaling und Frame Gen auch für rasterized Spiele nützlich sind steht außer Frage. Aber das war nicht der Antrieb. Nvidia hätte alleine durch Upscaling und FG wenig gewonnen, da AMD das mehr oder weniger einfach kopieren kann und auch getan hat. Ohne gleichzeitig das Rendering in Form von RT/PT zu pushen würden Upscaling und FG nur kurzeitig zu einer Inflation von GPU Leistung sorgen und am Ende steht man wieder da wo man am Anfang war und hat keinen echten Vorteil vor der Konkurrenz. Ich bin mir daher ziemlich sicher, dass es das ohne Raytracing alles nicht gegeben hätte.

Aber da Raytracing schon seit Jahrzehnten der nächste logische Schritt sein sollte, war der Weg eigentlich schon lange so festgelegt.

Epic hat mit der UE5 dann auch einen vergleichbaren Weg eingeschlagen. Mit Lumen (RT), Nanite und VSM wollte man auf einem Schlag viele grundlegende Renderingprobleme lösen. Und auch für Epic war klar, dass es ohne reduzierung der Auflösung niemals klappen wird. Auch epic hat dann mit TSR einen neuen Upscaler entwickelt der fester Bestandteil der Engine sein sollte und stadardmäßig immer aktiv ist.


Und ja, moderne Spiele sind fordernd und man muss meist alle Register ziehen um hohe Frameraten zu erreichen. Blöderweise stagniert aber auch die Chipentwicklung womit sich der PC kaum gegenüber der Konsole absetzen kann. Zu PS4 zeiten war selbst eine GTX970 bereits 2,5 mal so schnell wie eine PS4. Heute braucht es gegen die PS5 eine entsprechend sehr teure RTX4080 oder vergleichbares um ebenfalls faktor 2,5 zu erreichen.

Nichtsdestotrotz haben wir in den letzten 5 Jahren einen grafischen Fortschritt insbesondere mit RT und PT gesehen, der alles bisherige in den Schatten stellt.

Wenn du einen PS4 Port am PC gespielt hast, hast du selbst mit 3-4x so schneller Hardware bei weitem nicht so viel bessere Grafik bekommen wie du sie heutzutage am PC mit einer PS5 Portierung bekommen kannst, obwohl die PC Hardware nur 2-3x so schnell ist.
Soll heißen, 2x schnellere PC hardware (im vergleich zur PS5 kann sich heute grafisch viel weiter von einem PS5 spiel absetzen, als es damals 3-4x so schnelle PC hardware im Vergleich zur PS4 konnte.
Und das zeigt mMn deutlich, dass die Hardware Leistung doch recht effizient genutzt wird. Noch nie hat es sich mehr gelohnt, am PC RT und PT hochzudrehen. Noch nie hatten wir am PC so wenig mehrleistung vergleichen zur Konsole aber trotzdem gleichzeitig so viel bessere Grafik.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taxxor
cypeak schrieb:
doch, genau das war die idee; schwachbrüstige hardware welche unterhalb der spielbarkeitsschwelle stand durch das upscaling soviel luft zu verschaffen dass man eben in spielbare framerates reinkam - genau das war die ursprüngliche idee von dlss und konsorten
Wie gesagt DLSS kam mit RTRT und dafür war es gedacht.

Ein Cyberpunk sieht in 4K mit DLSS Performance und Pathtracing deutlich besser aus als Nativ ohne jegliches RT, läuft dabei aber ca gleich schnell.
Das meine ich mit „besserer Grafik ermöglichen“, nicht einfach nur ein bisschen bessere Kantenglättung

Alleine schon der Gedanke, NVIDIA würde massig Geld in die Entwicklung von Features investieren mit dem Ziel, dass sich Leute seltener neue Karten kaufen….
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson und Mimir
cypeak schrieb:
das ist keine kritik an upsampling selbst, denn diese technik hat ohne frage ihre daseinsberechtigung - es ist kritik an dem was publisher/entwickler einem so servieren - es ist die bestätigung der befürchtung dass viel weniger aufwand in optimierung gesetzt wird, denn wo wäre das remaster von oblivion oder das relese von so manchem aaa-game ohne upscaling?? eigentlich müssten gametester die performancefrechheiten in der luft zerreisen!
Es wird doch nicht weniger in die Optimierung gesteckt, bzw. der Aufwand wird durch die neuen Technologien nicht weniger, da diese ebenfalls optimiert werden müssen, sonst hat man Bildfehler und der gleichen.
Es werden einfach die Games immer Aufwendiger und wenn da dann Personal fehlt, warum auch immer, kommen Games zu früh raus und reifen dann beim Kunden, da dies sich bewährt hat.
Ja, wir Kunden jammern zwar aber wir Kunden kaufen auch zu Release, denn die Publisher können das nur machen, weil wir es mit uns machen lassen.

Das soll jetzt keine Verteidigung der Gaming Industrie sein, es ist ein kleiner Fingerzeig auf uns Gamer.
Kann mich noch erinnern an die ganzen Games von früher, wo es noch keine Patches zum Download gab und wenn es mal Patches gab, waren die Optional oder man fand Patches bei der Ausgabe der Gamestar / PCGH auf CD.

Um bei Oblivion zu bleiben.
Ich hab es damals auf 1280 x 1024 mit einer 7800 GTX 512MB Karte mit einem Athlon 64 4400 X2 und 2 GB RAM gespielt und es war damals schon eine ruckelige Angelegenheit, vor allem außerhalb der Stadt, da war man froh wenn man 30 FPS hatte, mit Multi GPU und angepassten Settings kamen dann auch gut und gern 60 FPS raus, in Dungeons auch mal 100.

Ich persönlich sehe die ganze DLSS und KI Geschichte vom Aufwand her genau wie CrossFire / SLI.
Wenn es schlecht implementiert ist, läuft es beschissen und oder gar nicht. Ist es gut implementiert, läuft es super.
 
Ganz netter Test. Leider sagt er mir trotzdem nicht, wie in etwa meine 3070 in FullHD nativ ohne Fakeframes und Fakeauflösung laufen würde. Das ist sehr schade.
 
  • Gefällt mir
Reaktionen: Skudrinka
@Xpect den Daten aus dem Test zufolge ca 45
 
Viper2000 schrieb:
@ElliotAlderson Wenn man das jetzt aber auf die (nicht wenigen Millionen an Konsolen) bezieht ist das aber letztlich (ein Mix davon) das Ergebnis. Es ging ja an mit der PS4 Pro und Checkerboard.....
Andere Technik und andere Plattform. Nvidia hat DLSS gebracht, um RT zu ermöglichen. Das ist der Grundgedanke bei DLSS. Bei Checkerboard mags was anderes sein, ist aber wie gesagt ne andere Technik.
 
@Taxxor meinst du? Im Test ist halt nur 1440p drin mit Upscaling. Und bei den heutigen Upscalingmethoden fehlt mir im Gegensatz zu früher die Angabe der Basisauflösung, leider.

Aber ja, würde ich in 1440p spielen mit Upscaling hab ich sowas in etwa aus dem Test gelesen.


Nebenbei, wisst ihr noch, früher, als Spiele gut optimiert wurden für Mittelklassehardware und Leute mit High-End dann Downsampling benutzt haben um eine noch bessere Grafikqualität zu bekommen? Das wäre wie heute 8K intern berechnen und Downsampling nutzen um 4K auszugeben. Bestes Antialiasing überhaupt, aber hungrig.
Aber genau wegen solchen Erinnerungen mag ich DLSS und Co nicht. Es ist einfach das Gegenteil von dem, was damals das Maß aller Dinge war und wirklich bessere Bildqualität gebracht hat. War übrigens auch ein Pilotprojekt von Nvidia, DSR.
 
Xpect schrieb:
Und bei den heutigen Upscalingmethoden fehlt mir im Gegensatz zu früher die Angabe der Basisauflösung, leider.
Dazu gibt’s nen kompletten artikel
https://www.computerbase.de/artikel/grafikkarten/upscaling-faq-nvidia-dlss-amd-fsr-intel-xess.86657/

1485x835 wäre die Renderauflösung in 1440p in diesem Fall.
Da kannst du dann noch ~15-20% draufrechnen wegen der Performance, die DLSS selbst frisst und du kamst auf eine native Auflösung von ca 960p mit der du die gleichen FPS erreichen würdest.
Ergänzung ()

Xpect schrieb:
Nebenbei, wisst ihr noch, früher, als Spiele gut optimiert wurden für Mittelklassehardware und Leute mit High-End dann Downsampling benutzt haben um eine noch bessere Grafikqualität zu bekommen?
Die Spiele waren einfach deutlich weniger anspruchsvoll und die Hardware ist schneller in der Leistung gestiegen als die Spieleoptik besser wurde, vor allem wegen der konsolen
 
  • Gefällt mir
Reaktionen: ReignInBlo0d und ElliotAlderson
Serandi schrieb:
Nach wie vor NEIN zu Raytracing und Pathtracing in Spielen! Erst mit einer 6090 eher 7090 würde ich es mir evtl überlegen, obwohl ich mir selbst da nicht so sicher bin 🤣👏🏻
Selbst mit einer 4090 habe ich es immer abgestellt bzw nie genutzt und diese letztendlich auch wieder fast zum Einkaufspreis verkauft und eine sinnvollere GPU für meinen non-Raytracing/Pathracing-Einsatz besorgt für die Hälfte des Preises: RTX 4080 Super
Wüsste jetzt nicht, warum man RT heute nicht nutzen sollte, wenn die Performance und die Implementierung passt. Mit DLSS und (M)FG, bzw. den AMD-Pendants hat man einige Tools zur Hand, um das gut spielbar zu machen, wenn es nativ nicht ausreicht.

Würde daraus jetzt keinen sinnentleerten Dogmatismus wider RT stricken. Aber jeder wie er mag.

Ist halt auch häufig eine Sache des persönlichen FPS-Ziels und eine Optimierung der Settings. Mit den Reglern sollte man schon umgehen können.
 
Xpect schrieb:
Das wäre wie heute 8K intern berechnen und Downsampling nutzen um 4K auszugeben. Bestes Antialiasing überhaupt, aber hungrig.
DLDSR bringt dir heute noch besseres Antialiasing als das mit deutlich weniger Hunger.
Selbst DLAA dürfte da schon vergleichbar sein
Xpect schrieb:
Es ist einfach das Gegenteil von dem, was damals das Maß aller Dinge war und wirklich bessere Bildqualität gebracht hat.
Es war einfach nur Brute-Force die Auflösung hochgeschraubt, bessere Bildqualität vor allem im Bezug zur nötigen Performance, gibts heute mit DLSS/DLAA
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ReignInBlo0d und ElliotAlderson
MaverickM schrieb:
Dein Beitrag enthält absolut keinerlei Fakten.

Ich dachte andere Menschen wären fähig genug um selbst zu denken und sowas nachzuschauen bevor sie einen hart anfahren und Beleidigen. Da lag ich wohl falsch, sorry :(

MaverickM schrieb:
Ohja, tolle Quelle. Ziehen wir irgendwelche dubiosen Videos heran, um die eigene Narrative zu unterstreichen, anstatt den Test, unter dem geschrieben wird zu lesen, der dies widerlegt. :rolleyes:

Jetzt machst du dich endgültig lächerlich. Dubiose Quelle ? Also ist alles was diese Menschen aufgenommen haben deiner Meinung nach Fake und Lügen ?? Man, du merkst wahrscheinlich garnicht wie lächerlich deine Aussagen sind.

An diesem Punkt bin ich bei jeglicher "Diskussion" mit dir raus. Bleib bei deinen Fantasien und lass mich bloß in Ruhe ;)
 
Taxxor schrieb:
Die Spiele waren einfach deutlich weniger anspruchsvoll und die Hardware ist schneller in der Leistung gestiegen als die Spieleoptik besser wurde, vor allem wegen der konsolen
"Spiele entwickeln sich nicht weiter, während die HW immer schneller wird" = "gut optimiert".
Es ist fast alles besser geworden: Höherer Polygoncount, mehr Vegetation, höhere Weitsicht, weniger Pop-in, voll dynamische Schatten, richtige Reflexionen, Lichtfarben die sich gegenseitig beeinflussen, weitaus mehr Lichtquellen, höhere Texturqualität... und trotzdem wünscht man sich die "Qualität" von vor 10 Jahren zurück.
Da fällt einem echt nichts mehr zu ein.

Ich kann auch nicht verstehen, wie hier manche KCD2 so vergöttern. Läuft in WQHD (mit Upscaler!) mit 70 FPS auf einer 4090 in max. Settings und hat stellenweise gar keine Schatten. Wo läuft das bitte besser?!

InsideInfinity schrieb:
Irgendein random Youtuber, den niemand kennt und der keinerlei Reputation hat = dubiose Quelle.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MaverickM
Zurück
Oben