• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Doom: The Dark Ages im Test: Benchmarks mit 25 Grafik­kar­ten und zwei Überraschungen

Schon krass, dass die 4080 teilweise echt auf dem Level der 5080 in so einigen Spielen ist. Die Super überholt dann meistens sogar noch die 5080. Schon wirklich faszinierend.
 
ElliotAlderson schrieb:
Sieht AMD anders
Anhang anzeigen 1616592
Aber wem sag ich das? Wie schmeckt dir deine eigene Medizin?
Nachweislich hat AMD die RDNA4 Karten als MIDRANGE betitelt/beworben. 4K/UHD ist NICHT Midrange. Fakt.
Und auf Deinem "Beweis" schreibt AMD lediglich, dass die 9070XT in 4K schneller als eine 7900GRE ist.
So viel zum Thema lesen UND verstehen ... :rolleyes:

Demnach ist für Dich uneingeschränkt eine RTX 3090 eine 8K/HDR Karte, weil NV das so schreibt ?!? :daumen:

1746961881458.jpeg
 
  • Gefällt mir
Reaktionen: Kha'ak
TomBolo schrieb:
Ich feiere, dass ich mit der 9070 XT nicht daneben gegriffen habe. Mal schauen, wie weit der 5600 X nun mitspielt…
Mir ging es auch wirklich um das neue Doom.

Lass dich nicht beim feiern stören, aber hast du den Test nicht gelesen?^^

"Upsampling (Nvidia DLSS / AMD FSR / Intel XeSS) in der Analyse​


Doom: The Dark Ages unterstützt als Super-Resolution-Algorithmus DLSS 4, FSR 3.1 sowie XeSS 2. DLSS 4 wird nativ unterstützt, der alte CNN-Modus von DLSS steht nicht zur Verfügung. FSR 4 fehlt dagegen gänzlich, das RDNA-4-Feature gibt es weder im Spiel, noch kann man es per Treiber erzwingen. Auch per Tool Optiscaler lässt sich kein FSR 4 aktivieren, denn dieser kann FSR 4 nicht auf die vom Spiel genutzten Vulkan-API applizieren. Darüber hinaus gibt es noch DLSS sowie FSR Frame Generation, bei DLSS wird auch Multi Frame Generation unterstützt. XeSS FG fehlt dagegen.


Dass es kein FSR 4 gibt, ist aber ein großes Problem.


DLSS 4 lässt alle weit hinter sich​


Wenig verwunderlich liefert Nvidia DLSS 4 klar die beste Bildqualität in Doom: The Dark Ages. Es ist so gut, dass das Spiel im Quality-Modus im Schnitt besser aussieht als das spieleigene TAA in nativer Auflösung und auch mit dem Performance-Preset ist die Bildqualität immer noch sehr gut. Nur DLSS 4 kann zum Beispiel feine Gegenstände stabil bis halbwegs stabil rekonstruieren, nur DLSS 4 kann fast alle Bildelemente ohne Flackern darstellen und dabei noch sämtliche Bilddetails erhalten. FSR, XeSS und die spieleigene Kantenglättung können das nicht.

Ohne FSR 4 ist AMDs Upsampling chancenlos​


FSR 3.1 hat hingegen (wie gewohnt) große Probleme und ist schlussendlich nicht empfehlenswert. Auch nicht in hohen Auflösungen wie Ultra HD. Die Bildstabilität schwankt von Szene zu Szene zwischen okay und wirklich schlecht, die Rekonstruktion feiner Details gelingt nicht, es gibt teils extremes Ghosting, die Partikeleffekte verpixeln und das Bild wirkt durchweg unscharf. FSR 4 hätte es in dem Spiel dringend gebraucht, zumal AMDs neues KI-Upsampling auch der einzige Super-Resolution-Algorithmus ist, der es mit DLSS 4 aufnehmen kann."
 
SweetOhm schrieb:
Nachweislich hat AMD die RDNA4 Karten als MIDRANGE betitelt/beworben. 4K/UHD ist NICHT Midrange. Fakt.
Das ist mir egal? Auf der offiziellen Seite wird sie fast ausschließlich mit 4K Benches beworben.
Was du dir persönlich zusammenreimst, spielt für mich keine Rolle, sorry.

SweetOhm schrieb:
Und auf Deinem "Beweis" schreibt AMD lediglich, dass die 9070XT in 4K schneller als eine 7900GRE ist.
So viel zum Thema lesen UND verstehen ... :rolleyes:
Bla bla bla:
Unbenannt.jpg

Unbenannt.jpg

Unbenannt2.jpg

Alles 4K, aber hat nichts mit nichts zutun :D
Es ist immer wieder amüsierend, wie du dir bei AMD alles zum Guten zurecht biegst, aber sprich dich nächstesmal besser mit Lisa Su ab, sonst setzt du dich wieder in die Nesseln.

SweetOhm schrieb:
Demnach ist für Dich uneingeschränkt eine RTX 3090 eine 8K/HDR Karte, weil NV das so schreibt ?!? :daumen:
Whataboutism in Reinform :D
Aber sei es drum: Es macht einen Unterschied, ob ich die Karte grundsätzlich mit Auflösung x bewerbe oder zusätzlich erwähne, dass Auflösung y auch möglich ist.
8K war bei der 3090 auch nicht die grundsätzliche Werbe-Auflösung.
Hättest du dir aber auch selber denken können, denn so schwer ist differenzieren nicht.
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Da wäre ich vorsichtig, das sehe ich anders.

Ich kann es nicht beweisen, aber ich habe da eine Theorie:
Und zwar ist meiner Meinung nach das Hauptproblem für das Spielgefühl mit Frame Generation gar nicht unbedingt die Latenz alleine. Natürlich spielt die Latenz eine Rolle, aber nicht unbedingt die allgemeine Latenz.

Ich glaube, dass da eigentliche oder zumindest ein Teil des Problems ist, dass die Framerate auf dem Display und das Spielgefühl bezüglich der Reaktionszeit schnell nicht mehr zueinander passen. Da ist es dann egal, dass die Latenz ohne FG nicht großartig anders ist. Aber während die Latenz ohne FG so ist wie gewohnt, es passt quasi das Bild zum Input. Gibt es mit FG plötzlich einen Disconnect: Das Bild wird für das Auge schneller, aber nicht für "die Hände".

Und das ist etwas, wo das Gehirn zumindest bei manchen dann dicht macht und quasi mitteilt, dass hier etwas nicht mehr stimmt. Und das fühlt sich dann komisch an.

Anders kann ich es mir zum Beispiel nicht erklären, dass sich die Latenz von 60 ms auf der RTX 5070 Ti mit DLSS Q sich für mich gut anfühlen, die 62 ms für DLSS MFG 4x aber plötzlich komisch. An den 2 ms Unterschied kann es nicht liegen, das bekommt wohl keiner mit.

Und man hätte eine kaputte Grafik. Das funktioniert so nicht in Spielen, die RT von Anfang an für die Beleuchtung vorsehen.

Ich verstehe natürlich was du meinst, aber die Latenzen bei einer bestimmten Framerate sind doch von Spiel zu Spiel sowieso total unterschiedlich. Wenn man den Gedanken zuende führt, dann müsste sich ein Spiel das man nur mit Reflex spielt und damit viel zu wenig FPS für die erreichte Latenz hat, unglaublich ruckelig anfühlen.

Weil mit Reflex (ohne FG) passt ja Latenz und Framerate auch nicht mehr zusammen.

Daher verstehe ich nicht, warum FG dann ein Problem ist, Reflex aber nie. Das ergibt für mich irgendwie keinen Sinn. Eine Abweichung vom "normalen" verhalten hat man also in beide Richtungen.

Wenn das Leute so wahrnehmen, meinetwegen. Ich würde aber behaupten, dass das viel Kopfsache ist. Es gibt nunmal keinen festen Bezug zwischen Framerate und Latenz. Es gibt tendenzen, aber niemals einen 1:1 direkten Bezug, der universell für alle Spiele gelten würde.

Ich seh das halt so: Reflex holt ziemlich viel Latenz raus. Einen teil dieser gewonnenen Latenz investiere ich dann in Frame Gen. Frame Gen sorgt dann dafür, dass die Darstellungsqualität extrem verbessert wird, indem ruckeln bzw. die Sichtbarkeit der Einzelbilder reduziert und die Bewegtbildschärfe deutlich erhöht wird.

Ich sehe keinen Grund, darauf zu verzichten. Es ist ein Grafikeffekt, der etwas performance kostet, aber dafür die Darstellungsqualität deutlich erhöht.
Wenn ich schon in 4K und hohen oder maximalen Details spiele, dann will ich ein möglichst scharfes Bild und möglichst gute Darstellungsqualität. Genau das kann man mit FG zu sehr geringen Kosten erreichen. Warum sollte man sich denn mit weniger FPS und damit mehr Ruckeln und mehr Unschärfe zufrieden geben, nur damit es vermeintlich besser zur tatsächlichen Latenz passt?

Das hat für mich fast schon was von "ich nehme lieber 24 FPS, weil das cinematischer aussieht".

Wie gesagt, ich verstehe die Argumente, aber für mich ist und bleibt es reine Kopfsache und vermeintlich Gewohnheitssache (vermeintlich, weil das auch nicht zutrifft, da sich jedes Spiel anders verhält).


SweetOhm schrieb:
Also wenn ohne das ganze Software Fake Gedöns auf einer ca. 2000 € Karte lediglich 20 (!) FPS rum kommen, eben schon !

Bei einem Rasterized Game in nativer Auflösung wird wahrscheinlich um viele Größenordnungen mehr Gefaked als bei einem Pathtraced Game, das Upscaling, Ray Reconstruction, Neural Shaders und Frame Generation nutzt.

Denn im Gegensatz zu Rasterizing hast du mit der Berechnung der Strahlen eine (vereinfachte) physikalisch korrekte Grundlage auf Basis dessen sich der Rest des Bildes aufbaut. Beim Rasterizing fehlt dieser Bezug komplett.

Und ich hab keine 2000€ Karte, hab in den meisten pathtraced spielen aber zwischen 80 und 100 FPS auf meinem 4K Bildschirm. Ich finde das passt. Die Frage ist nicht, wie viele FPS man erreicht (du kannst fast beliebig viele haben) die Frage ist auch nicht, wie hoch die Bildqualität ist (die ist ziemlich gut) die Frage ist, wie gut die Latenzen sind. Und die sind für mich ebenfalls in Ordnung. WIE das erreicht wird ist völlig unerheblich. Das Ergebnis zählt. Bei Rasterizing haste dir ja auch keine Gedanken darum gemacht, wie billig die ganzen Effekte gefaked werden... Das Ergebnis war im Vergleich zu PT aber trotzdem "müll".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson
ElliotAlderson schrieb:
Was du dir persönlich zusammenreimst, spielt für mich keine Rolle, sorry.
Dito / Same Same :streicheln:
Dass Dir nur gefällt, was Du Dir so zusammen reimst, das wissen wir mittlerweile ...
 
  • Gefällt mir
Reaktionen: ElliotAlderson
SweetOhm schrieb:
Wenn man sich eine 4090 für 1440p gekauft hat, o.k. :cool_alt:
Hab damit erst 1,5 Jahre 4k gezockt

nun seit 3 Monaten auf 1440p und endlich anständige FPS Werte

siehe auch Doom: 40 FPS mehr

541D445A-E370-48AD-A8E3-FC3AF54A8757.jpeg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
  • Gefällt mir
Reaktionen: ElliotAlderson
SweetOhm schrieb:
Also wenn ohne das ganze Software Fake Gedöns auf einer ca. 2000 € Karte lediglich 20 (!) FPS rum kommen, eben schon !
Spielt absolut keine Rolle. Der Entwickler kann die Settings/Presets so benennen, wie er will. In einer Config wird aus dem "Medium" ein "Ultra". Siehe dazu Stalker 2 True Epic Mod. In einer Textdatei wird z. B. "sg.SkyQuality" auf 4 gesetzt, was noch über dem offiziellen Maximum des Spiel liegt. Jetzt stell dir vor, du setzt es auf 10. Alles eine reine entwicklerpolitische Entscheidung, welche Setting er als Maximum definiert. Er kann auch "Low" in "Ultra" umbenennen und wir erfreuen uns alle plötzlich an einem "sehr gut optimierten" Spiel - sofern die grafischen Einbußen nicht zu drastisch sind. Mit dem richtigen Setting bringt man auch eine RX 9070 XTXTXTX in die Knie.
 
  • Gefällt mir
Reaktionen: Taxxor und ElliotAlderson
Eine Frage ans Forum.
Wann darf ich jetzt Doom im Early Access also die zwei Tage früher spielen.
Nur mit dem Premium Bundle oder auch mit dem Gamepass.
Hab das nicht ganz verstanden, weil überall was anderes steht.
Auf reddit sehe ich gerade, dass sich ein paar Leute freuen, dass sie mit dem Gamepass early acces haben und woanders wieder was anderes.
 
  • Gefällt mir
Reaktionen: Paradokks
ElliotAlderson schrieb:
Alles 4K, aber hat nichts mit nichts zutun :D
Es ist immer wieder amüsierend, wie du dir bei AMD alles zum Guten zurecht biegst, aber sprich dich nächstesmal besser mit Lisa Su ab, sonst setzt du dich wieder in die Nesseln.
Sind halt 4K Bench Vergleiche, ja und ? Stell Dir vor, es gibt mit der Karte auch welche mit FullHD Auflösung.
Wenn einer was "zurecht biegt" dann ja wohl offensichtlich Du ! Hab Dir einen WQHD Bench einer WQHD Karte aufgezeigt. Ja mach ich, und sag Du Deinem Jensi beim nächsten mal von mir keine schönen Grüße :baby_alt:
 
Ich bin wohl leider raus. Spiele eh nur auf 1080p, aber mit meinem Ryzen 9 3900X und ner 3070 TI kann ich das vergessen. Muss irgendwann mal ein Neuer her, dabei ist der noch keine 5 Jahre alt, die Graka erst 3. :rolleyes:
 
Mimir schrieb:
Ich verstehe natürlich was du meinst, aber die Latenzen bei einer bestimmten Framerate sind doch von Spiel zu Spiel sowieso total unterschiedlich. Wenn man den Gedanken zuende führt, dann müsste sich ein Spiel das man nur mit Reflex spielt und damit viel zu wenig FPS für die erreichte Latenz hat, unglaublich ruckelig anfühlen.

Weil mit Reflex (ohne FG) passt ja Latenz und Framerate auch nicht mehr zusammen.

Daher verstehe ich nicht, warum FG dann ein Problem ist, Reflex aber nie. Das ergibt für mich irgendwie keinen Sinn. Eine Abweichung vom "normalen" verhalten hat man also in beide Richtungen.

Wenn das Leute so wahrnehmen, meinetwegen. Ich würde aber behaupten, dass das viel Kopfsache ist. Es gibt nunmal keinen festen Bezug zwischen Framerate und Latenz. Es gibt tendenzen, aber niemals einen 1:1 direkten Bezug, der universell für alle Spiele gelten würde.
Es ist natürlich richtig, dass es keinen 1:1 Bezug zwischen FPS und Latenz gibt, dies variiert von Spiel zu Spiel.
Die Differenz zwischen FPS und Latenz ist aber vermutlich in kaum einem bis (fast) gar keinem Spiel so groß wie wenn ich in irgend einem Spiel FG anschalte, mit MFG ist die Differenz nochmal viel, viel größer. Das gibt es sonst halt einfach nirgendwo.

Wo ich mit dir überein stimme ist, dass das ganze viel Kopfsache ist. Dabei meine ich aber nicht unbedingt, dass sich die Leute das einbilden (das bemerke/bilde mir das nämlich auch ein, aber dennoch finde ich FG in gewissen Situationen praktisch, bin also nicht negativ gegen FG eingestellt), sondern das sie das eben unterschiedlich wahrnehmen. Quasi genauso, wie FPS von Leute unterschiedlich wahrgenommen wird, gilt das auch für den Disconnect zwischen FPS/Latenz.
 
  • Gefällt mir
Reaktionen: SweetOhm
Wolfgang schrieb:
Die Differenz zwischen FPS und Latenz ist aber vermutlich in kaum einem bis (fast) gar keinem Spiel so groß wie wenn ich in irgend einem Spiel FG anschalte, mit MFG ist die Differenz nochmal viel, viel größer. Das gibt es sonst halt einfach nirgendwo.
Naja, wenn wir die Werte anschauen ist die Differenz zwischen FPS und Latenz bei Reflex ohne FG fast genauso hoch wie bei FG 2x

65FPS und 60ms ist hier die Basis, also 0,92ms auf 1FPS.

Mit Reflex hast du die selben FPS, aber nur noch 36ms, die du ohne Reflex eher bei ~120FPS erwarten würdest.
Hier kommen 0,55ms auf 1FPS.


Mit FG hast du 107FPS und 51ms, das ist nicht viel anders als ohne FG aber mit Reflex, 0,47ms auf 1FPS.
Hier würdest du ohne FG und Reflex bei solchen FPS irgendwas um die 40ms erwarten

Also beide weichen in gleichem Maße von der Basis ab, der eine durch zu hohe FPS für die Latenz, der andere durch zu niedrige Latenz für die FPS, was aufs gleiche rausläuft
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson und Mimir
Wolfgang schrieb:
Wo ich mit dir überein stimme ist, dass das ganze viel Kopfsache ist. Dabei meine ich aber nicht unbedingt, dass sich die Leute das einbilden (das bemerke/bilde mir das nämlich auch ein, aber dennoch finde ich FG in gewissen Situationen praktisch, bin also nicht negativ gegen FG eingestellt), sondern das sie das eben unterschiedlich wahrnehmen. Quasi genauso, wie FPS von Leute unterschiedlich wahrgenommen wird, gilt das auch für den Disconnect zwischen FPS/Latenz.

Die Frage ist, wie man Disconnect definieren will.

Bei 60 FPS kommt nach 16,6 ms ein Frame. Rein theoretisch müsste die gesamte Latenz des PCs bei 60 FPS also optimalerweise 16,6 ms betragen. Davon sind wir weit entfernt. Und trotzdem ist es kein Problem.

Und ja, wenn ich nicht nur FG sondern MFG einschalte und dann aus 50 FPS 200 FPS mache, dann ist natürlich logisch, dass das sehr sehr weit von dem entfernt ist, was man gewöhnt ist. Ist ja auch logisch. Das liegt in der Natur der Sache.

Aber trotzdem ist es für mich eben Kopfsache, da das ja nichts schlechtes sein kann. Es gibt einfach keinen rationalen Grund, lieber mit 50 statt 200 FPS zu spielen. Ja, das kostet mit MFG ein wenig performance und damit latenz. Aber das hindert dich nicht daran, trotzdem mit einer guten latenz zu spielen, falls das ein Problem sein sollte. In zeiten von FG und MFG sind das eben zwei paar schuhe, die man separat und völlig unabhängig voneinander einstellen kann.

Wenn ich ohne FG also 60 FPS erreiche und das Spiel gerade so spielbar ist bzgl. der Latenzen und dann MFG an mache, hab ich 200 FPS bei etwas höherer latenz. Und? Wenn mir jetzt zufällig die Latenzen zu hoch sein sollten, dann stell ich eben irgend nen anderen Effekt runter oder nutze mehr Upscaling und schon hab ich wieder bessere Latenzen.

Niemand sagt, dass die Latenzen bei 200 FPS unbedingt bei 5 ms liegen müssen, damit es sich "richtig" anfühlt. Denn wenn man so wie hier im Test bei ~70 FPS ~50 ms latenz hat, dann ist das ja auch schon nicht "richtig" und müsste unspielbar sein. Aber man hat sich eben dran gewöhnt und denkt ist sei normal.

Deswegen ist eben meine Meinung: Es gibt kein "richtig" es gibt kein "falsch". FPS und latenzen hingen noch nie in direktem Zusammenhang. Nur indirekt. Mit Reflex + FG hab ich die Möglichkeit zumindest die Framerate ohne Latenznachteil extrem zu erhöhen und damit eines der beiden Probleme nahezu vollständig zu lösen. Denn mit MFG werden künftig Frameraten völlig an bedeutung verlieren. Man hat einfach immer so viele wie das Display kann. Die entschiedende Metrik für die performancemessung wird dann wahrscheinlich nur noch die Latenz sein.

Jede wette, dass man in 10-20 Jahren über solche Diskussionen wie wir sie heute führen nur noch laut lachen kann.

"Wisst ihr noch damals, als man neben schlechteren latenzen auch noch zusätzlich mit ruckeln und unscharfer Darstellung leben musste, wenn die Grafikkarte am Limit war?"

Für mich ist FG ein absolut notwendiger und überfälliger schritt, da damit die Framerate endlich von der tatsächlichen performance der Karte vollständig entkoppelt wird.

Denn wir hatten schon immer das Problem, dass man auf der einen Seite die Darstellungsqualität durch bessere Grafik und aufwändigeres Rendering verbessern will, aber dies zugleich die Darstellungsqualität in bewegung verschlechtert, da man weniger FPS erreicht. Zwei dinge die also für gute Darstellung wichtig sind, sich aber grundlegend im Wege stehen. Dass man dieses fundamentale Problem mit Frame Generation auflösen kann ist mMn. ein absoluter Geniestreich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bogge101 und Taxxor
@Taxxor
Ich habe in Doom mir Reflex alleine gar nicht großartig angesehen.

Ich beziehe mich hier rein auf ohne FG und ohne Reflex im Vergleich auf MFG mit Reflex.
Dort habe ich 65 FPS bei rund 60 ms und 183 FPS bei rund 62 ms. Das entspricht grob "1,08 ms pro FPS" bei abgeschaltetem FG und rund "2,9 ms pro FPS" bei MFG 4x. Das ist ja fast der dreifache Wert. Nehme ich nun Reflex bei abgeschaltetem FG hinzu sind es immer noch "1,8 ms pro FPS) und damit immer noch klar weniger als bei MFG 4x.

Richtig ist, dass ich bei normaler FG 2x auf einen ähnlichen, nur gering höheren Wert von "2,1 ms pro FPS" im Vergleich zu ohne FG + Reflex komme. Aber normales FG fühlt sich in Doom Eternal bei Frameraten von 55 bis 60 FPS auch klar besser an als MFG.

Und ja, wenn ich nicht nur FG sondern MFG einschalte und dann aus 50 FPS 200 FPS mache, dann ist natürlich logisch, dass das sehr sehr weit von dem entfernt ist, was man gewöhnt ist. Ist ja auch logisch. Das liegt in der Natur der Sache.

Aber trotzdem ist es für mich eben Kopfsache, da das ja nichts schlechtes sein kann. Es gibt einfach keinen rationalen Grund, lieber mit 50 statt 200 FPS zu spielen. Ja, das kostet mit MFG ein wenig performance und damit latenz. Aber das hindert dich nicht daran, trotzdem mit einer guten latenz zu spielen, falls das ein Problem sein sollte. In zeiten von FG und MFG sind das eben zwei paar schuhe, die man separat und völlig unabhängig voneinander einstellen kann.
Ich beziehe mich wie gesagt primär auf den Unterschied zwischen kein FG mit MFG 4x und damit das Extrem-Szenario. Siehe oben und siehe Text, normales FG flutscht in Doom für mich deutlich besser bei FPS um die 60.

Und wie ich schon geschrieben habe: Klar, das kann gut Klopfsache sein, dass der da einem ein komisches Gefühl gibt. Aber wir alle Menschen haben nun einmal einen Kopf, der ganz gerne merkwürdige Sachen macht. Und bei FG/MFG scheint dieser eben bei so einigen Spielern merkwürdige Sachen zu machen. FG und nochmal mehr MFG scheint generell ein Feature zu sein, womit einige gut zurecht kommen, andere schlecht zurecht kommen und bei wiederum anderen ist es mal so, mal so.
 
dannubra schrieb:
Diese Karten sind aber auch 6-7 Jahre alt, was erwartest Du?

Oder hast Du mal versucht im Jahr 2004 Half-Life 2 oder Doom 3 mit Hardware aus 1998 zu spielen? Das ist gar nicht gestartet.

Doom wird auf einer RTX 2070 immerhin noch mit Low Settings in 1080p laufen. Die Hardware bleibt heute länger spieletauglich denn jemals zuvor.

Das Problem ist doch folgendes:

für den normalen Konsumenten sieht die Grafik vielleicht 20% besser aus als bei Doom Eternal. Technisch mögen die hohen Anforderungen bestimmt begründet sein, als Konsument bewerte ich aber was ich sehe.
Nun habe ich 20% bessere Grafik und mehrere 100% höhere Anforderungen, um das Spiel vernünftig spielen zu können.

Da ist als Laie der Schluss naheliegend, dass die Entwickler schlampig gearbeitet haben müssen (auch wenn es nicht stimmt).

Am Ende muss man die Regler soweit runter drehen, dass die Grafik schlechter aussieht als bei den alten Titeln, wo ich alles auf Ultra stellen kann.

Und das ich leider meine Erkenntnis: Ich kann viele ältere Titel auf Ultra Spielen und die Spiele sehen wahnsinnig gut aus (nach meinem Empfinden) oder ich Spiele die modernen Unreal Engine 5 Spiele die "besch...eiden" aussehen auf meinen System, da ich alles niedrig bis maximal mittel stellen muss.

Die Entscheidung muss dann jeder für sich selbst treffen.
 
  • Gefällt mir
Reaktionen: ElliotAlderson und HerrRossi
ElliotAlderson schrieb:
Dabei wurde die id Tech Engine immer so gelobt, weil sie so optimiert und performant ist :freak:

finde ich auch erstaunlich.
doom 2016 war was feines
eternal ging auch

aber das hier? enttäuscht angesichts der benötigten hardwareleistung doch ziemlich

dabei bin ich aufgrund der bisherigen doom spiele schon ein kleiner fan von id software
 
Zurück
Oben