• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Doom: The Dark Ages: Update mit Full Raytracing & DLSS Ray Reconstruction im Juni

Mimir schrieb:
Aber logisch, sobald man sowas erwähnt, sind die Leute gleich eingeschnappt. War noch nie anders.
So viele Menschen haben ne Sehschwäche, aber wenn man nen begründeten Verdacht hat, dass man aufgrund der Sehkraft vielleicht nicht so gut sieht, dann wird das sofort bestritten und als persönlicher Angriff wahrgenommen. Am besten wir sprechen das Thema einfach niemals an, denn es KANN und DARF nicht sein, dass es daran liegt, ok? besser so?
Willst du noch mehr wild über die Sehleistung fremder Leute mutmaßen? Obwohl ich dir bereits gesagt habe, dass erst kürzlich von Arzt und Optiker geprüft, seit Jahren mit Brille korrigiert und auch überhaupt nicht Kern des Arguments ist, da ich bereits gesagt habe, dass man es sehen kann.

Ich habe von praktischer Relevanz bzgl. Schärfe bei üblichen Monitorgrößen (24 -27 Zoll) in Spielen, insbesondere in Abwägung zu Nachteilen bzgl. FPS und Hardwareanforderung wie eben jetzt bei Doom (mit RT/PT) diskutiert.
Die Basis solcher Diskussionen ist stets eine Abwägung zwischen Abstand zum Monitor, dargestellten Inhalten und Bildschirmgröße. Ich bleibe aber dabei, dass es rein physikalisch einfach Bullshit ist, wenn mir jemand bei >100 PPI Dichte am Normalo-PC-Setting (und einem qualitativ guten Monitor, es zählt ja mehr dazu, als die bloße rechnerische Dichte ... Subpixelstruktur, Beleuchtung, generelle Farbtreue, Technologie) erzählen will, dass da ein riesiger Unterschied existiert, der auch nur annähernd so relevant und klar erkennbar ist wie höhere Bildwiederholungsraten oder generelle Kontraste.

Klar, spätestens ab 32-Zoll kommt man in den Bereich, wo man ernsthaft an 4k denken sollte, aber bei Monitoren in normaler Größe ist das eher überzogenes Gerede. Die Unterschiede sind minimal und jeder, der dann eben nur 50 FPS hat, ist selbst schuld an falsch gesetzten Prioritäten (abgesehen eben von Leuten, die aus anderen Gründen 4k bzw. große Bildschirme nutzen).

Mimir schrieb:
Na ja, jeder wie er will. Aber mit der Aussage, 4K als Marketinggeschwätz abzutun machst du dich leider nur lächerlich, da die meisten den Unterschied direkt sehen. Von Placebo sind wir hier WELTEN entfernt.
Placebo habe ich nie gesagt, es ist nur ein vernachlässigbarer Mehrwert im Verhältnis zu den Nachteilen in Spielen wie Doom oder Indiana Jones.
Also bevor du über Sehleistung spekulierst, Strohmänner aufbaust und etwas als dumpf als "lächerlich" abkanzelst, kannst du mir ja auch einfach erklären, wie du auf rund 60 cm Entfernung Schattierungen auf Submillimeter-Ebene als "WELTEN"-Unterschied wahrnehmen willst. Ich revidiere da auch gern meinen Standpunkt, aber in dem Ausmaß halte ich das schlicht nicht für möglich und habe es bislang auch bei keinem Monitorkauf jemals in der Praxis so wahrgenommen (es sei denn ich geh eben fast mit der Nasenspitze ran).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: c4rD1g4n
@Xul
Also ich komme in Doom mit meiner 4080 je nach Level und Abschnitt auf 160-180 FPS mit DLSS Performance in 4K und 2x Frame Gen. In last of Us Part 2 sind es mit DLSS Quality und 2x FG ca 160 FPS. Mit DLSS Performance 180-200 FPS. Frame Gen skaliert dabei idr. mit +70% mehr FPS. Ohne FG sind es daher auch deutlich mehr als die hälfte der FPS die ich hier mit FG angegeben habe.

Und das ist wie du weißt jetzt nicht unbedingt die schnellste und neueste Karte.

Also mit 50 FPS würde ich auch nicht spielen.

Der Punkt ist halt, dass DLSS Performance in 4K schneller läuft, als 1440p nativ und nur ~20-30% langsamer als 1440p mit Quality Upscaling ist. Das ist ein relativ kleiner Preis.

Und wie gesagt, das Upgrade ist in Sachen Bildschärfe und Detailgrad gewaltig. Und NATÜRLICH spreche ich hier vom Bewegtbild im Spiel und nicht von irgendwelchem kleinen Text. Es geht doch hier um spiele oder nicht?

Na ja, denk gern was du möchtest, aber du kannst es mir doch beim besten Willen nicht verübeln, dass ich an deiner Sehkraft zweifeln muss, wenn ich einen überdeutlichen Unterschied sehe und du mir erzählst, dass er für dich nicht nennenswert ist. Offensichtlich sehe ich deutlich besser als du. Aber damit scheine ich ja auch nicht alleine zu sein. Du kannst mir ja gerne ne andere Begründung als Sehkraft nennen, aber mir fällt nunmal leider keine ein. Also was soll ich sonst sagen? Soll ich mir jetzt einreden, dass ich keinen Unterschied sehen kann, weil du deine Augen hast übrprüfen lassen? Also bitte :D


Letztendlich hast du hier eine äußerst provokante These in den Raum gestellt, von wegen leute würden auf 4K Marketing "hereinfallen". Du kannst ja gerne für dich feststellen, dass sich 4K nicht für dich lohnt, aber dann unterlasse doch bitte solche allgemeinen, vermeintlich belehrenden und provokanten Aussagen.

Und wenn du's genau wissen willst: Ich sitze ca 75 cm weit weg von einem 31,5 Zoll OLED. Das ist sicher nicht "Nasenspitze an Display".
 
  • Gefällt mir
Reaktionen: Cinquedea
Bei dem Preis erwarte ich, dass so etwas sofort verfügbar ist und nicht erst Monate später.
 
Floorp schrieb:
Meist will der Publisher Geld sparen und lagert aus nach Indien, etc. Ist preiswerter als richtige Lighting und Illumination Artists zu haben.
a. nein und b. braucht man das nicht mehr, Licht wird durch Raytracing berechnet, fertig. Danke für diese Technologie sie macht alles dynamischer und echter
Ergänzung ()

BloodGod schrieb:
Huch, plötzlich kein Wort mehr zu Pathtracing?
Full Raytracing = Pathtracing
 
Zuletzt bearbeitet:
quakegott schrieb:
Ich bin auch irgendwie der Ansicht dass Raytraycing einfach die bequemste Variante ist. Und gleichzeitig die ineffizienteste... Nvidia hat einen Markt für sich selbst erschaffen
Was ist effizienter als Raytracing bei der gleichen Qualität?
Raytracing skaliert linear, Rastern nicht.
Das ganze überschneidet sich ab einem gewissen Punkt von daher ist Raytracing ab jetzt einfach die bessere Option, auch wegen dem Henne-Ei Problem.
Grafikkarten können sich erst auf mehr RT Leistung konzentrieren, wenn mehr Spiele es verlangen. Mehr Spiele können es erst einsetzen, wenn mehr RT Leistung vorhanden ist.
Daher ist RT in GPUs immer noch ein Stiefmütterliches Features im Vergleich zur Chipfläche für Rastern.
Das wird sich hoffentlich bald ändern, Rastern ist am Ende der skalierbarkeit.
Eine doppelt so schnelle Rasterkarte schafft nicht knapp doppelt so viel FPS. Das hat man gut bei der 4090 oder 5090 gesehen, es sind da eher 40-50%.
 
  • Gefällt mir
Reaktionen: MoinWoll
@Mimir: Also doch 32 Zoller (+ OLED, was ja auch ne massive Rolle spielt, wenn du vorher keinen hattest) ... du hast also jetzt 3 Beiträge lang irgendwas über deine ach so höherwertige Adleraugen-Sehkraft geredet und konsequent alle anderen Punkte ignoriert, nur um am selben Punkt rauszukommen wie ich.
Fair enough, dann sind wir doch näher beiander als gedacht😅

Und ja, Leute lassen sich genau wegen solchem Unsinn nen 24-Zoll 4k-Monitor andrehen.
160-180 FPS mit DLSS Performance in 4K und 2x Frame Gen
Joa, und 4x FG könnte bzw. muss man auch noch anwerfen, wenn dann das PT-Update durch ist ... :freak:
 
InsideInfinity schrieb:
Jup, finde ich auch gut. Sollte jeder nun alles automatisch machen lassen dann muss keiner mehr programmieren.
Es macht schlichtweg keinen Sinn für uralt-hardware Levels nochmal komplett neu auszugestalten wenn es das Licht selbsständig schafft.
InsideInfinity schrieb:
Wie die Spiele am ende beim Kunden laufen interessiert ja spätestens seit Corona und Home-Office sowieso keinen mehr und auch gibt es genug Leute die mit 10fps zocken und irgendwie sogar daran Spaß haben
Mein Mitleid hält sich in Grenzen, weder ist man gezwungen Indy und Doom sofort zu spielen, noch hat man 10 FPS mit Grafikkarten die schon vor 7(!!) Jahren erschienen sind. Eine Turing GPU etwa die 2070 oder 80 schafft mehr.
7 Jahre, man möge mit der Zeit gehen. Und nein, selbst bei mir läuft es nicht, weil ich bislang alles Spielen konnte was ich will.
Und nun? Indy? Cyberpunk? Doom? Stalker 2?
Ja ich werde mir irgendwann eine neue GPU kaufen und dann werden die halt gespielt, who cares?
Es sind so künstliche first world problems "ich kann es nicht spielen, also ist es doof!"
Früher musste man alle 2 Jahre einen neuen Computer kaufen, heute ist man selbst dann unzufrieden wenn es auf einem 7 Jahre alten noch läuft...
InsideInfinity schrieb:
:D Sollte also jeder auf die "bessere Technologie" wechseln um sich jegliches coding zu sparen, sehe ich genauso !
man spart sich nicht besseres Coding, RT ist das bessere Coding
Rastern ist eine Ansammlung an Tricks die gestacked werden müssen, es ist aufwändig und nicht zukunftsfähig.
Problematisch wirds dann, wenn ich jetzt mit 10 aneinanderereihte Tricks aufwändigst eine schöne Grafik hinoptimiere aber zukünftige GPUs das immer weniger utnerstützen, ich aber langfristigen Support haben möchte.
Raytracing ist nunmal die Zukunft..
Das erinnert mich an diejenigen die gejammert haben, als Spiele plötzlich(!) Shader vorausgesetzt haben. Sowas böses aber auch. Das waren aber nicht 7 Jahre nach erscheinen der ersten Shaderkarten sondern 2-3.
InsideInfinity schrieb:
Hey, die Unreal Engine macht doch das meiste schon automatisch. Per Nanite kann man sich ganz easy automatisiert wunderschöne Landschaften bauen lassen ohne überhaupt noch etwas machen zu müssen !! Echt top diese neuen Technologien. Läuft dann mit 30fps wie Stalker 2
lustig, weil Stalker nämlich genau nichts automatisch gemacht hat.
Und wo ist nochmal der Vorteil eine Grafik in tausenden Stunden vorauszuberechnen, damit sie dann doch nicht dynamisch wirkt, im Gegensatz zu "man sieht sofort wie es aussieht und kann sich mehr um eigentliche Inhalte kümmern"?
Hier wird nichts "generiert" automatisch, das Licht wird statt vorausberechnet in Echtzeit berechnet.

InsideInfinity schrieb:
, aber immerhin konnten sie die paar unfähigen inkompetenten Entwickler das programmieren sparen YAY.
du verstehst es irgendwie nicht wie mir scheint.
InsideInfinity schrieb:
DAS ist doch das einzige was zählt :D:D:D
Hier spart man sich vor allem Zeit bei der Leveloptimierung und wie ein Level aussehen soll. Da Id Software gewachsen statt geschrumpft ist, hat man sich wohl keinen Programmierer gespart.
Was du meinst sind eher die Grafiker die man sich spart, denn die mussten die meiste Zeit mühevoll von Hand die Levels mit Licht ausleuchten statt diese nun sofort richtig beleuchtet zu sehen.

Und:


Sich informieren, dann Urteilen wär gut!

Am besten sollen Entwickelr wieder alles per Hand machen. Physik, KI, Musik... alles per Hand gescriptet, bloß nichts realistisch berechnet! Und diese blöde 3D Grafik braucht auch kein Mensch. Doom (1993) war schon der Peak (was zugegeben auch stimmt).
 
  • Gefällt mir
Reaktionen: Quidproquo77
Spannend finde ich ja auch das ausser acht lassen, dass RT super viel Strom frisst! Das ist die sogenannte "alte Technik" die doch deutlich umweltfreundlichere.
Immerhin reden wir über Millionen von Endkunden und da ist es schon ein valider Punkt die Effizienz anzumerken.

Ob ich nun 300W für 100FPS brauche oder 1000W für 70FPS - das ist für mich schlichtweg nicht trivial!
 
Silencium schrieb:
Spannend finde ich ja auch das ausser acht lassen, dass RT super viel Strom frisst! Das ist die sogenannte "alte Technik" die doch deutlich umweltfreundlichere.
frisst es so viel Strom?
Und ist es umweltfreundlicher die alte Technik auszureizen? Nein
Erstens sind sowohl Spiele, als auch GPUs im Moment Raster-Spiele/GPUs mit etwas RT drangepappt, und daher noch ineffizient, zweitens skaliert Rastern nicht mehr.
Wenn du mit Rasterizing dieselbe Grafik haben möchtest die wir aktuell mit Raytracing und Skalieren haben, dann brauchst du ein vielfaches an Leistung weil man immer mehr Tricks benötigt.
Silencium schrieb:
Immerhin reden wir über Millionen von Endkunden und da ist es schon ein valider Punkt die Effizienz anzumerken.
Prinzipiell braucht RT etwas mehr Leistung wenn es zugeschaltet ist.
Genauso braucht es mehr Leistung mehr FPS zu haben oder höhere Auflösungen zu spielen, mehr Effekte einzuschalten.
Das Problem ist die Skalierung, du bräuchtest mit Rastern noch vielfach mehr Leistung um das zu erreichen was schon heute und erst recht in wenigen Generationen mit RT möglich ist
Silencium schrieb:
Ob ich nun 300W für 100FPS brauche oder 1000W für 70FPS - das ist für mich schlichtweg nicht trivial!
Dein Beispiel stimmt halt so auch nicht, gibt ja genug Spiele die mit zugeschalteten RT Effekten weniger einbrechen und wenig Mehrverbrauch haben und das ist nicht die Schuld von RT, sie sehen obendrein nicht gleich aus.
Fair wär der Vergleich, wenn das Ergebnis dasselbe wäre - dann könnte man sagen "bei diesem Beispiel ist RT ineffizienter weil es mehr Leistung braucht für die gleiche Grafik" dem ist aber nicht so.
Dass man 7 Jahre nach Einführung von Echtzeit RT immer noch so wenig Technologieoffen sein kann. Es ist die Zukunft und ihr seid hier in einem Technologieforum.
Lets go back to 2D und Singlecoreprozessoren unter 100MHZ!
 
  • Gefällt mir
Reaktionen: Quidproquo77
Ich hab mir Doom gestern im Gamepass geholt - weil für unter 15 Euro zock ich das gerne mal durch. Ich hab die Qualität auf anschlag gestellt und bin überrascht, wie gut das ohne Upscaling läuft. Ich muss gestehen, dass mich die Grafik nicht wirklich vom Hocker haut und seit Doom 2016 gefühlt gleich ist. Da wird auch Full-RayTracing nichts daran ändern.
 
Silencium schrieb:
Spannend finde ich ja auch das ausser acht lassen, dass RT super viel Strom frisst! Das ist die sogenannte "alte Technik" die doch deutlich umweltfreundlichere.
Immerhin reden wir über Millionen von Endkunden und da ist es schon ein valider Punkt die Effizienz anzumerken.

Ob ich nun 300W für 100FPS brauche oder 1000W für 70FPS - das ist für mich schlichtweg nicht trivial!

Nein, solange du nicht ins CPU limit oder ein anderes FPS limit kommst und die Karte voll ausgelastet wird, ist der Stromverbrauch weitestgehend identisch. Der Unterschied spiegelt sich dann eben in den FPS wieder.

Ausnahme sind vielleicht die 4090 und die 5090 die ein extrem breites Chipdesign haben und der Chip bzw. alle Compute units daher selten voll ausgelastet werden, weil bei den karten intern im Chip andere Stellen limitieren. Da kann die Leistungsaufnahme etwas mehr variieren. Aber für 5080 und kleiner gilt das gesagte auf jeden Fall, diese Chips kann man sowohl mit Rastergrafik als auch Raytracing vollständig auslasten und ins Powerlimit bringen. Das ist bei den karten auch der Normalzustand, wenn die CPU nicht bremst.
 
Zuletzt bearbeitet:
BloodGod schrieb:
So wird das exakt definiert ?
So definiert es NVIDIA, die haben ja immer wieder unnötige Umschreibungen genutzt, war schon bei DLSS3 / FG so.
Aber wenn NVIDIA irgendwo von Full RT schreibt, da n meinen sie PT
Ergänzung ()

Mimir schrieb:
Nein, solange du nicht ins CPU limit oder ein anderes FPS limit kommst und die Karte voll ausgelastet wird, ist der Stromverbrauch weitestgehend identisch. Der Unterschied spiegelt sich dann eben in den FPS wieder.
Was in den meisten fällen ja nicht der Fall ist, dass die FPS nicht durch irgendwas limitiert werden, sei es durch ein händisches Limit oder durch den Monitor.
Für gleiche FPS bedeutet RT bzw. PT schon einen ca doppelten Verbrauch, wobei man hier ja dann mit DLSS gegensteuern kann, was bei PT deutlich mehr FPS bringt / Verbrauch senkt, als bei Raster, wodurch der Unterschied kleiner wird.

Dann hat man bei gleichen FPS sowas in der Art:
Raster: 150W
RT: 250W
PT: 350W

Raster + DLSS: 120W
RT + DLSS: 180W
PT + DLSS: 220W
 
Zuletzt bearbeitet:
Für gleiche FPS bedeutet auch DLSS Performance vs DLAA potenziell doppelten Verbrauch. Oder höhere Grafiksettings. Das ist doch kein Argument und hat mit RT nichts zu tun.
 
Enigma schrieb:
Ich hab mir Doom gestern im Gamepass geholt - weil für unter 15 Euro zock ich das gerne mal durch. Ich hab die Qualität auf anschlag gestellt und bin überrascht, wie gut das ohne Upscaling läuft. Ich muss gestehen, dass mich die Grafik nicht wirklich vom Hocker haut und seit Doom 2016 gefühlt gleich ist. Da wird auch Full-RayTracing nichts daran ändern.
Das liegt auch am gewählten Grafikstil. Die zusätzliche Leistung ging nun in Beleuchtung und mehr Gegner
 
  • Gefällt mir
Reaktionen: Enigma
BAR86 schrieb:
a. nein und b. braucht man das nicht mehr, Licht wird durch Raytracing berechnet, fertig. Danke für diese Technologie sie macht alles dynamischer und echter
Ergänzung ()


Full Raytracing = Pathtracing
a.) Doch. Schau dir die Credits an. Bis auf das Kernteam sind der Grossteil externe Entwickler, Designer, etc. aus China und vorallem Indien.
b.) RT uebernimmt keinen kuenstlerischen Aspekt.
 
Für mich ist die Gewichtung einzelnder Spieleelemente so:

1. Gameplay
2. Soundesign

3.5 Je nach Genre Story

7. Grafik

Wie man sieht ist der Sound fast so wichtig wie das Gameplay, Sound und Gameplay gehen Hand in Hand. erst irgendwann kommt die Grafik. Doom dark age wird nicht besser wenn sie immer bessere Grafik reinpacken, wenn der Sound scheiße bleibt. Irgendwie versteht das keiner.

Früher haben Spieleentwickler extrem viel Wert auf Sound gelegt, heute ist das leider nebensächlich. Deswegen catchen die Spiele nicht.
 
Zuletzt bearbeitet:
Mimir schrieb:
Für gleiche FPS bedeutet auch DLSS Performance vs DLAA potenziell doppelten Verbrauch. Oder höhere Grafiksettings. Das ist doch kein Argument und hat mit RT nichts zu tun.
Genausoviel wie mit anderen Settings auch.
Die Aussage RT On = höherer Verbrauch stimmt ja, sofern man nicht generell unlimitiert unterwegs ist, trotzdem.
Bessere Optik für höheren Verbrauch halt.

Da gibts auch ein paar Spiele die RT bieten, es aber nicht wirklich auffällt und ich es dann auch eher aus lasse um weniger Verbrauch zu haben.

Gilt natürlich auch für Hoch vs Ultra Settings aber in dem Kontext hier geht es ja zusätzlich noch darum, dass man RT eben nicht abschalten kann
 
ich verstehe das ganze Gejammer nicht. "Früher" wurden in viel schnellerer Taktung gerade noch hochperformance Grafikkarten-Generationen von neuen Titeln zum Frühstück verspeist. Ich freue mich sehr, dass Raytracing bzw. Pathtracing jetzt endlich absehbar wird. Logischere Beleuchtung finde ich durchaus erstrebenswert. Also immer her damit, wird auch bei mir nicht flüssig laufen, dann spiel ich's halt auf niedriger Auflösung.

Ich muss ehrlich sagen, DLSS 4 upscaling ist so gut, ich sehe den Unterschied zwischen 3440x1440 nativ und DLSS Performance in normalem Abstand und bei der Geschwindigkeit des games nur marginal, und bekomme fast doppelte FPS. Warum dann nativ?!
 
  • Gefällt mir
Reaktionen: hans_meiser und Taxxor
Also normalerweise kaufe ich mir Spiele eher nicht direkt zu Release, weil zu teuer und meist Bugs.
Und wenn man das Game startet, kommt sogar ein Hinweis auf FAQ Seiten zur Fehlerbehebung aber bis jetzt läuft das Game stabil bei mir (Habs seit 2 Tagen gezockt) und ich habe keine Bugs festellen können.

Und ich muss echt sagen: Das Spiel macht echt Laune!

Am Anfang fand ich die Grafik (also nicht die Qualität, sondern das Design) etwas kitschig aber nach einer Weile passt es dann. Ich bin aber etwas erstaunt, dass das neue Indiana Jones auf der ID Engine 7 basiert und Dark Ages auf 8. Soooo geil ist die Grafik dann nicht aber aber auf jeden Fall für ein Doom vollkommen OK
(Also ich will da auch eher Moster plätten, anstatt eine Wand etc. zu bestaunen) und doch schon besser als Doom 2016!

Das Gameplay ist echt anders und nicht vergleichbar mit Doom 2016 oder Doom Eternal (Eternal hat am Anfang Spaß gemacht aber diese Jump Run Elemente waren dann nur noch ätzend und ich habe es nie durchgespielt). Ich würde sagen, dass es vom Gameplay nicht unbedingt super besser ist aber wenn, man Doom 2016 ein paar mal durchgezockt hat, freut man sich auf etwas neues.
Es erinnert mich teilweise an Doom aus den Neunzigern oder Quake II. Ich kann garnicht mal sagen, wieso.
Es ist irgendwie frisch, was neues.
Geiles Game und auf meiner 4070S kann ich nicht meckern von den FPS.
Und die Mechwarrior Nummer tritt einfach nur Arsch, dazu fette Metal Riffs, was will mann mehr :D
 
Zuletzt bearbeitet:
Zurück
Oben