Test Nvidia GeForce RTX 3090 im Test: Die größte GeForce für eine kleine Zielgruppe

Banger schrieb:
Die 3000er-Karten können doch kein Framegeneration.
Hust Könnten schon....dürfen aber nicht mitspielen..hust,hust
 
  • Gefällt mir
Reaktionen: Mcr-King
Sonntagsgamer schrieb:
Versteh ich das richtig, dass DLSS nur eine Art Krücke ist, die man weglassen sollte, wenn der PC genug Power hat? Dann müsste ich mir Sachen wie Metro Exodus noch mal ohne DLSS ansehen, das hatte schon arg drunter gelitten würde ich sagen, Polygone sahen teilweise aus wie WOW (als ich noch die alte CPU hatte).
Nö/Jain. Du kannst es auch nutzen um deine Grafik auf ein besseres Level zu pushen.
Generell funktioniert DLSS ja so schon super und hat eig kaum nennenswerte Probleme mehr mit Artefakten als normales TAA. Aber weiter gedacht, nutze ich es dank Frame Gen eben, oft zum Supersampling, also Cyberpunk oder Alan Wake 2 zb mit 4987x1920 (hab ja auch nen Ultrawide 3440x1440) und DLSS Ausgeglichen/Balance + Frame Gen (also DLSS3 halt). Wertet das Bild heftig auf mMn.
 
Sonntagsgamer schrieb:
Versteh ich das richtig, dass DLSS nur eine Art Krücke ist, die man weglassen sollte, wenn der PC genug Power hat?
In 4K 120Hz hat kein PC der Welt genug Power und auch in 4K braucht man noch eine Kantenglättung
denn 4K nativ sieht Kacke aus. Temporal Anti Aliasing kostet am wenigsten Leistung aber man verliert
Bildschärfe also braucht man intelligentes Anti Aliasing wie z.B. DLAA oder intelligentes Upsampling.

"Echtes" Anti Aliasing wie Super Sampling (SSAA) kostet viel Leistung weil tatsächlich in einer höheren
Auflösung gerendert wird. Kann man per Auflösungsskalierung im Spiel und DSR im Treiber simulieren.

Darum eben Deep Learning Super Sampling (DLSS) was allgemein besser aussieht als TAA/FXAA/usw.
und sogar noch mehr FPS liefert bzw. bei genug FPS mit Frame Limiter dann ordentlich Strom spart !

Sonntagsgamer schrieb:
Dann müsste ich mir Sachen wie Metro Exodus noch mal ohne DLSS ansehen, das hatte schon arg drunter gelitten
DLSS entwickelt sich ständig weiter und bereits Version 2.5.X war in Metro Exodus soweit fehlerfrei.
Der Game Changer ist Frame Generation aber das fehlt leider also 4K 120FPS (mit RT) wird schwer.

 
Sonntagsgamer schrieb:
Versteh ich das richtig, dass DLSS nur eine Art Krücke ist, die man weglassen sollte, wenn der PC genug Power hat? Dann müsste ich mir Sachen wie Metro Exodus noch mal ohne DLSS ansehen, das hatte schon arg drunter gelitten würde ich sagen, Polygone sahen teilweise aus wie WOW (als ich noch die alte CPU hatte).

DLSS bietet im quality asset sehr oft sogar ne bessere Bildqualität als die native Auflösung mit MSAA, TAA und FXAA. Ich will DLSS nicht meh missen :)
 
  • Gefällt mir
Reaktionen: akuji13 und Cyberbernd
Hi

The Last of Us z.b. sieht mit DLSS sogar deutlich besser aus.

Braucht damit statt 12 GB RAM nur ~8.8 GB.

Meine 4090 UV zieht so nur 240 Watt.....in UWQHD. Mit 142 fps cap.

Gruß Bernd
 
Coeckchen schrieb:
DLSS bietet im quality asset sehr oft sogar ne bessere Bildqualität als die native Auflösung mit MSAA, TAA und FXAA. Ich will DLSS nicht meh missen :)

In CP2077 fehlen z. B. bei seitlichen Bewegungen ("strafen") gerne mal die Streben von Absperrgittern wenn kein DLSS aktiv ist.

Für mich wiegen die DLSS Vorteile die Nachteile überdeutlich auf.
 
Das Problem ist eben das die meisten Karten dann doch viel zu schwach / verkrüppelt sind, dass es für mich ein Verkaufsargument wäre.

Klar, aus einer 3090 mit 24GB RAM kann man noch was rausholen. Wenn man zur 3070 TI gegriffen hat, wird's bald schon auf full HD knapp. DLSS hin oder her.
 
Da kommt dann Frame Generation ins Spiel also mit RTX3000 zocken ist verschwendete Lebenszeit. :heilig:
 
  • Gefällt mir
Reaktionen: Banger
0ssi schrieb:
... zocken ist verschwendete Lebenszeit. :heilig:
Würden einige so auch unterschreiben.
Alternativ: Ohne 4090 zocken ist verschwendete Lebenszeit.
Das Beste vom Besten ist gerade gut genug...

Man könnte alternativ von Spieleherstellern auch erwarten, dass keine Doppelframes eingespielt werden müssen, damit man akzeptable Frameraten erhält. Bei Spielen wie Avatar ist das anscheinend zu viel verlangt. Kostet richtig Leistung und sieht ziemlich verwaschen aus...
 
Andre Prime schrieb:
Man könnte alternativ von Spieleherstellern auch erwarten, dass keine Doppelframes eingespielt werden müssen, damit man akzeptable Frameraten erhält.

Leider hat CDPR so einen mistigen DX12-Wrapper eingebaut, so geht es aus dem Sammelthread hervor. Den Leistungsverbrauch finde ich auch beschämend. Alles auf Max. gibt nur rund 60FPS. An manchen Stellen geht es auch ohne Grund auf 45 runter, sodass die Grafikkarte kein Limit mehr hat, ohne dass da für mich ein CPU-Limit erkennbar ist, weil die CPU-Auslastung in Novigrad höher ist und da u.U. CPU-Limit eintritt.

Resident Evil 4 sieht in der Umgebung grafisch einen Ticken besser aus. Die Charaktermodelle sind da nochmal eine Stufe besser. Allerdings ist das Raytracing dort schlechter. Läuft eigentlich meistens mit 120+FPS. Im Worstcase-Fall geht es auf ca. 90 runter, weil CPU-Limit.

Grafikkarte ist 4080, CPU 12700K.

Daher bei Witcher 3 FSR2 Quality oder DLSS Quality, läuft auf ca. 90FPS, minimal auf ca. 70. Oder alternativ Framegeneration. Ist dann ca. 100FPS oder minimal ca. 80. Oder man nimmt beides. Minimal war 90, glaube ich, teilweise ging es auf 144 in den Limiter.

Cyberpunk mit nativem DX12 hat wohl bessere Performance.
 
Zurück
Oben