Notiz Nvidia: DLSS für Cyberpunk, Minecraft und weitere Spiele

foo_1337 schrieb:
...Und in beiden Fällen muss der Entwickler, wie bei DLSS, tätig werden.
Aber sehe ich das richtig, dass wenn die Entwickler das in DX12 realisieren würden auch die Radeon Besitzer profitieren würden?
 
Wenn sie es mit AMD's FFX SR machen würden, ja. Etwas anderes gibt es für den PC ja nicht. Es ist aber ähnlich wie DLSS erstmal DX agnostisch.
 
BTW: der Release Trailer von CP77 ist draußen! Sehr geil!
 
  • Gefällt mir
Reaktionen: Marc53844, MindofRafi, Tavar95 und 5 andere
Xechon schrieb:
Mir ist klar, dass dir die Frage als selten dumm vorkommt. Ich habe mich noch nie mit dem Thema befasst. Es gibt wohl drei Modi. Mich hätte ein Vergleich zwischen allen drei Modi interessiert. Bringt der Performance-Mode so viel mehr als der Quality oder bringt der Quality am Ende so viel, dass die paar FPS weniger als im Performance-Mode zu vernachlässigen sind.
Ich hab mich mit DLSS auch noch nicht auseinandergesetzt, aber früher war es ja so, das der "Performance" Mode meist eher schlechte(re) Grafik hatte, wohingegen bei Quality es zwar ruckeln konnte, aber es halt "toll" aussah.
Mich würd ja mal interessieren, wie das mit DLSS aussieht.
Sieht dann alles genauso gut aus wie im Quality Mode?

Das wär mal Interessant wenn da mal Computerbase nen Artikel drüber schreiben würde (eventuell auch mit aktuellen Tests bzw. Vergleichsbildern in Cyberpunk) um das einfach ein bisschen klarer zu machen bzw. die (Grafik)Pro- und Contras davon aufzeigen kann.
 
  • Gefällt mir
Reaktionen: Xechon
Vereinfacht:
Performance: 1080p -> 2160p
Quality: 1440p -> 2160p
 
  • Gefällt mir
Reaktionen: fox40phil
Wer nach DLSS 2.0 immer noch behauptet, es wäre eine sinnlose Spielerei, hat m.M. nach keine Ahnung, bzw. noch die Technik im Einsatz am eigenen Monitor gesehen.
Der Performance- und tlw. Qualitätsgewinn ist beeindruckend. Man kann nur hoffen, dass AMD nachzieht, denn DLSS entwickelt sich immer mehr zum Kaufargument.
 
  • Gefällt mir
Reaktionen: peZt93, derin, Khalinor und 12 andere
Also nochmal. In 4K mag DLSS im quality Modus noch ganz gut sein.

Bei War Thunder und UWQHD sieht es einfach nur schlecht aus. Kein Wunder dass da so eine Performance bei raus kommt. In War Thunder ist es eine einzige Matsche mit fehlenden Details.

Ich denke dass hier dann auf UWFHD runtergebrochen wird, während es bei 4K auf QHD geht.

Wenn das bei Cyberpunk ähnlich umgesetzt ist, wäre das keine Option.
 
  • Gefällt mir
Reaktionen: derin
Also ich nutze DLSS seit seinem Erscheinen. Habe derzeit zwei Games und den RT - Benchmark von Bright Memory, die DLSS 2.0 unterstützen und sehe ehrlichgesagt zwischen den einzelnen Qualitätseistellungen absolut keinen Unterschied. Allerdings spiele ich in UHD auf 65" und bin sehr zufrieden. Ich war aber auch mit der alten Umsetzung von DLSS oft zufrieden mit Ausnahme von Battlefield 5 und Metro Exodus, bevor dieses jedoch gepatcht wurde und es sich dann gebessert hatte.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
@t3chn0 wenn War Thunder deine einzige Berührung mit DLSS ist, wundert mich dein schlechter Eindruck nicht :) Das hat da auch nix mit UWQHD zu tun. Das ist einfach mies.
 
Ich frage mich ja eher wo der Treiber für Cyberpunk bleibt. Hätte erwartet, NVIDIA haut heute noch einen raus.

DLSS in Shadow of the Tomb Raider ist gut aber bringt gar nicht so viel Performance bei mir. In FF15 kann ich es leider nicht aktivieren da es nur für bestimmte Auflösungen geht - ist halt noch DLSS 1.0 und nicht 2.0. Sehr ärgerlich.
 
t3chn0 schrieb:
Also nochmal. In 4K mag DLSS im quality Modus noch ganz gut sein.

Bei War Thunder und UWQHD sieht es einfach nur schlecht aus. Kein Wunder dass da so eine Performance bei raus kommt. In War Thunder ist es eine einzige Matsche mit fehlenden Details.

Ich denke dass hier dann auf UWFHD runtergebrochen wird, während es bei 4K auf QHD geht.

Wenn das bei Cyberpunk ähnlich umgesetzt ist, wäre das keine Option.

Hört sich nich so toll an. Spiele in 5120x1440 :/ sonst muss die Glotze herhalten. Dann aber halt Controller <.>
 

Also unter 4k scheint es aber zu machen was es soll.
 
Ladet euch einfach Fortnite zum Test. Es ist Free und man kann direkt RT / DLSS ausprobieren. Da ist es im Vergleich zu War Thunder auch gut umgesetzt.
 
  • Gefällt mir
Reaktionen: Lübke82
Falc410 schrieb:
DLSS in Shadow of the Tomb Raider ist gut aber bringt gar nicht so viel Performance bei mir. In FF15 kann ich es leider nicht aktivieren da es nur für bestimmte Auflösungen geht - ist halt noch DLSS 1.0 und nicht 2.0.

In Tomb Raider hab ich ohne DLSS etwa 50-55 FPS in UHD + RT Mit DLSS etwa 85+. Also ich bin da zufrieden. Bei FF15 ging DLSS nur unter UHD und war eben der entscheidende Faktor zwischen spielbar und unspielbar in UHD + Ultradetails (damals mit ner 2080Ti). Außer man hat die Auflösung herunterskaliert, was aber schlechter aussah.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: darkspark, Coeckchen und Palatas
foo_1337 schrieb:
@t3chn0 wenn War Thunder deine einzige Berührung mit DLSS ist, wundert mich dein schlechter Eindruck nicht :) Das hat da auch nix mit UWQHD zu tun. Das ist einfach mies.

Ich habe noch Cold War Black OPs und auch da ist der Qualitätsverlust deutlich sichtbar. Alles was unterhalb vom quality Modus ist, sieht grausam aus und der quality Modus selbst sieht 15% unschärfer aus, als die native Auflösung.
 
  • Gefällt mir
Reaktionen: shoKuu
Das Problem bleibt aber weiterhin die Verfügbarkeit.

Ich hatte auch schon mit dem Gedanken gespielt, vielleicht doch eine 3080 zu kaufen und diese dann in 1-2 Jahren wieder zu ersetzen. Bis dahin sollte es auch noch passen mit 4K und 10GB.

Aber dafür müssen die Preise sich deutlich dem UVP der Referenz, bzw. der jeweiligen Custom Card nähern und das sehe ich momentan weder bei AMD, noch bei Nvidia. Es ist reine Glückssache, dass man mal bessere Preise sieht. Meist ist man 200-300 Euro über UVP. Und das sehe ich dann auch nicht ein als Übergangskarte. :)
Die 3080Ti wäre da wohl zukünftig die optimale Lösung - aber da sehe ich es auch nicht besser bzgl. Verfügbarkeit und Preise.

Nach wie vor bleibe ich aber der Meinung, dass AMD die bessere Architektur hat - nur das sie hier bzgl. Raytracing und DLSS hinterherhinken. Wenn sie das (bzw. ihre Alternativen) noch schaffen im Jahr 2021 zu implementieren, dann könnte es bei der nächsten Generation spannend werden.

Somit muss man auf bessere Preise warten oder eben tief in den Geldbeutel greifen.
AMD kann man ja außer am Launch Day gefühlt sowieso nicht kaufen.
 
Godfather101 schrieb:
Das wär mal Interessant wenn da mal Computerbase nen Artikel drüber schreiben würde (eventuell auch mit aktuellen Tests bzw. Vergleichsbildern in Cyberpunk) um das einfach ein bisschen klarer zu machen bzw. die (Grafik)Pro- und Contras davon aufzeigen kann.
Genau das meinte ich und würde mich auch tierisch interessieren.
 
mannefix schrieb:
Also nur für Cyberpunk wichtig. MArketing sage ich. Ein "richtiger" Algorhytmus sollte für alle Programme funktionieren...

Blödsinn




Asobo soll endlich mal hin machen das sie DX 12 implementiert bekommen , damit der Flight Simulator trainiert werden kann für DLSS:(
 
Zuletzt bearbeitet:
DLSS war für mich einer der Gründe (neben der Verfügbarkeit) zur RTX 3080 statt der RX 6800XT zu greifen. Alleine für Cyberpunkt ist das schon Grund genug für mich. Wichtig ist natütlich, was man spielt - sind es Titel die weder RT noch DLSS 2.0 nutzen, dürfte AMD zu vernünftigen Preisen die bessere Wahl sein.

Das AMD eine DLSS Alternative bringen will finde ich gut, aber alleine der Wille reichte mir nicht.

10GB sind knapp bemessen, reichen aktuell aber noch - in ca. 2-3 Jahren gibt es dann eh ein Upgrade und dann werden die AMD und Nvidiakarten neu gemischt (bei mir zumindest)
 
  • Gefällt mir
Reaktionen: Khalinor, Kryss, ShiftyBro und 3 andere
Zurück
Oben