• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Call of Duty: Modern Warfare und Warzone erhalten Nvidia DLSS

Topi41 schrieb:
Ok - ich empfehle dringend, sich mit der Materie zu beschäftigen. Diese Aussage macht ungefähr soviel Sinn wie „Nachts ist’s mehr dunkel als draußen“.
Ergänzung ()



Das war glaub ich mit DLSS 1.0 so, mittlerweile nicht mehr. Lieg’ ich richtig?
Richtig. Es dauert meist wenige Beiträge in DLSS Threads bis die ersten Fehlinformationen und/oder pures Unwissen direkt wieder im Umlauf sind ;) DLSS 2.0 ist kein ML pro Spiel mehr, sondern ein genereller AI integrierter Rekonstruktionsfilter.
 
GERmaximus schrieb:
Woher soll der Treiber bei zb. 480p die fehlenden Informationen für 1080p her holen?
Ich dachte es wäre einfach ein ausgefuchster Algorithmus im Treiber, der imstande ist aus den vorhandenen Bildinformationen die fehlenden Bildinhalten "intelligent" zu generieren.

Geckoo schrieb:
eben wegen dem unerlässlichen KI Kram, ohne den man DLSS komplett vergessen könnte. Dafür muss die Software erst jedes Spiel "erlernen", was mit Serverfarmen geschieht (vermute ich). Das ist halt kein einfaches hochskalieren.

Ok, ich glaub ich hab da was verschlafen bezüglich DLSS...
Heisst das dann, man muss mit dem Internet verbunden sein, wenn man DLSS verwenden will?
 
Zuletzt bearbeitet:
franzerich schrieb:
Heisst das dann, man muss mit dem Internet verbunden sein, wenn man DLSS verwenden will?
1) Nein diese Berechnungen mussten vorher durchgeführt werden, damit deine Software weiß, wie sie fehlende Details generieren kann.
2) Scheinbar wurde das Verfahren mit DLSS 2.0 angepasst, bin da nicht so aktuell unterwegs, da ich keine G/RTX besitze. Es muss trotzdem in der Engine integriert werden, vermutlich ist es immer noch ähnlich, nur das es engineübergreifend angepasst wird.

Topi41 schrieb:
Das war glaub ich mit DLSS 1.0 so, mittlerweile nicht mehr. Lieg’ ich richtig?
Gut möglich, ich bin da auch nicht mehr so informiert, es muss aber definitiv vorher integriert werden, was eine gewisse Arbeit mit sich bringt, sonst hätten wir das ja in jedem xbeliebigen Spiel (wie es theoretisch irgendwann mal sein soll).
 
  • Gefällt mir
Reaktionen: franzerich
eax1990 schrieb:
DLSS hab ich schon ausprobiert, im Prinzip nix anderes wie die Kantenglättung im Spiel selbst.
Das ist "so" nicht richtig. Das DF Video zu Nioh 2 erläutert sogar, warum und an welchen Stellen die Rekonstruktion der nativen Auflösung überlegen ist, wie es auch der PC Gamer Artikel skizziert.

DLSS 3.0 wird dann, so vermute ich, die erste Implementation sein, welche der nativen Auflösung übergreifend und "pauschal" überlegen sein wird.
Die native Auflösung hat Limits, DLSS nicht.

Spätestens dann verschiebt sich die gesamte Diskussion :)
 
Zuletzt bearbeitet:
Laphonso schrieb:
Abhilfe in 5 Sekunden mit GE:
ALT+F3 und Sharpen, voila :)

Das habe ich auch eine Zeit lang benutzt. Man kann damit sogar auf einem 1400p Monitor in 1080p spielen und es sieht trotzdem scharf und knackig aus.

Man hat aber auch etwas weniger FPS, zumindest mit meiner RTX 2070.
 
  • Gefällt mir
Reaktionen: Laphonso
ergibt Sinn schrieb:
Das habe ich auch eine Zeit lang benutzt. Man kann damit sogar auf einem 1400p Monitor in 1080p spielen und es sieht trotzdem scharf und knackig aus.

Man hat aber auch etwas weniger FPS, zumindest mit meiner RTX 2070.
Ja, kostet eine Handvoll fps, da hast Du recht!

Mittels Sharpen btw kann ich die Hausdachbesetzter und Camper in Modern Warfare viel leichter rauspicken @t3chn0 :D
 
Viel schlimmer finde ich, dass der Filter gefühlt dem Input Lag gewaltig erhöht.

Habe ihn deshalb samt Overlay deaktiviert...
 
Der Inputlag steigt nur beim einstellen an, ist das overlay zu, ist der lag weg!
 
Ich habe bei der Aktivierung von DLSS heftigste Grafikfehler... Insbesondere in Lichtern und spiegelnden Oberflächen wie Visiere
 
  • Gefällt mir
Reaktionen: OzzTheBozz
Ich halte ja von diesen dynamischen Auflösungswischiwaschi kram gar nix.

Entweder man hat genug Power und spielt nativ oder man muss halt Details reduzieren die enorm Leistung verschlingen wie Raytracing.
 
  • Gefällt mir
Reaktionen: (+)
Ihr braucht für sharpening nicht extra GFE, geht seit einiger Zeit auch bequem im Treiber.
 
  • Gefällt mir
Reaktionen: DeMeP und Laphonso
Mumusud schrieb:
Ihr braucht für sharpening nicht extra GFE, geht seit einiger Zeit auch bequem im Treiber.
Guter Hinweis, das klappt auch, aber ich finde das so einfacher im Handling.
 
  • Gefällt mir
Reaktionen: (+)
franzerich schrieb:
Ich dachte es wäre einfach ein ausgefuchster Algorithmus im Treiber, der imstande ist aus den vorhandenen Bildinformationen die fehlenden Bildinhalten "intelligent" zu generieren.



Ok, ich glaub ich hab da was verschlafen bezüglich DLSS...
Heisst das dann, man muss mit dem Internet verbunden sein, wenn man DLSS verwenden will?
Es ist ein Algorithmus im Nvidia Treiber und dieser Algorithmus wurde bzw. wird trainiert in Rechenzentren.
Das Verfahren das Nvidia nutzt ist Deep learning in einem neuronalen Netzwerk... Da gibt es ein einen Main Layer und verschiedene hidden Layer in die das Bild zerlegt wird und durch trainieren in Form von extrem hochaufgelösten Bildern werden die neuronen bzw das Netzwerk trainiert... was dann zu bestimmten Parametern im Algorithmus führt die man dann per Treiber pflegt. Der Algorithmus ist also durchaus im Treiber enthalten nur brauch dieser bestimmte Parameter.
Warum kann man jetzt nicht einfach DLSS im Treiber für jedes Spiel aktivieren? > Weil die Programmierer das NVIDIA Grafik Framework (Schnittstelle) das die relevanten Spieldaten an den Algorithmus des Treibers schickt einbauen müssen, wenn es nicht schon nativ wie jetzt in der unreal Engine vorhanden ist. Irgendwie müssen die Daten und Bewegungsvektoren in den Algorithmus;)
Das ist jetzt ganz grob erklärt, das Thema ist natürlich um ein Vielfaches komplexer... Wer sich dafür interessiert sollte sich das Video mal anschauen
 
  • Gefällt mir
Reaktionen: Laphonso
R4ID schrieb:
Ich halte ja von diesen dynamischen Auflösungswischiwaschi kram gar nix.

Entweder man hat genug Power und spielt nativ oder man muss halt Details reduzieren die enorm Leistung verschlingen wie Raytracing.
Nochmals: Der Rekonstruktionsfilter ist JETZT schon in Teilen und wird zukünftig noch mehr einer nativen Auflösung überlegen sein: Mögen es die Leitungen und Kabel am Horizont sein oder die Schriftzüge an entfernten Schildern am Ende der LOD Render+Texturen Flächen. Das schafft das Grafikrendering klassisch nicht mehr in allen Details. Rekonstruktion schon. Siehe die DF und HU Videos dazu.

Die native Auflösung hat Limits, die eine AI Rekonstruktion nicht hat.

Wir werden zudem Raytracing, das alleine 5 (!) Standardeffekte bietet im Hybridmodell anders nicht bewältigen.
Die Engines werden noch komplexer, die Grafik noch realistischer, wir wollen irgendwann die 4K Transition haben.

Das 2019er RDR2 (lastgen game! )macht ja bereits aus einer 6900XT und einer 3090 nur noch Weichspüler in St.Denis bei Action. 3stellige fps sind da nicht möglich.
Und schau Dir an, welche "Monster" im Formfaktor die 6900XT und 3090 bereits sind.

Die "Power" wird ohne Rekonstruktion immer auf eine Hürde stoßen.
Ob es DLSS ist oder eine andere AI Lösung, sie werden unser Türöffner für 4K, 5K und 8K.
 
  • Gefällt mir
Reaktionen: .Sentinel., (+) und C3LLoX
Topi41 schrieb:
Ok - ich empfehle dringend, sich mit der Materie zu beschäftigen. Diese Aussage macht ungefähr soviel Sinn wie „Nachts ist’s mehr dunkel als draußen“.
Ergänzung ()
Die Aussage macht schon Sinn, ich will damit sagen dass DLSS genauso schlechtes Bild liefert wie die Kantenglättung im Spiel, vllt nicht ganz eindeutig.
Aber von der Brühe die übrig bleibt ist nicht mehr viel zu erkennen.
 
Entweder haben manche komische Einstellungen und finden die Filter und Regler nicht, haben falsch justierte Monitore, die Brille und Kontaktlinsen nicht gereinigt oder sind Zielgruppe jeder Optiker der Gegend. Ich kann mir nicht erklären, dass sogar die Fachpresse, inkl Computerbase, DLSS 2.0 gute und bisweilen sogar - Zitat - "spektakuläre Ergebnisse" bescheinigen (inkl. besser als nativ an manchen Stellen btw) und manche "sehen" da nur "Brühe".
Absurd. Scheint zum Teil auch sehr subjektiv zu sein.

(Edit und P.S. Dass es teilweise "schwammiger" wird, SEHE ich auch. Das Korrektiv hier ist Sharpen. Cyberpunk z.B. ist damit für mich wieder "scharf". Und hat in der Entfernung lesbare Schilder am Horizont, während nativ AA diese Buchstaben "frisst". Aber um eine DLSS "Brühe" zu sehen, muss man die Ursache m.E. "woanders" suchen ;) )
 
Zuletzt bearbeitet:
Wer mit AA nur Brühe sieht, sollte auch mal zum Optiker 🙄
 
  • Gefällt mir
Reaktionen: C3LLoX und Laphonso
Topi41 schrieb:
Ich werd mal ausprobieren, die interne Renderauflösung zu erhöhen und gleichzeitig DLSS auf „Quality“ stellen. Mal schauen was passiert - vielleicht gibt es so eine Möglichkeit, die Bildqualität zu erhöhen und gleichzeitig mehr FPS rauszuholen...
Das habe ich gleich als zweites ausprobiert, aber da wird das Bild irgendwie deutlich unschärfer als bei der nativen Auflösung.
Bin mit Quality-DLSS auf 1440p mit 50% Schärfe ziemlich happy, sieht geringfügig besser aus als das TXAA.

ABER: Man sollte unbedingt (und das gilt für fast alle Games mit DLSS) im Nvidia Profile Inspector das LOD Bias auf -2.00, bzw. -3.00 stellen, da sonst die Texturschärfe deutlich leidet.
Liegt daran weil das Textur-LOD sich immer nach der internen Auflösung richtet und die ist bei DLSS ja bekanntlich geringer.
 
  • Gefällt mir
Reaktionen: Topi41
Und wie aktiviere ich das in den Einstellungen? Hab gestern Abend spontan in den Settings nix gefunden.
 
Zurück
Oben