Notiz Nvidia: Unity-Engine erhält dieses Jahr DLSS „Out of the box“

@domian

Das sieht also schlechter aus als zum Beispiel Control, welches nur von seinen Effekten lebt? Guck dir mal an was die UE nur mit Quixel erreicht. Dieses abgespeckte was wir als "Game" bekommen ist ein Witz.


Verwechsle auch bietet nicht cineastische Inszenierung in Zwischensequenzen mit dem eigentlichen Spiel. DoF macht in Szenen für die Zwischensequenzen Sinn. Ist auch eine gängige Technik in Filmen, aber diese wird nicht in totalen angewendet. Bestes Beispiel ist Grounded. Das sieht ohne Blur und DoF besser aus. Ist nicht so das jeder Mensch ein Maulwurf ist und nur 10 Meter weit sehen könnte, bevor alles verschwommen ist.
 
  • Gefällt mir
Reaktionen: cruse und LukS
  • Gefällt mir
Reaktionen: Selber
Bei den neueren Implementierungen von DLSS ist es bei mir immer auf an (Modus Qualität).
Ich muss schon sehr genau vergleichen um Unterschiede zu sehen, im Spielfluss fällt es mir nicht mehr auf und ich muss in den Optionen nachgucken ob DLSS jetzt an oder aus ist.
Bei Titeln mit Raytracing bringt es die nötigen FPS, bei Spielen wo ich ohne spiele (zB. COD Cold War) und die FPS eh begrenze, senkt es den Stromverbrauch und die GPU bleibt wesentlich kühler.
Sozusagen ein Eco-Modus für Grafikkarten.
 
  • Gefällt mir
Reaktionen: JohnnyTexas
Schalk666 schrieb:
Kleiner Newsflash für dich, auf den Konsolen gibt es schon seit Jahren Upscaling Verfahren. Die PS4 nutzt zB in so gut wie jedem First Party Titel das Checkerboard Rendering. Ist natürlich nicht das gleiche aber du redest ja allgemein von Upsclaing. Mwn nutzt die XBox ein ähnliches Verfahren. Und trotzdem wird DLSS immer stärker unterstützt obwohl es das gibt, also spannende "Prognose" von dir.

Und für viele Leute ist der Software Stack ein wichtiges Einkaufskriterium. Bei Nvidia bekommt man durch DLSS deutlich mehr Leistung und die Qualität wird teilweise, je nach implementation, sogar besser. Für mich sind mehr Leistung (wodurch dann auch RT 4k 60 FPS möglich sind) und bessere Qualität durch ein Softwarefeature, was keine Leistung kostet, ein besseres Argument als 30 GB VRAM oder whatever, aber jedem das seine. Mit viel VRAM kann man ja so sinnvolle Sachen machen wie DOOM in den Speicher installieren, schon sau wichtig,
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: MoinWoll, JohnnyTexas und Naitrael
Conqi schrieb:
HDRP ist aber auch noch recht neu, also vielleicht ändert sich das mit kommenden Spielen. Man wird sehen.
Meines Wissens nach ist tatsächlich noch kein Spiel erschienen, welches die HDRP nutzt, bisher sind da nur Tech Demos gerausgekommen und ja, es ist auf jeden Fall ein großer Aufwand, ein Spiel darin sinnvoll aufzubauen.
Dass bereits erschienene Spiele die Render Pipeline wechseln, halte ich für extrem unwahrscheinlich, da diese Spiele meistens nicht von großen Teams gemacht werden und auch hier der größte Aufwand von der kostenintensivsten Abteilung betrieben werden müsste.

Hinzu kommt, dass niemand bei Verstand die aktuellste Unity-Version zur Produktion nutzt und bis zur Reife von DLSS in Unity auch noch Zeit vergehen wird.
Also ich rechne damit, dass frühestens ab 2023 die ersten Unity-Spiele mit DLSS erscheinen werden.
 
  • Gefällt mir
Reaktionen: ThomasK_7
shoKuu schrieb:
Das sieht also schlechter aus als zum Beispiel Control, welches nur von seinen Effekten lebt? Guck dir mal an was die UE nur mit Quixel erreicht. Dieses abgespeckte was wir als "Game" bekommen ist ein Witz.
Problem ist nur: Du forderst z.B. Ultra-High-Poly Models und Texturen in 4K+ Auflösung - welche Grafikkarten sollen das in UWQHD oder 4K mit mindestens 60fps (oder mehr) in einem modernen Titel stemmen? Die gibt es heute noch gar nicht - nicht mal eine 3090 kann jedes Spiel nativ in 4K mit 60fps+ befeuern. Und das ein Spiel flüssig läuft ist der primäre Anspruch der meisten Spieler.

DLSS ist primär kein Feature zur Qualitätsverbesserung (Wobei durch KI-Upscaling, und es wurde z.B. hier auf CB und auf etlichen anderen Plattformen in diversen Tests bereits gezeigt,dass gerade bei DLSS 2.0 in der Einstellung "Qualität" sogar ein schärferes Bild und schärfere Texturen möglich sind - Voraussetzung ist eine sehr gute Implementierung von DLSS) sondern ein Feature um die Performance bei möglichst wenig Qualitätseinbußen zu verbessern - und das funktioniert imho so gut, dass AMD krampfhaft versucht ein ähnlich gutes Feature aus dem Boden zu stampfen, Spieler es zuhauf nutzen und immer mehr Softwareentwickler das Feature implementieren, da ihre Spiele sonst in WQHD, UWQHD oder gar 4K auf Mid-High-End Hardware nicht durchgehend flüssig spielbar wären - was sicherlich meistens auch an der schlechten Optimierung liegt, die heutzutage ja usus zu sein scheint - aber das ist ein ganz anderes Thema/andere Baustelle.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cruse, MoinWoll, JohnnyTexas und 3 andere
Marcel55 schrieb:
Wenn es so einfach ist und die Unreal Engine das bereits unterstützt, warum hat dann nicht jedes Spiel das die UE4 nutzt auch schon DLSS Support?
Das Ganze gibt es jetzt seit einigen Wochen. Denkst du ernsthaft, dass jetzt jedes Studio plötzlich für teilweise Jahre alte Spiele noch DLSS nachliefert, die auch noch ältere Versionen der UE4 nutzen? Da geht es hauptsächlich um neue Spiele wie z.B. perfect new world
 
  • Gefällt mir
Reaktionen: MoinWoll
Ist eine Feine Sache zumindest bei 4k auf dem Fernseher. Da sieht man wirklich kaum unterschiede und hat deutlich mehr FPS / oder verbraucht weniger strom....


In Full HD am PC monitor sieht man dann doch schon Defizite in der Bild Qualität.

Trotzdem hoffe ich das sich DLSS durchsetzt . Verlängert auch die Lebensdauer der GPU bis die Power wieder ausgeht
 
  • Gefällt mir
Reaktionen: JohnnyTexas
Pain_Deluxe schrieb:
In Full HD am PC monitor sieht man dann doch schon Defizite in der Bild Qualität.
Für FHD macht DLSS keinen Sinn, aber:
Anstatt nativ in FHD zu spielen, gehe via DSR auf 1440p und nutze dafür dann DLSS. Das ist deutlich besser als nativ FHD.
 
  • Gefällt mir
Reaktionen: Pain_Deluxe, MoinWoll und Klever
Tornavida schrieb:
Derweil finde ich DLSS richtig gut und wünsche mir das Pendant von AMD möglichst bald.
Ich schätze es wird erst kommen wenn MS directML in Windows integriert, da es darauf aufbauen soll. Was sie bis Ende des Jahres machen wollen.
 
@kaxi-85
Es sieht schärfer aus weil man Sharpening verwendet. Wenn du das gleiche beim nativen Bild machen würdes, dann wäre das Bild sichtbar besser als mit DLSS. Kannst auch Auflösung Scaling auf 90% stellen und dann Sharpening verwenden. Das Ergebnis ist dann auch ein "etwas schlechteres" Bild mit Performance Gewinn.
Ich will mit meiner Kritik nur sagen, dass alle etwas "feiern" was eigentlich erstmal schlecht ist. Das Marketing verkauft es halt gut und die meisten freuen sich über 20 FPS mehr, weil das für jeden persönlich mehr trägt.

Früher war AA Pflicht um Kantenflimmern zu verhindern, heute werden halt mehr Techniken übereinander gelegt. Es wird halt immer mit mehr Tricks ein ähnliches Bild nachgebaut, anstatt nativ etwas vernünftiges zu machen. Ist auch der absolut logische Schritt der Industrie. Kleine Makel kann man kaschieren, die Produktion kann billiger werden, weil man mit Post Processing viel raus holen kann, usw...

Auch kann man jetzt LOD umsetzen, um dann mit DLSS mehr raus zu holen. Letztendlich wird auch hier nur der letzte Cent mehrfach umgedreht. Aus diesem Grund bauen halt alle das ein. Nicht um den Usern einen gefallen zu tun.
 
Northstar2710 schrieb:
Ich schätze es wird erst kommen wenn MS directML in Windows integriert, da es darauf aufbauen soll.
Sagt wer? Zum einen sagte Herkelman, dass sie keinen AI Approach verfolgen. Zum anderen soll es auch auf der PS5 funktionieren. Beides spricht gegen DirectML. Und da wäre dann auch noch Vulkan..
 
  • Gefällt mir
Reaktionen: MoinWoll
shoKuu schrieb:
@kaxi-85
Es sieht schärfer aus weil man Sharpening verwendet.
Ich dachte immer, dass das Bild bei DLSS via Algorithmus hochgerechnet wird - KI basiert dem jeweiligen Inhalt angepasst - das ist ja kein einfaches "Sharpening". Bei DLSS, wie z.B. aktuell bei Adobes Super Resolution auch, werden hochskalierte Bilder nicht einfach nachgeschärft sondern Details ergänzt/hervorgehoben.

Einfaches Hochskalieren (Render-Auflösung reduzieren) und dann nachschärfen geht ja schon seit Jahren (Jahrzehnten) und sieht meiner Meinung nach deutlich bescheidener aus. Daher halte ich DLSS auch "erstmal für nicht schlecht" - gerade weil es in vielen Titeln spätestens sobald sich das Bild bewegt gar nicht so einfach ersichtlich ist ob DLSS (zumindest in der Stufe Qualität) an ist oder nicht.
 
  • Gefällt mir
Reaktionen: MoinWoll
Maggolos schrieb:
Erfreulich, dass es immer mehr Entwickler einbauen. Damit ist der Traum von 4K mit 144Hz irgendwann mal möglich :)
Es ist jetzt schon möglich outrriders mit rtx 3090 und dlls
 
  • Gefällt mir
Reaktionen: MoinWoll
Ich persönlich finde ja die Rekonstruktion mit DLSS am spannendsten. Einfach Dinge sehen können, die mit nativer Auflösung nicht da wären, weil einfach zu wenige Pixel vorhanden sind, um die Information zu beinhalten.

Dennoch ist die Hälfte des DLSS Features (x2) immer noch nicht erschienen. Dabei war das mal mein Hauptgrund, eine 2080ti zu kaufen und nicht was günstigeres.
 
  • Gefällt mir
Reaktionen: MoinWoll
AMD muss jetzt echt aufpassen, dass sie in dieser Technologie nicht noch weiter den Anschluß verlieren...
AMD hat ein Riesen-Glück, dass die Verfügbarkeit der GPUs generell ganz mau ist.
Der Feature-Überhang bei NVidia ist einfach nur extrem im Moment (DLSS, RTX, Streaming- und Voice Features usw).

Wenn Nvidia es schafft, DLSS nativ in populäre Engines zu packen, dann MUSS AMD jetzt schleunigst nachziehen mit Ihre Technologie, denn die nächste Generation GPUs steht auch schon wieder an. Die Verlierer sind bei "Monopolen" häufig nur wir, die Kunden.

@shoKuu
Guckst du hier...
DLSS 2.0 ist richtig gut. DLSS 1.0 war eher mau.
Teilweise ist die Bildqualität mit DLSS 2.0 besser als die native DLSS Upsample ursprüngliche Qualität.

Kannst ja den Blind-Test mal selber machen, ich hätte nicht sagen können, was was ist ehrlicherweise... ab Minute 5.30 ca.

1618501866866.png


Das ist schon echt ein Killer-Feature!

vg Chris
 
  • Gefällt mir
Reaktionen: cruse und MoinWoll
Moep89 schrieb:
Was ist RT denn sonst? Vorallem angesichts des Leistungsverlustes?

Was ist das für ein Argument? Als ob andere Effekte keine Leistungsverluste haben, manchmal sogar ohne sichtbare Veränderungen.
Übrigens auch bei Raytracing gibt es Regler und Abstufungen. So kann jeder für sich selbst entscheiden welche Effekte und in welchem Umfang den Leistungsverlust wert sind.

Vor allem wird immer der Optimalfall erwähnt den es so doch schon lange nicht mehr gibt.
Es werden intern so viele Dinge schon nicht in voller Auflösung berechnet und Tricks angewendet, damit Spiele performant laufen.
DLSS sieht nicht umsonst oft besser aus als das native Bild. Da gibt es auch zu Hauf vergleiche die genau das zeigen.
DLSS ist nicht perfekt, genauso wenig Raytracing, aber entsprechend umgesetzt, sehe ich für mich keinen Grund darauf zu verzichten.

Moep89 schrieb:
Ich bevorzuge auch hochaufgelöste, scharfe Details ggü. irgendwelchen überbordenden Effekten.

Mich würde gern interessieren, welche Spiele du mit Raytracing gespielt hast. Klar wird da gern übertrieben, das was ich bisher gesehen habe, hat mich aber überzeugt. Für mich persönlich profitieren einige Spiele enorm davon und genau deshalb lasse ich die Effekte inklusive DLSS an.

Wenn es dich nicht überzeugt musst es ja nicht nutzen, ist doch für alle Seiten gut.
 
  • Gefällt mir
Reaktionen: MoinWoll
evilhunter schrieb:
Was ist das für ein Argument? Als ob andere Effekte keine Leistungsverluste haben, manchmal sogar ohne sichtbare Veränderungen.
Aber in aller Regel nicht annähernd in dem Umfang. Zumal es ja auch darauf ankommt was für "Effekte" es sind. AA kostet auch Leistung, ist aber im Gegensatz zu RT, etwas, was die grundlegende Bildqualität verbesser (sofern korrekt ausgeführt). Vergleichbar mit RT wäre dann eher sowas wie Motion Blur, Lense Flare usw. Und solche Dinge fliegen bei mir auch als erstes raus wenn ich ein Spiel erstmals starte.
RT an sich ist ja im Grunde gar kein Effekt sondern eine Art des Renderings, eine Alternative zum Rasterizing, wird aktuell aber fast ausschließlich für Beleuchtungs- und Reflektionseffekte verwendet. Und ich bevorzuge ganz klar ein absolut hoch aufgelöstes, klares Bild ggü. einem mit tollen Beleuchtungseffekten.

Wenn RT irgendwann mal "Standard" wird und nicht mehr alternativ zum Rasterizing und mit großem Leistungsverlust eingesetzt wird, ändern sich die Dinge sicherlich. Aber das hat dann mit RT von heute auch nicht mehr viel zu tun.


evilhunter schrieb:
Mich würde gern interessieren, welche Spiele du mit Raytracing gespielt hast.
CP2077, Dirt5, MW 5, SoTR und sicher noch mehr. Bei keinem einzigen Titel war mir die Optik den Verlust an FPS wirklich wert. Ich würde stattdessen eher von WQHD auf UHD mit der Auflösung hochgehen, aber dafür sind mir selbst die aktuellen Grakas zu schwach. Unter 80-90 Hz/FPS möchte ich die wenigsten Spiele spielen und das ist mit nativem UHD schon ohne RT sehr schwer.
 
Neubauten schrieb:
Mit Verlaub: Was für Unsinn.
Na dann erzähl mal was RT aktuell so alles tut, über "Effekte" hinaus.
 
Zurück
Oben