Bericht Final Fantasy XV: DLSS ist eine Alternative, aber kein Ersatz für Ultra HD

ok ich formulier mal anders. Es is keine reine Kantenglättung, gerade auch weil sie eine andere, niedrigere Auflösung als Basis hat. Man rendert ja eben kein zb 4x höher aufgelöstes Bild um dies dann für AA herzunehmen.

Es könnte auch DLUS heißen, Deep Learning Upscaling ;)

Edit: Soweit ich weiß rechnet man beim klassischen SuperSampling erst ein hochauflösendes Renderbild dass dann downsampled und ausgegeben wird.
Wenn Nvidia hier also von SuperSampling redet dann bezogen darauf dass "offline" (anders als bei richtigem Supersampling) über eben jenes Supersampling die KI angelernt wird um dann ein intelligentes Upscaling zu machen. Die Basis bei der Echtzeitverarbeitung ist aber kein hochauflösendes Bild, sondern gar eins das niedriger aufgelöst ist als der eigentliche Output.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
HyPeR92 schrieb:
Also ich habe es nur kurz getestet auf dem Parkplatz ganz am Anfang des Spieles..

Der Performancegewinn ist schon enorm. Es gab es an besagter Stelle auf dem Parkplatz jedoch eine Stelle die sah in 1440p mit TAA oder 4k ohne jegliches AA deutlich besser aus..

Mit DLSS gab es an der Stelle einen Zaun der auf der Entfernung mit DLSS echt übel flimmerte und Treppenmäßig aussah. (nicht so in 1440p mit TAA und 4k ohne AA).

Für mich ist dann 1440p mit alles auf max immernoch die beste Option in dem Game.. Ich denke auf kurzen Distanzen wirkt DLSS etwas besser, aber in der Distanz kann es schon mal ziemlich mies aussehen.

Getestet hab ich mit meinen 27 Zoll LG Monitor. Mag sein das es auf Entfernung mit einem größeren TV/Monitor besser wirkt, dass habe ich jedoch noch nicht getestet. Das geflimmer is aber das schlimmste.. sowas kann ich mir beim zocken nicht geben, daher dann lieber 1440p mit TAA ;)

Der erwartete große Wurf ist es bis jetzt noch nicht, aber mal sehen wie es sich über die Jahre entwickelt. Ich denke es hat Potential.

Sorry, habe die Sache mal nachgestellt und kann deine Behauptung nicht (oder nur teilweise) bestätigen, denn grade mit 4K-ohne Anti Aliasing sieht das am schlimmsten aus durch die flimmerkanten. Mit TAA sieht es an der Stelle aber besser aus als DLSS. Aber das ist eine der sehr wenigen Stellen. Auf weite Entfernungen, grade bei Gras und Felsen ist DLSS deutlich überlegen. Achja...und hab ich erwähnt, dass es auch deutlich schneller läuft?
Ergänzung ()

pietcux schrieb:
Es wäre nett wenn Shadow of the Tomb Raider mal endlich seinen RTX patch erhielte.

Ich wär schon froh, wenn die Demo nicht immer nach ein paar Minuten abstürzen würde.^^
 
Zuletzt bearbeitet von einem Moderator:
Optisch kann ich aber dennoch keinen eindeutigen Sieger feststellen, mal finde ich es mir DLSS besser, mal ohne.
Als Killer Feature würde ich das jetzt nicht titulieren, was natürlich bleibt ist die höhere Leistung.

Was ich eher skeptisch sehe ist der Umstand das man, einmal mehr, auf NVIDIA´s "Güte" angewiesen ist welches Spiel diese als würdig empfinden einen DLSS Patch zu bekommen.
Wenn NVIDIA die Nase eines Spielentwicklers nicht passt, bekommt er auch keine Rechenzeit in NVIDIA´s Super Duper Deep learning Rechenzentrentren.
 
Lübke82 schrieb:
Sorry, habe die Sache mal nachgestellt und kann deine Behauptung nicht (oder nur teilweise) bestätigen, denn grade mit 4K-ohne Anti Aliasing sieht das am schlimmsten aus durch die flimmerkanten. Mit TAA sieht es an der Stelle aber besser aus als DLSS. Aber das ist eine der sehr wenigen Stellen. Auf weite Entfernungen, grade bei Gras und Felsen ist DLSS deutlich überlegen. Achja...und hab ich erwähnt, dass es auch deutlich schneller läuft?
Ergänzung ()



Ich wär schon froh, wenn die Demo nicht immer nach ein paar Minuten abstürzen würde.^^
Bei dir stürzt die Demo von SOTTR ab? Ich hab das Game gekauft, das läuft super.
 
Ja, leider. Sowohl im Benchmark als auch wenn ich das Spiel starte. Habe den Treiber 417.42 aber schon drauf wo der Fehler auftritt. Denke mal es liegt an dem. Werde auf den nächsten Treiber warten und das Ganze dann nochmal probieren. Es kommt immer eine Fehlermeldung über DXR.
 
Na ich schau heute Abend mal ob ich jetzt das gleiche Problem habe.
 
@Krautmaster
Das ist doch herzlich egal was im Detail dahinter steckt.
Es wird als solches verkauft und muss sich deshalb auch den Vergleich gefallen lassen, erst recht wenn dafür auch noch ein 4K Display erforderlich ist weil es es mit festen Auflösungen arbeitet und es keine anderen Profile für geringere Bildschirmauflösungen gibt.
Ich könnte das auch noch weiter auslegen aber das wurde ja schon oft genug geschrieben.
 
Wadenbeisser schrieb:
@Krautmaster
Das ist doch herzlich egal was im Detail dahinter steckt.
Es wird als solches verkauft und muss sich deshalb auch den Vergleich gefallen lassen, erst recht wenn dafür auch noch ein 4K Display erforderlich ist weil es es mit festen Auflösungen arbeitet und es keine anderen Profile für geringere Bildschirmauflösungen gibt.
Ich könnte das auch noch weiter auslegen aber das wurde ja schon oft genug geschrieben.
Na ja versprochen ist schon, dass solche Fehler von der Analyse durch AI ausgeschlossen sind. Da sollten automatisch Glättungen erfolgen, wo nötig. Das kommt schon noch. Hat der gute Jensen so versprochen. Ich glaube das auch immer noch.
 
Turrican101 schrieb:
Kantenglättung ist für mich das Letzte, das ich bei nem Spiel einschalte oder austeste. Lieber bessere Effekte und mehr Details als saubere Kanten, die einem im Spiel eh nicht auffallen...
DrFreaK666 schrieb:
Klar. Flimmern fällt nicht auf... Du spielst dann bestimmt in 720p
Flimmern tut es meist wenn man hohe AF Modi nutzt.
Intelligente Kantenglättung würde schon ausreichen, aber das schaffen sie seit 20 Jahren scheinbar nicht.
 
Pixel Matsch flimmert eben nicht. *g*
Je feiner die Details desto schwerer wird die Glättung weil man nicht so viele Pixel zum kompensieren hat und da die Strukturen mit zunehmender Entfernung immer feiner werden.....irgendwann sind für das Antialiasing ganz einfach nicht mehr genug Pixel zum arbeiten übrig und die Pixelkanten rollen durch.
Da hilft dann nur eine möglichst hohe Pixeldichte/Auflösung um den AA wieder genug Platz zum arbeiten zu verschaffen oder die Pixel so klein werden zu lassen das es nicht so auffällt.
 
Wadenbeisser schrieb:
@ZeroZerp
Schön das du dir wieder Mühe gegeben hast nicht auf die angesprochenen Punkte einzugehen und möglichst unkenntlich zu machen an welcher Stelle es aufgenommen wurde.

Hier die besagten Punkte aus der Szene des Videos:

Ansicht beim Abbiegen bei 1:29
Anhang anzeigen 734899

Ansicht auf dem Parkplatz bei 1:32
Anhang anzeigen 734900

Gerade im ersten Bild sieht man auch das schlechte Ergebnis der Kantenglättung beim hell - dunkel Kontrast im Bereich der Sonnenblenden, was im bewegten Bild durch die durchlaufenden Treppchen noch deutlich schlimmer aussieht.

Was bist du denn für ein Held ???
Es gibt auch Stellen an denen DLLS „besser“ aussieht. Was du machst ist doch Cherrypicking.

DLLS ist nicht perfekt, das sagt auch der Artikel.
Aber es ist eine Technik die nice ist, wenn die Leistung für echtes 4K nicht reicht, und um trotzdem annehmbar in 4K zu spielen.
Immerhin schiebt Nvidia neue Technologien mal an, davon träumt AMD doch.
 
ralf1848 schrieb:
[...]
Immerhin schiebt Nvidia neue Technologien mal an, davon träumt AMD doch.

Was hat das denn mit AMD zu tun?
 
@ralf1848
Ich bin einer der "Helden" die durchrollende, kontraststarke Pixelkanden im direkten Blickfeld erheblich mehr stören als welche die man irgendwo im Hintergrund bald mit der Lupe suchen muss und genau da versagt DLSS in dem Video auf ganzer Linie.

Wenn die Leistung für volle 4K nicht reicht dann gibt es laut Aussage einiger User eine ganz einfache Möglichkeit die scheinbar auf ein ähnliches Ergebnis kommt und erheblich flexibler einsetzbar ist....die Auflösung eine Stufe zurück schalten + TAA.

Bei einem muss ich dir aber recht geben, von so einer Technologie kann AMD nur träumen denn es würde angesichts der teils massiven Nachteile sofort in der Luft zerrissen werden.
 
  • Gefällt mir
Reaktionen: bad_sign
Soweit ich mich erinneren kann hatte AMD schon vor Jahren eine Kantenglättung die intelligenter glätten sollte.
Also bei Objekten halt nur die Ränder um sie besser in den Hintergrund einzugliedern.
Aber irgendwie funktioniert das immer noch nicht so richtig.
Ich sehe das in einigen Games. Wenn sich das Objekt bewegt sind die Ränder weniger sichtbar.
Aber wehe eine Figur steht total still.. Dann hagelt es nur so von Treppenstufen was sehr hässlich ist.

Es liegt aber sicher auch an gewissen Engines.
Bei manchen wirkt sich das bei gleichen Einstellungen nicht so schlimm aus.
Sinnvolles AA ist wahrscheinlich sehr schwierig zu integrieren.
Denn warum sollte man das gesammte Bild verwaschen wo es nur bei gewissen Stellen sinnvoll wäre.
 
@Wadenbeisser:

Die Idee, durch KI trainierte Algorithmen das Upscaling so gut zu machen, dass man keinen Unterschied zu 4K sehen kann ist schon neu. Und auch wenn es jetzt noch nicht besser funktioniert als normales Upscaling von 1800p rauf so wird man doch zumindest Erfahrungswerte sammeln und mit der Zeit immer besser werden. Das ist, soweit ich das verstanden haben, die Idee hinter der KI.

Für mich ist DLSS angesichts der Alternativen einfach ein proof of concept was schon sehr gut läuft. Geld würde ich dafür jetzt keins ausgeben. Interessant wird es erst wenn es dann mal wirklich besser ausschaut als normales Upscaling.
 
NVidia stellt sich hier wiedermal selbst ein Bein.

1. Wieso muss das vom Spiel unterstützt werden?
Es handelt sich soweit ich weiß um Post-Processing, welches auf das fertige Bild angewandt wird.
Das könnte eigentlich ein Feature sein, welches man bei jedem Game verwenden kann. Das "Deep Learning" kann man auch allgemein machen ... muss man eben zusehen, das man alles übliche abdeckt. Wäre eh besser. Man trainiert den Algorithmus über die Zeit dann mit immer mehr Material aus unterschiedlichen Spielen und er wird allgemein immer besser.

2. Wieso keine temporale Komponente?
Flimmern ist einfach mega nervig und temporales AA funktioniert schon ohne Deep Learning mitunter sehr gut (das bei FF ist wohl eines der eher schwächeren Sorte).
Wieso also kein TDLSS? Wäre langfristig imo die interessantere Variante.

3. Das Ganze sollte so gemacht sein, daß der Algorithmus mit jeder nur erdenklichen Auflösung funktioniert.
Dann könnte man im NVidia-Treiber als Scaling DLSS auswählen, und dann beim Spiel einfach gucken, wie hoch man die Auflösung stellen kann, und das DLSS skaliert das dann hoch und korrigiert es nach den durch xx-fach SuperSampling angelernten Mustern.

Also Idee gut ... Umsetzung mau ... Qualität bislang nur vielversprechend für die Zukunft.
Aber wenn das so restriktiv bleibt, wird es ein Nischendasein fristen. TXAA war seiner Zeit auch eine durchaus gute Technik (war ja eines der ersten temporalen AAs), aber wurde eben kaum genutzt. Wenn das mit DLSS auch wieder so ist, ist es zwar in der Theorie ein tolles Feature, in der Praxis aber kein Grund, sich eine NVidia Karte zu kaufen.
Bei der Ankündigung davon war ich ein wenig gehyped ... jetzt eher ernüchtert.
 
@Sun-Berg
Unterm Strich ist es in meinen Augen lediglich ein Upscaling Filter mit optimierbaren Algorithmus.
Ein ähnliches Konzept verfolgte AMD meiner Meinung nach beim optimierten Tesselationsmodus, bei dem die Leistung erhöht wurde indem die Tesselation so begrenzt wurde das kein sichtbar Unterschied da sein sollte.
Wurde das nicht von diversen Usern als Cheating bezeichnet? Wieviele von denen laufen jetzt gegen meine Kritik am DLSS Ergebnis sturm?
 
Wadenbeisser schrieb:
Wieviele von denen laufen jetzt gegen meine Kritik am DLSS Ergebnis sturm?
Kein einziger? Das ist ja das merkwürdige, dass Du um Dich schlägst, obwohl Dir alle Recht geben, dass es vereinzelt schlechter aussieht und teilweise verbugt ist.

Nur halt in einem Punkt nicht und zwar dass DLSS grundsätzlich schlechter aussieht als Nativ 4K+TAA. Das tut es nachweisbar nicht.
Und Vorteil einer KI ist ja gerade explizit, dass sie durch weiteres Lernen irgendwann weiss, wie es besser geht.
 
  • Gefällt mir
Reaktionen: Lübke82
Eine echte KI bräuchte man gar nicht erst trainieren. Denn sonst ist sie gleich keine Intelligenz.
Einer echten KI gehören nur Regeln vorgegeben und sie muss selbst entscheiden was besser aussieht und schneller ist.
Aber das ist alles Wunschdenken und somit ist KI eher KO.
Klingt nur gut und Politiker/Konzerne haben wieder ein neues Wort entdeckt womit sie hip klingen können.
Bis jetzt ist mir noch nichts untergekommen was einer echten KI entspräche.
 
Zurück
Oben