Bericht Final Fantasy XV: DLSS ist eine Alternative, aber kein Ersatz für Ultra HD

Schrank schrieb:
Mit einer anderen Kantenglättungsmethode, wie SMAA, würden sicher auch manche einzelne Details besser aussehen als mit TAA,
Ja- Wobei dann die Performance auch wieder stärker beeinträchtigt würde...

Wie Du schon sagst- Es hat alles seine Vor- und seine Nachteile
 
Hm... das kann man mit DLSS auf UHD absolut vergessen weil es statt 3840x2160 nur noch auf 2560x1440 heruntergerechnet wird was zu Leistungssteigerung führte auf Kosten der Bildqualität (Treppeneffekte usw.) Die Benchmarksergebnisse in Nvidia's Folie gehört disqualizifiert weil es kein echtes 3840x2160 ist.

Habe den Treppeneffekt im GamersNexus Video schon mal angesehen, dazu die weit entfernten Objekte.
 
es geht ja eben auch genau darum, eben nicht "echtes 3840x2160" zu rechnen.

Nvidias Folie scheint eher stumpf auf 1440p kalkuliert zu sein ohne den Deep Learing / Merging Overhead mit einzubeziehen. Sehr optimistisch. Nvidia scheint da selber wenig Ahnung gehabt zu haben wie gut die Sache skalieren kann oder wird.
Man sieht ja jetzt schon dass 1440p nochmal ne ganze Ecke schneller ist als DLSS mit interner 1440p Auflösung. Sofern es NV schafft diesen Abstand zu reduzieren wird DLSS natürlich deutlich interessanter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SVΞN
pietcux schrieb:
Ist genau wie bei Raytracing. Das muss man selber am eigenen PC ingame sehen um es wirklich beurteilen zu können. YouTube und Standbilder bringen nichts.
Das hat man doch in dem Vergleichsvideo gesehen und ich empfand das Ergebnis als geradezu vernichtend weil zu viele zu offensichtliche Schwachstellen sichtbar waren. Dafür muss man nun wirklich nicht erst die Kohle für die Karte auf den Tisch legen.
Ergänzung ()

Mordekai2009 schrieb:
Die Benchmarksergebnisse in Nvidia's Folie gehört disqualizifiert weil es kein echtes 3840x2160 ist.
Deshalb nicht sondern weil es qualitativ nichtmal ansatzweise mithalten kann.
Das ist eher so wie die Erkenntnis dass man mit gesenkten Details die Performance erhöhen kann, wobei ds womöglich noch effektiver wäre.
 
Zuletzt bearbeitet von einem Moderator:
ganz so vernichtend sehe ich das jetzt nicht. Schaut man sich die CB Szene an so geb ich dir Recht, am ehesten fällt die Sache bei den Sonnenblenden und dem hohen Kontrast bei eben jener auf (Treppenbildung). Hier gilt es dann zb die Gewichtung beim Deep Learning Modell etwas zu ändern damit diese Treppenbildung ein größeres Delta zum Soll darstellt, die Engine also lernt das effektiver zu glätten. Abseits davon sehen Texturen teils deutlich besser aus - während die entfernten unscharfen Objekte teils etwas an Details einbüßen.

Das mit den Sonnenblenden ist in der Szene sehr dominant, kann mir aber vorstellen dass dies in anderen Titeln absolut gar kein Problem darstellt. Im Gegenteil, bei Schlauchleveln wie Alien oder Doom kann ich mir vorstellen dass DLSS ein super Upgrade für die Texturen darstellt und sogar noch höhere FPS liefert.
 
Wadenbeisser schrieb:
Das hat man doch in dem Vergleichsvideo gesehen und ich empfand das Ergebnis als geradezu vernichtend weil zu viele zu offensichtliche Schwachstellen sichtbar waren. Dafür muss man nun wirklich nicht erst die Kohle für die Karte auf den Tisch legen.
Ergänzung ()


Deshalb nicht sondern weil es qualitativ nichtmal ansatzweise mithalten kann.
Das ist eher so wie die Erkenntnis dass man mit gesenkten Details die Performance erhöhen kann, wobei ds womöglich noch effektiver wäre.

Seeing is beliving. Ich bin viel in der Audio Szene unterwegs. Da mußm man letzendlich auch manches kaufen um es wirklich selbst einordnen zu können. Es is eine Sache in einem Video oder auf Bildern auf die Fehlersuche zu gehen, oder selber im Game rumzulaufen und es sozusagen zu erleben. Das gilt nach meiner Erfahrung für Raytracing mit Sicherheit, weil ich es halt an- und abschalten kann. Wie es mit DLSS aussieht kann ich nicht beurteilen, weil ich das eine Spiel welches es gibt schon im Benchmark inhaltlich kaum ertragen kann und weil ich keinen 4K Monitor besitze.
 
joa, ich mein Anime Games wo man mit ner Gruppe offensichtlich warmer Brüder wie auf Schienen in Autos durch die Landschaft cruised sind auch nicht so meins. Ich weiß schon wieso ich FF bisher immer schön ausgelassen habe.

Ich bin eher mal gespannt welche Titel bei DLSS noch so kommen. Wenn man sich nur mal überlegt wie viel verschiedene Ansatzmöglichkeiten bei diesem DLSS denkbar sind, schon allein weil dieses Neuroale Netzwerk dazwischen + ne Nachbearbeitung zum neuen Bild vollkommen austauschbar ist. Man wird sich immer fragen "was ist der geeignete Input" und was kommt am Ende bei raus. Nvidia kann vermutlich kaum jeden Pixel mit RGB als Input nehmen oder? Geht das rein vom Tensor Durchsatz überhaupt? Das sind ja 3,5 Mio Pixel, a RGB usw...
Nimmt man noch die Zeit mit rein müsste man gar mehr als ein Bild durchs Netzwerk jagen oder rückkoppeln.

Sofern das wirklich geht ... sind dann wieder 3,5 Mio * X Ausgänge vorhanden die das fertige Bild definieren? Wohl kaum. Es dürfte wohl eher eine Art Kantenerkennung fürs ganze Bild sein, und diese Kanten werden dann gezielt nachgearbeitet (zb TAA nur an Pixel Kanten?) und dann ausgegeben. Dabei ist es dann Sache des neuralen Netzwerkes zwischen Textur und Kante zu unterscheiden.

Ich denke bei sowas kann ein einfaches Netzwerk effizienter sein wie ein hochkomplexes. Da wird auch je nach Ansatz massiv viel Varianz in der Effizienz der Umsetzung drin sein. So ein Projekt bietet sich ein dafür an z.B. 3 Teams komplett unabh. daran arbeiten zu lassen und danach die Ergebnisse zu vergleichen.

Nvidia beschreibt das so:

To train the network, we collect thousands of “ground truth” reference images rendered with the gold standard method for perfect image quality, 64x supersampling (64xSS). 64x supersampling means that instead of shading each pixel once, we shade at 64 different offsets within the pixel, and then combine the outputs, producing a resulting image with ideal detail and anti-aliasing quality. We also capture matching raw input images rendered normally. Next, we start training the DLSS network to match the 64xSS output frames, by going through each input, asking DLSS to produce an output, measuring the difference between its output and the 64xSS target, and adjusting the weights in the network based on the differences, through a process called backpropagation. After many iterations, DLSS learns on its own to produce results that closely approximate the quality of 64xSS, while also learning to avoid the problems with blurring, disocclusion, and transparency that affect classical approaches like TAA.

passend dazu
 
Zuletzt bearbeitet:
@pietcux
Sorry aber meine Sehkraft müsste schon erheblich nachlassen um Sachen wie die durchlaufenden Polygonenkanten und den fabrizierten Pixel Matsch im Hintergrund und an feinen Strukturen wie dem Gestrüpp zu übersehen aber dann bräuchte ich auch keine Kantenglättung mehr.

Das schlimmste daran ist ja auch noch dass vieles davon im direkten Blickfeld stattfindet und nicht nur irgendwo am Rand. Hat man das erstmal gesehen fällt einem auch ganz schnell der Rest auf, da hilft dann noch nicht einmal mehr der Tunnelblick beim Spielen.

Bei mir fing es beispielsweise mit den durchlaufenden Kanten bein Sonnenblenden in der Autoszene an, setzte sich bei denb ganzen anderen flimmer Kanten in und am Auto fort und als nächstes waren die Straße, der Straßenrand und dann der Hintergrund dran und die Enttäuschung wurde immer größer. spätestens das Pixel Matsch Gestrüpp wurde dann zum absoluten game braker, auch ohne den direkten Vergleich.
Unterm Strich sieht es einfach aus als hätte man die Details mindestens 2 Stufen zurück geschraubt und mit ein paar Grafikfehlern wie dem Pixel Matsch und den überzogenen Blendeffekten an den Kanten garniert, welche der Grafik and en Stellen einen gewissen Borderlands Touch "verleihen".
Ergänzung ()

@Krautmaster
Solange DLSS ohne Zusatzkosten nutzbar sein soll halte ich die Möglichkeiten für sehr überschaubar, weshalb es mich nicht wundern würde wenn die fortlaufende Aktualisierung auf Dauer ein kostenpflichtiger Dienst wird.
 
das teure an DLSS ist die Computing Power die aktuell Nvidia anwenden muss - siehe Video davor. Deswegen dauert das vermutlich auch so gefühlt ewig bis andere Titel nachziehen.

Denke auf absehbare Zeit könnte durchaus Zeros Ansatz kommen, dass quasi dein Client mit Geforce Experience einen Teil dieser Berechnung übernimmt. Sei es zb diese backpropagation für ein Testsample.

Da die Methodik sofern das Network steht erstmal immer dieselbe ist fällt eigentlich nur noch Computing Power an, keine sonstigen sonderlich hohen Kosten oder Implementierungsaufwände. Dein Client erhält eben je nach Game und Auflösung die passenden "Gewichtungen" für das Neural Network und wendet diese stupide an.
Ergänzung ()

P.S.: Die Idee dahinter eine KI (mag das wort nicht) - sagen wir "Deep Learning" für Bild Nachbearbeitung herzunehmen ist wie ich finde genial und absolut sinnig.

Damit lassen sich wirklich coole Sachen machen die nie auch nur ansatzweise sinnvoll auf klassischem Weg programmierbar wären. Fast alles hingehend Deep Learning hat ja mit Bilderkennung oder Bildnachbearbeitung (Smartphones) zu tun.

Man könnte damit ggf auch sowas wie Zwischenbilder berechnen und sei es nur für den Raytracing Anteil. Macht heute ja jeder TV.
 
Zuletzt bearbeitet:
Hmm.... was mir bei den riesen Turing-Dies immer durch den Kopf geht. Man hat ja ca 35% der Fläche für RT-und Tensor-Cores verbraten. Gegenüber nativem 4k ist DLSS ca. 20% schneller. Es klappt aber nur mit Spielen, die vorher antrainiert worden sind und die Bildqualität ist auch noch etwas schlechter als natives 4k.

Jetzt kann sich ja jeder ungefähr ausrechnen, was wäre, wenn man einen gleich großen Chip ohne RT- und Tensor-Cores gefertigt hätte ;) Also stattdessen mit traditionellen Shadern.

Vorteil: Mehr fps in JEDEM Spiel ohne "Krücken" wie DLSS.
Nachteil: Man müsste aufs Raytracing-Gimmick verzichten.

Da ich persönlich kein RT brauche, wäre glaube ich klar, für was ich mich entscheiden würde ;)
 
Sicherlich hättest du für den Augenblick recht. Die 35% einfach mit mehr Shadern belegen, mehr Leistung für alle Spiele.

Nur denk ich mal, wie willst du dann die nächsten Generationen beschleunigen? Noch mal mehr Fläche, noch mehr Shader? Vielleicht noch 2, 3, 4mal die Fertigung verkleinern? Frequenzen höher? Irgendwann wird Schluß sein, wirtschaftlich und technisch. Und spätestens dann muß eine neue Technologie her, so oder so.

Ob NV hier den richtigen Weg geht weiß ich natürlich nicht. Das wird die Zukunft entscheiden :)
 
Ich sehe bisher keinen einzigen Vorteil von DLSS gegenüber den konventionellen Methoden - so wird es sich nicht durchsetzen können.
 
Zurück
Oben