News Upsampling: Vier von Fünf RTX-Spielern nutzen DLSS – auch auf CB?

DJMadMax schrieb:
teilweise die Frametimes komplett über den Haufen wirft
Ja, das Problem sehe ich auch in TLOU1 und Witcher 3 NG. FSR FG in TLOU2 ist absolut smooth, aber die Bildqualität leidet durch FSR halt extrem. In Hellblade 2 dagegen ist das Frame Pacing absolut perfekt. Der Frametime-Graph ist absolut glatt und vor allem glatter als ohne FG. Würde solche Implementierungen in Zukunft begrüßen.
 
  • Gefällt mir
Reaktionen: DJMadMax
Hängt stark vom Spiel ab, nutze ne 4080RTX OC auf nem 34"Uwqhd, IPS, 120hz, Curved, G-sync Pannel, bei Spielen, die Artefakt bildungen oder ghosting mit dlss fg haben, nutze ich das nicht, dann spiele ich lieber mit weniger fps. Die Technik wird immer besser, warten wir noch ein paar Generationen ab, die physische Leistung der GPU wird eh nicht mehr so extrem ansteigen, das sieht man jetzt schon zwischen der 40er und 50er Generation von NVIDIA. Ausser die 5090 mit 30% mehr, sind dahinter die Karten vielleicht 20% nativ schneller! Werde mir diesen Monat einen 9800x3d holen, hab noch einen etwas älteren Intel! Um auf dlss zurück zu kommen, nutze ich meistens Qualität, weil wenn Raytracing aktiviert ist, mit dlaa die Karte in einigen Titeln nicht mehr genügend Fps produziert, ansonsten ist die Technik schon sehr interessant, nur leider lässt Nvidia sich das teuer bezahlen, und um die neusten Features nutzen zu können muss man auch die aktuellelste Generation besitzen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Ich habe mir das mit den Bildfehler und FG nochmal in Cyberpunk im einzigen Modus wo man es sehen kann angesehen. Auf dem Motorrad sitzend.Ich denke das liegt nicht an FG, sondern an TAA/DLSS, wobei ich den Effekt auch nicht richtig provoziert bekomme, egal was ich einstelle. Die Haare sind einfach schwierig zu glätten, der Effekt ist beim nach oben und unten Scrollen ähnlich, wenn ich kein FG an habe.

Screenshot 2025-01-17 134359.png

Im Screenshot mit Zeitlupe kann man die Verzögerung sichtbar machen, Das ist allerdings ohne FG.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sensei21
Nolag schrieb:
Die meisten Menschen werden daher auch das TAA Ergebnis wegen der besseren temporalen Stabilität gegenüber no AA in den meisten Games bevorzugen. Es ist einfach ein Irrtum, dass das Bild ohne AA eine Art von Referenz darstellt, weil es ja so scharf erscheint. Wer die Pseudoschärfe in einem Bild ohne AA zum Maß der Dinge erhebt, mit dem braucht man auch nicht über Bildqualität zu diskutieren.
offenbar wurde da was nicht verstanden.
taa ist "erfolgreich" weil es eine temporale komponente gegenüber anderen aa-varianten hat und dazu relativ geringe anforderungen an hardware; der nachteil ist die bildunschärfe bei bewegung - das kann man zum teil mit höheren framerates ausgleichen, aber das problem - vor allem bei schneller bewegung, bleibt bestehen.

es ist wichtig dass aa zum postprocessing gehört (weitestgehend - manche algorithmen sind auch anteilig an das rendering selbst geknüpft).
alles was ich sage ist dass bei der bewertung bzw. dem vergleich der bildqualität somit eine verfälschung stattfindet - während dlss ein natives bild ohne so etwas als taa als input bekommt und das "gute" dlaa sowie das upscaling aus diesem noch viele details rekonstruieren kann, wird das "native" vergleichsbild (meistens dann standbilder mit zoom, bei denen die temporale komponente keine rolle spielt) eben mit taa zwar schön "kantengeglättet", aber gleichzeitig vielerorts verschmiert, so dass feinere details in unschärfebrei verloren gehen und texturen mit farbgradienten stellenweise so einen matsch gleichen.
das ergebnis davon vergleicht man dann wie gesagt mit dem was dlss ausspuckt und dann kommen bewertungen wie "sieht besser aus als nativ" zustande - wundert das dann jemanden überhaupt?

mir ist klar dass man hier überall kompromisse eingehen muss um nicht zu krassen hardwarehunger zu erzeigen oder generell auf spielbare frames zu kommen - sowas wie ssaa/msaa mag zwar für standbildvergleiche toll sein, aber bei fehlender temporalen komponente ist es nur bedingt zukunftstauglich.

ich verstehe auch stückweit dass man argumentieren kann dass die engines nunmal ein forciertes taa verwenden und das somit das ist was der spieler zu sehen bekommt, den da ist definitiv etwas dran. was ich jedoch "missbillige" ist dass man die aa-thematik nicht generell kritischer betrachtet, denn es hat sich hier in den letzten 10-20 jahren extrem viel getan und gerade im hinblick der ganzen upscaling techniken hat das schlicht relevanz.
techniken welche vielleicht vor 20 jahren noch zu viel performance kosteten, aber ein wirklich gutes bild erzeugten, sind u.u. heute zu unrecht "vergessen"; andere sind m.m.n. nie ausrecihend gewürdigt worden..
kennt z.b. noch jemand id softwares tssaa? das erzeugte ein butterweiches bild ohne nenenenswerte verfälschungen, kostete aber etwas performance...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fika, Baal Netbeck und Shio
@cypeak

Du machst den Fehler das native, ungeglättete Bild als den Standard heranzuziehen.

Der Standard ist aber - theoretisch - das mit unendlicher Auflösung gerenderte Bild - also ein Bild ohne Pixel. Was leider so nicht machbar ist.

Die Frage ist, welche Methode kommt an das Optimum am besten ran.

Das native gerenderte Bild ohne Anti-Aliasing als Referenz herzunehmen, ist nicht sinnvoll, da diesem Bild schlicht Details fehlen. Nämlich alle Details die unter die Pixelgrenze fallen und deswegen falsch oder gar nicht abgebildet werden. Da hilft dann auch kein Postprocess-AA mehr, weil kein PP AA der Welt kann fehlende Details wieder herbeizaubern.

DLAA erzeugt aber eben MEHR Details als das native gerenderte Bild - weil es diese kleinen Details korrekt(er) abbildet.

Welche Abbildung ist also nun objektiv besser? DLAA ist detailgetreuer als das native Bild, selbst wenn man die AA-Artefakte außer Acht lässt. Das gleiche gilt mit Einschränkungen auch für DLSS-Q und -B.

Ob man TAA nun ausschalten kann oder nicht, spielt keine Rolle. Denn mehr Details wirst Du so oder so nicht herbeizaubern. Der insgesamt etwas unschärfere Eindruck von TAA rührt ja nicht daher, dass weniger Details da wären, sondern dass es nur weniger harte Kanten gibt, die das Auge als "scharf" interpretiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
DJMadMax schrieb:

This:

Grestorn schrieb:
Wie schon x mal geschrieben: Es gibt keinen Vorteil von VSync ggü. einem FL auf der gleichen Frequenz mit einem variablen Sync Monitor.

VSync hat nur Nachteile was Latenz und Pacing angeht.

:daumen:
 
  • Gefällt mir
Reaktionen: Grestorn
@MaverickM
this eben nicht ^^ Ich teste es gerne just jetzt noch einmal in Horizon Zero Dawn Remastered - mit und ohne Framegen und mit und ohne VRR - und eben mit und ohne VSync :)
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Bin ja gespannt, wie Du das Framepacing testen wirst.
 
@MaverickM @Grestorn
Hardware:
Monitor - Hisense 100E77NQ Pro 100" 4K UHD auf 100 Hz begrenzt
CPU: i5 12600K
GPU: RTX 4080 Super

Software:
GSync-Compatible im Treiber aktiviert
Game-Mode im TV aktiviert (AMD FreeSync)
Horizon Zero Dawn Remastered
Preset "Very High"

1. Test: DLSS Performance + DLSS Frame Generation ohne Frame Limiter
  • ca. 120-130 FPS in der Testszene, super stotterig, kein richtiges Tearing, laut Framegraph sehr sauberes und gleichbleibendes Framepacing, dennoch extremes Stuttering.
  • Stromverbrauch GPU ca. 240 Watt

2. Test: DLSS Performance + DLSS Frame Generation mit Frame Limiter (RTSS) auf 97 FPS
  • stabil 97 FPS in der Testszene, immer noch starkes Stuttering, obwohl der Framegraph perfekt aussieht, vermutlich Frame Generation-Problem im Spiel selbst.
  • Stromverbrauch GPU ca. 215 Watt

3. Test: DLSS Performance ohne DLSS Frame Generation
  • ca. 70-85 FPS in der Testszene, immer noch starkes Laggen mit extrem unsauberem Framepacing
  • Stromverbrauch GPU ca. 230 Watt


Ab hier: ohne GSync / FreeSync

4. Test: DLSS Performance ohne DLSS Frame Generation
- Praktisch dasselbe Ergebnis wie unter vorherigem Test, keinerlei Unterschied feststellbar

5. Test: DLSS Performance mit DLSS Frame Generation und mit aktiviertem VSync über den GeForce Treiber
  • Exakt 97 FPS, hier verhält sich der Nvidia-Treiber also genauso, als sei ein Framelimit in z.B. Rivatuner gesetzt, immer noch wahrnehmbares Stuttering
  • Stromverbrauch GPU ca. 210 Watt

6. Test: DLSS Performance mit FSR 3.1 Frame Generation, VSync über das Spielemenü
  • Exakt 100 FPS, nahezu perfektes Framepacing (gerade Linie), keinerlei Stuttering
  • Stromverbrauch GPU ca. 170 Watt


---


Aufgrund der Erkenntnisse in Test 6 und ob es evtl. ein Problem mit DLSS Frame Generation in dem Spiel gibt, folgt nun ein weiterer Test:

7. Test: DLSS Performance + FSR 3.1 Frame Generation, erneute Aktivierung FreeSync VRR und Limit 97 FPS
  • Erneut leichtes Stuttering, nicht so schlimm wie zuvor, aber definitiv spürbar, zudem starkes Panel Flickering wegen der VRR
  • Stromverbrauch GPU ca. 160 Watt


Und wie spiele ich jetzt letzten Endes? Genau so:
Screenshot (2091).jpg Screenshot (2092).jpg Screenshot (2093).jpg Screenshot (2094).jpg Screenshot (2095).jpg Screenshot (2096).jpg

Kein VSync über den Treiber, sondern direkt im Spiel, da es mit AMD FSR 3.1 Frame Generation nämlich funktioniert (entgegen DLSS Frame Generation).

Das Spielerlebnis ist so - und nur so, ohne Variable Refresh Rate - das mit Abstand sauberste, flüssigste und Lagspike-freieste, das man sich wünschen kann (siehe Framegraph links oben, der leider wegen des etwas verrutschten Layouts etwas verdeckt wird).

PS: Ich muss unbedingt die Plattform upgraden, der 12600K ist insbesondere (!) bei solch hoher Auflösung in Verbindung mit DDR4 ein ganz schöner Flaschenhals. Und da sagt man immer, bei steigender Auflösung würde die CPU irrelevant. Dem ist leider nicht so. 100 FPS sind für die CPU eben nicht gleich 100 FPS, da steigt die Last weiterhin mit steigender Auflösung.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Dein Test ist per Definition flawed, weil Du den Monitor auf 100 Hz begrenzt hast. Das macht mit FG schlicht keinen Sinn. Warum machst Du das?

Mach mal die selben Tests ohne diese Begrenzung. Dann wirst Du auch dieses Stuttering nicht mehr haben. Das tritt genau dann auf, wenn man permanent ins VSync stößt (und das passiert m.W. bei NVidia FG immer, weil das einen FL unterhalb der Frequenz des Monitors impliziert).

Ich verstehe einfach nicht, warum Du den Monitor begrenzt.

Wenn Du das Spiel auf 100 fps festnagelst und es ist für Dich rund: Fein. Aber warum den Monitor auf 100Hz? Aber wenn Du unbedingt willst... jedem das, was er will. Ich werd da auch nicht mehr diskutieren.

Du scheinst es besser zu wissen als alle Techniker von AMD, NVidia und Monitorhersteller.


Ich war neugierig und hab versucht, das mal nachzustellen.

  • 5120x1440 (etwas weniger als 4k), 240Hz max. Frequenz
  • 4090
  • DLSS Perf + FG
  • FL im Treiber auf 100fps
Stromaufnahme: Rund 195W (GPU Package).

Super rund, keinerlei Stottern.

Unbenannt.png


As Neugier hab ich mal DLSS Q benutzt, sonst alles gleich. Krieg auch dann Problemlos 100fps. Nur die Stromaufnahme steigt logischer Weise, und zwar auf eta 220W
 
Zuletzt bearbeitet:
DJMadMax schrieb:
Dem ist leider nicht so. 100 FPS sind für die CPU eben nicht gleich 100 FPS, da steigt die Last weiterhin mit steigender Auflösung.
Aber doch nur in Verbindung mit Nvidias FG?
Also die Auflösungsabhängigkeit.

Ohne FG hat die CPU eigentlich nicht mehr zu tun.... oder wenn dann nur sehr wenig
 
Grestorn schrieb:
Dein Test ist per Definition flawed, weil Du den Monitor auf 100 Hz begrenzt hast. Das macht mit FG schlicht keinen Sinn. Warum machst Du das?
Hat er doch schon mehrfach erklärt. Ohne FG kommt er in Spiel XY nicht auf die 100 FPS, sondern vielleicht auf 70-80 FPS. Diese Lücke von 20-30 FPS kann jetzt entweder mit stärkerem Upscaling und reduzierten Grafiksettings erreichen, was man die Grafikqualität senkt, oder eben durch Frame Generation.

Und in der ganzen Diskussion geht es jetzt darum, wie man die per FG erreichten FPS mit dem besten Ergebnis möglichst genau auf die feste Wiederholrate des Monitors bekommt.
 
  • Gefällt mir
Reaktionen: DJMadMax
mibbio schrieb:
Hat er doch schon mehrfach erklärt. Ohne FG kommt er in Spiel XY nicht auf die 100 FPS, sondern vielleicht auf 70-80 FPS. Diese Lücke von 20-30 FPS kann jetzt entweder mit stärkerem Upscaling und reduzierten Grafiksettings erreichen, was man die Grafikqualität senkt, oder eben durch Frame Generation.

Du verstehst nicht. Ich hab kein Problem mit der Begrenzung auf 100 FPS.

Aber die Begrenzung des Monitors auf 100Hz macht keinen Sinn. Er soll den Monitor mit 144 oder was auch immer er kann refreshen lassen, GSync anschalten und die Framerate per Treiber auf 100 fps limitieren.

Ist viel besser und nebenher auch noch viel einfacher.

Ein Monitor mit 100Hz refreshed mit 1/100tel s, ein Monitor mit 144 Hz refreshed mit 1/144tel s. Ganz unabhängig von der Framerate und der variablen Frequenz durch GSync übrigens.

Das ist ein deutlicher Unterschied. Und nebenher funktioniert FG auch besser, wenn es von der Monitorfrequenz weg ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
Grestorn schrieb:
Der Standard ist aber - theoretisch - das mit unendlicher Auflösung gerenderte Bild - also ein Bild ohne Pixel. Was leider so nicht machbar ist.
"standard" ist sowieso etwas schwammig zu definieren in dem kontext; aber ein "bild ohne pixel" ist es sicherlich nicht; wenn dann eher das beste bild was man nativ in der vergleichsauflösung rendern kann; die frage ist ob vor dem postprocessing oder mit einer besseren methode als taa - aber das ist dann tatsächlich eher theoretisch, denn ich sehe das argument ja ein dass es schwierig ist wenn gewisse techniken wie taa in dem jeweiligen game/engine forciert werden..
Ergänzung ()

Grestorn schrieb:
Das native gerenderte Bild ohne Anti-Aliasing als Referenz herzunehmen, ist nicht sinnvoll, da diesem Bild schlicht Details fehlen. Nämlich alle Details die unter die Pixelgrenze fallen und deswegen falsch oder gar nicht abgebildet werden.
das aliasing ist vornehmich für kantenglättung da; mit der detailtiefe hat das wenig oder nur indirekt zu tun, und wenn dann ist der tradeoff öfters der dass die kanten besser geglättet werden, aber details durch unschärfe, schmieren, ghosting-artefakte und ähnliches verloren gehen.
Ergänzung ()

Grestorn schrieb:
DLAA erzeugt aber eben MEHR Details als das native gerenderte Bild - weil es diese kleinen Details korrekt(er) abbildet.
jein.
die details werden durch dlss-sr nicht besser abgebildet(wie den auch??), sondern die verwendenten ki-algorithmen der upscaling rekonstruieren die weniger ausgeprägten details der niedrigeren internen renderingauflösung.
das dlaa ist im grunde dlss ohne upscaling, also das ausgangsbild wird in seiner nativen auflösung verarbeitet. dabei ist das ki-gestützte anti-aliasing in nvidias implementierung deutlich besser als z.b. taa - gerade bei filigranen details.
meines wissens bezeichnete nvidia in diesem zusammenhang selbst eine variante des dlaa bei dem das downsampling zum einsatz kommt, anfangs als "dlss 2x".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
cypeak schrieb:
die details werden durch dlss-sr nicht besser abgebildet(wie den auch??),

Bei DLSS werden aufeinanderfolgende Frames um einen minimalen Betrag, der kleiner als ein Pixel ist, in verschiedene Richtungen versetzt gerendert.

Dadurch "tauchen" Details wieder auf, die sonst zu fein für das Pixelraster sind. Das funktioniert von der Idee ganz ähnlich wie das alte MSAA, mit einem gedrehten Grid, nur dass es bei DLSS stochastisch funktioniert und für das ganze Bild, nicht nur die Kanten.

Der AI Algorithmus nutzt dann diese Daten, um daraus ein scharfes und möglichst flimmerfreies Bild zu erzeugen, unter Berücksichtung aller Details, die native verloren gegangen wären, weil sie eben zu fein für ein Pixel sind.

Also: JA: DLSS Hat definitiv mehr Details. Woher meinst kommen sonst auf einmal die Stromleitungen und Drahtzäune, die bei native verloren gehen? Nein, die werden nicht vom AI Algorithmus "erraten", das würde oft kräftig schief gehen. Diese Details sind wirlich da und werden von DLSS sauber rekonstruiert.

Deswegen ist DLSS native grundsätzlich überlegen, auch wenn es Nachteile hat (die eben genau daher rühren, dass der Algorithmus mehrere Frames braucht um genügend Daten zusammen zu haben).
 
Grestorn schrieb:
Bei DLSS werden aufeinanderfolgende Frames um einen minimalen Betrag, der kleiner als ein Pixel ist, in verschiedene Richtungen versetzt gerendert.
Bist du sicher, dass das keine veralteten Infos aus DLSS1 Zeiten sind?

Bei den Infos zu DLSS 2 finde ich von dem Verschieben nichts mehr, das braucht DLSS eigentlich auch nicht, da es ja über CNN die Strukturen erkennt und rekonstruieren kann.

Und über die Bewegungsvektoren kann abgeschätzt werden was von den alten Frames mit den Strukturen im neuen frame verrechnet werden sollte.
Grestorn schrieb:
Dadurch "tauchen" Details wieder auf, die sonst zu fein für das Pixelraster sind.
Ja.. wobei das nur für bewegte Bilder gelten sollte, denn das exakt gleiche native Bild mehrfach zu haben, gibt einem keine zusätzlichen Details.
Grestorn schrieb:
Das funktioniert von der Idee ganz ähnlich wie das alte MSAA, mit einem gedrehten Grid,
Das verstehe ich nicht.
MSAA rendert doch die Geometrie in einer höheren Auflösung und "mittelt dann die Kanten auf die Ausgabeauflösung".
Was hat das mit DLSS zu tun, dass eine geringere Auflösung und ältere Frames verrechnet und mit KI optimiert?

Bis darauf, dass beides als AA wirkt, sehe ich da wenig Gemeinsamkeiten.
Grestorn schrieb:
Also: JA: DLSS Hat definitiv mehr Details. Woher meinst kommen sonst auf einmal die Stromleitungen und Drahtzäune, die bei native verloren gehen?
Naja aus vorherigen Frames und vor allem aus der Mustererkennung mittels CNN.

Ich habe nicht viel Geschick mit AI aber ein paar Kanten, Ecken und andere Muster zu erkennen, habe ich mit CNN dank Tutorials auch hinbekommen.

Das sollte Nvidia sogar ohne vorherige Frames rekonstruieren können... dafür braucht gar nichts mit höherer Auflösung gerendert werden.
Grestorn schrieb:
Nein, die werden nicht vom AI Algorithmus "erraten", das würde oft kräftig schief gehen.
Das "Erraten" ist doch der Punkt warum AI so gut funktioniert?

Und es geht ja auch oft schief, wenn man von der KI verlangt zu viel zu leisten.

DLSS Performance ist schon voller Problemchen.... Würde ich nur in Spezialfällen absegnen.
DLSS Quality hat nur wenige Problemchen und löst viele Probleme des nativen Bildes.. Würde ich in fast jedem Spiel TAA vorziehen...und dem nativen Bild ohne TAA sowieso.
 
  • Gefällt mir
Reaktionen: cypeak
Baal Netbeck schrieb:
Bist du sicher, dass das keine veralteten Infos aus DLSS1 Zeiten sind?
DLSS 1 hat anders funktioniert.

Aber was ich geschrieben habe gilt für DLSS 2:
Siehe hier: https://en.wikipedia.org/wiki/Deep_learning_super_sampling#DLSS_2.0

Ergänzung ()

Baal Netbeck schrieb:
Das verstehe ich nicht.
MSAA rendert doch die Geometrie in einer höheren Auflösung und "mittelt dann die Kanten auf die Ausgabeauflösung".

Bei MSAA wurden die Kanten eines Polygon mehrfach gerendert (2x, 4x oder 8x) wobei jeweils das Rendering um eine leicht verdrehte "Maske" verschoben wurde (Sparse Grid: https://en.wikipedia.org/wiki/Multisample_anti-aliasing#Sparse_regular_grid). Das hatte für die Kanten genau den selben Effekt: Sie wurden Anti-Aliased, harte Pixelkanten vermieden. Das ist von der Idee her genau das gleiche wie DLSS, nur dass bei MSAA das innerhalb des selben Frames passiert ist, wogegen DLSS mehrere Frames dafür braucht. Und MSAA wirkt eben nur auf die Polyonkanten, nicht auf den Inhalt des Polygons, und natürlich nicht für alle anderen Effekte, die nichts mit Polygonen zu tun haben.

Im Prinzip kann man auch ein echtes Supersampling machen, bei dem man z.B. das gesamte Bild vier mal rendert, jeweils um Subpixel verschoben ("Jittering", wie es die Wikipedia nennt) bevor man es ausgibt. Dann hätte man ein perfekt Anti-Aliastes Bild mit deutlich mehr Details als native und deutlich weniger Rasterizing Effekten. Aber das würde die Framerate natürlich vierteln.

DLSS macht es nicht viel anders, allerdings in dem es mehrere zeitlich aufeinanderfolgende Frames nutzt. Dadurch braucht man keine zusätzlich gerenderten Frames und verliert keine Performance.

Dadurch entstehen dafür aber die ganzen temporalen Nachteile (Nachziehen, Smearing usw.), die man versucht über die Vektor-Informationen (die aussagen, wie sich das gesamte Bild und einzelne Objekte im Bild gerade bewegen) und den AI Algorithmus in den Griff zu bekommen.

Und das ganze funktioniert eben so gut, dass man die Renderauflösung in gewissem Rahmen zu reduzieren kann, ohne wirkliche Qualitätsnachteile zu bekommen.
Baal Netbeck schrieb:
Das "Erraten" ist doch der Punkt warum AI so gut funktioniert?
Nein, DLSS errät nichts. Es verrechnet nur die Daten geschickt und natürlich auch mit Erfahrungswerten, aber immer aus dem selben Spiel und in einem vergleichsweise kurzem Zeitraum (weniger als 1s) "erlernten" Daten.

Bei DLSS Perf ist die Ausgangsauflösung so gering, dass man halt tatsächlich aus einen Bruchteil der Daten die Originaldaten rekonstruieren muss. Das hat natürlich seine Grenzen, das stellt niemand in Abrede.
 
Zuletzt bearbeitet:
Grestorn schrieb:
Dadurch "tauchen" Details wieder auf, die sonst zu fein für das Pixelraster sind. Das funktioniert von der Idee ganz ähnlich wie das alte MSAA, mit einem gedrehten Grid, nur dass es bei DLSS stochastisch funktioniert und für das ganze Bild, nicht nur die Kanten.
ja, das verfahren gibt es, hat aber mit ki-wenig zu tun; und es hat nachteile..wegen dem pixelshift erzeugt man deswegen um gerade kanten und saubere übergänge ein ungewolltes dithering; aber darum soll es nicht gehen - hat aber mehr mit aa zu tun als upscaling.

der entscheidente punkt ist dass dlss-sr in einer niedrigeren auflösung rendert (wie sollte man sonst zu einem performancevorteil kommen?) und das bild wird dann per ki-algo hochskaliert - und dieser rekonstruiert die details- meines wissens mit dem antrainierten neuralem netzwerk (cnn). das wort "rekonstruieren" ist entscheidend, denn es hat eine spezifische bedeutung.

denn natürlich arbeitet dlss zunächst mit einem bild welches weniger details beinhaltet; wenn ich die gleiche bildinformation (=was man auf dem bildschirm darstellen will) mit weniger pixel (=niedrigere interne auflösung bei dlss sr) darstellen will, kann dieses schlicht weniger details beinhalten.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
cypeak schrieb:
ja, das verfahren gibt es, hat aber mit ki-wenig zu tun;
Lies meinen Text genau vor Deinem Posting. Und den verlinkten Wikipedia Artikel.
 
cypeak schrieb:
denn natürlich arbeitet dlss zunächst mit einem bild welches weniger details beinhaltet; wenn ich die gleiche bildinformation (=was man auf dem bildschirm darstellen will) mit weniger pixel (=niedrigere interne auflösung bei dlss sr) darstellen will, kann dieses schlicht weniger details beinhalten.
DLSS 2 akkumuliert die zusätzlichen Details über die Zeit. Das funktioniert auch ohne Bewegung, denn es wird mit jedem Bild die Kamera leicht verschoben (Jitter), was einen ähnlichen Effekt hat wie Multisampling, aber eben temporal. In Verbindung mit Sub-Pixel genauen Bewegungsvektoren kann man damit über die Zeit mehr Details auflösen als im nativen Bild ohne Anti-Aliasing vorhanden wären und das auch bei einer niedrigeren Auflösung des Quellmaterials.
Das grundsätzliche Verfahren der Multi-Frame Super Resolution auf dem DLSS 2 basiert, ist seit über 40 Jahren bekannt und wird seit dem von NASA und DoD verwendet um Bilder mit höherer Auflösung aus niedriger aufgelöstem Quellmaterial zu erhalten. Beide Behörden sind nicht dafür bekannt, dass sie an "erratenen" Details in Bildern interessiert wären.
 
  • Gefällt mir
Reaktionen: Grestorn
Zurück
Oben