News Offizielle Benchmarks: Der Abstand zwischen RTX 4080 und RTX 4090 ist riesig

@.Sentinel. für deine Texte, was soll man da verstehen? Zitat: temporale Kumulation addieren What???
Des weiteren sind meine Zitate von Nvidia.

Superhohe DLSS-Auflösung​

Steigert die Leistung aller GeForce RTX-Grafikprozessoren durch die Verwendung von KI zur Ausgabe von Bildern mit höherer Auflösung aus einer Eingabe mit niedrigerer Auflösung. DLSS nimmt mehrere Bilder mit geringerer Auflösung auf und verwendet Bewegungsdaten und Rückmeldungen aus früheren Bildern, um Bilder in nativer Qualität zu rekonstruieren.
 
Ich versuche Dir zu erklären, was Supersampling bedeutet und wie DLSS funktioniert und weshalb es deshalb ein Antialias bietet und feine Strukturen rekonstruiert wie es ein DSR macht.
Du schreibst mir das zurück, was ich Dir die ganze Zeit schon bestätige.

Nochmal- Frame 1 bei DLSS wird in einer niedrigen Auflösung abgetastet.
Im Gegensatz zu nativ aufgelösten Bildern, wo Du ein Sample pro Bildpunkt mit entsprechenden Artefakten hast, machst Du das bei DLSS aber über mehrere Frames mehrmals an unterschiedlichen Positionen (Jitter).

Du hast also für das Pixel, dass Du dann in einen Bildpunkt rasterst mehrere Samples zur Verfügung, genau wie bei DSR, wodurch die Fehler bei Einordnung des finalen Farbwertes auf das Zielpixel geglättet werden.

Zur Veranschaulichung:
Einfaches DSR bei UHD:
3840x2160 Pixel = 8.294.400 Samples nativ + das Doppelte an Samples durch Oversampling =
16.588.800 Samples, die Du dann wieder "runter - also downsampling" in die UHD Auflösung presst.

DLSS Quality:
Frame 1 wird mit 1440P abgetastet:
2560x1440 = 3.686.400 Samples nativ

In Frame 2 sorgt DLSS bzw. die KI dafür, dass Du die Samples aus Frame 1 wiederverwenden kannst, auch wenn Sie sich in Bewegung befinden.
In Frame 2 hast Du dann 3.686.400 x 2 = 7.372.800

So hast Du in Frame 2 also bereits fast die gleiche Anzahl an Pixelinformation wie im nativen Bild. Da Du aber mit niedrigerer Input- Auflösung arbeitest, erscheint Frame 2 bei DLSS aber schneller und auf die gesamte Zeitspanne der Berechnung gesehen im Normalfall nur minimal später in der gleichen Auflösung, als bei vollständig nativen Rastern der Fall gewesen wäre.

Bei Frame 3 kommt die Abtastauflösung wieder zu den vorhandenen Samples hinzu, die DLSS zur Bestimmung des endgültigen Farbwertes zur Verfügung hat.
Die vorhergehenden Pixel: 7.372.800 Pixel + 3.686.400 Samples = 11.059.200 Samples -> Bereits ab Frame 3 hast Du also deutlich mehr Samples, als sie 1:1 in das Pixelraster der Zielauflösung zu stopfen wären.
Also betreibst Du, wie bei DSR auch ab da bereits ein Downsampling.

So geht das Spielchen weiter, bis ein kompletter Szenenwechsel stattgefunden hat, bei welchem die Bildinformation von 0 auf neu aufgebaut werden muss.

Die KI macht bei DLSS nichts anderes, als nachzuverfolgen, wo die bereits berechneten Pixel bei Bewegung landen werden und intelligent mit den in jedem Frame neu gewonnenen Samples an der richtigen Position zu verrechnen.
Ebenso bestimmt die KI, ob ein Pixel der Vorgängerframes weiterverwendet kann (wird es vielleicht im neuen Frame durch ein geometrisches Objekt verdeckt, bewegt es sich aus dem Bildschirm raus usw.) und nimmt dieses, wenn es laut Bewertung durch die KI zu "unsicher" geworden ist, aus der Pixelmenge die zur Generierung des neuen Frames zur Verfügung steht, wieder raus.

Es ist vergleichbar mit Superresolution aus der Fotografie, wo Du mehrere Bilder, die leicht verschoben aufgenommen wurden zusammenrechnest, um eins mit deutlich höhrere Auflösung zu generieren.
Nur dass Du bei DLSS durch Einbeziehen von Enginedaten eine zuverlässigere Bewertung hast, welches Sample in der Generierung eines Pixels auch tatsächlich eine Gewichtung hat, da Du bei DLSS deutlich mehr Input hast (z.B. Motion Vectors, Z- Buffer usw) um zu bestimmen, welche Samples gültig sind und welche nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mscn und Master_Chief_87
.Sentinel. schrieb:
So geht das Spielchen weiter, bis ein kompletter Szenenwechsel stattgefunden hat, bei welchem die Bildinformation von 0 auf neu aufgebaut werden muss.
Kleiner nitpick: Geht ja nicht nur um Szenenwechsel. Sobald ein neues Objekt am Bildschirm auftaucht (egal ob durch Veränderung des Blickwinkels, ein Objekt aus der Verdeckung tritt oder einfach im Sichtfeld spawned) sind dafür ja erstmal keine alten Pixelwerte verfügbar.

Und unter Bewegung sollte man halt generell klar kommunizieren, dass es sich hier um Heuristiken handelt, die die Korrelation zwischen den Samples aufeinanderfolgenden Frames herstellen. D.h obwohl man über mehrere Frames vielleicht sogar mehr
Samples als bei nativem Rendering sammelt hat sind die natürlich weniger akkurat.
 
  • Gefällt mir
Reaktionen: .Sentinel.
calippo schrieb:
Eine 3090 bekommt man aktuell für 1.100€ (lagernd). Vor einem Jahr wurde sich darum noch geprügelt zum doppelten Preis und das ist immer noch ein Leistungsmonster.... ganz so schlimm ist es eben doch nicht.

eben.. kommt immer darauf an wie ich halt die ganzen Statistiken und Benchmarks lesen möchte ;-)
 
Miuwa schrieb:
Kleiner nitpick: Geht ja nicht nur um Szenenwechsel. Sobald ein neues Objekt am Bildschirm auftaucht (egal ob durch Veränderung des Blickwinkels, ein Objekt aus der Verdeckung tritt oder einfach im Sichtfeld spawned) sind dafür ja erstmal keine alten Pixelwerte verfügbar.
Es geht um alle Pixel, die tatsächlich vorher in der Szene nicht vorhanden waren. Den verdeckten Pixeln ist man inzwischen auf der Schliche, weil DLSS inzwischen 3 Dimensionale Motion Vectors als Input akzeptiert.

Ein kurzzeitiges Verdecken durch ein anderes Objekt (z.B. Zaunpfosten) zwingt das neue System nicht mehr zum Clamping, sondern kann dieses im Hintergrund weiterverfolgen bis es eben nicht mehr verdeckt ist.

Das sind all die kleinen Feinheiten, warum DLSS Stück für Stück immer besser wird.

Miuwa schrieb:
Und unter Bewegung sollte man halt generell klar kommunizieren, dass es sich hier um Heuristiken handelt, die die Korrelation zwischen den Samples aufeinanderfolgenden Frames herstellen. D.h obwohl man über mehrere Frames vielleicht sogar mehr Samples als bei nativem Rendering sammelt hat sind die natürlich weniger akkurat.
Sie müssen ja nicht zwingend Akkurat sein- Wie beim Standard Rastervorgang findet auch da durch Mittelung sowieso eine Art Korrektur statt. Die Halton- Sequence wird ja nicht umsonst als Jittermuster quasi als pseudo- Randomisierung empfohlen. So kommt man den nicht akkuraten Samples in der Kumulation auch auf die Spur.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Ein kurzzeitiges Verdecken durch ein anderes Objekt (z.B. Zaunpfosten) zwingt das neue System nicht mehr zum Clamping, sondern kann dieses im Hintergrund weiterverfolgen bis es eben nicht mehr verdeckt ist.
Das ist natürlich sehr nice.


.Sentinel. schrieb:
Sie müssen ja nicht zwingend Akkurat sein- Wie beim Standard Rastervorgang findet auch da durch Mittelung sowieso eine Art Korrektur statt. Die Halton- Sequence wird ja nicht umsonst als Jittermuster quasi als pseudo- Randomisierung empfohlen. So kommt man den nicht akkuraten Samples in der Kumulation auch auf die Spur.
Bin mir nicht ganz sicher ob ich das verstehe - muss mich vielleicht bei gelegnheit noch etwas einlesen. Worum mir halt ging war, dass in dem von dir gepostetn Schaubild im DLSS Fall ja eine Linie gerendert wird, die Pixel für Pixel exakt so aussieht wie die native 4k Version (es seidenn ich hab was übersehen). Das ist nach meinem Verständnis im allgemeinen schlicht nicht erreichbar, weil hier eben an allen Ecken und Enden Heuristiken zum Einsatz kommen. Neuronale Netzte sind generell ja ne Heuristik, aber eben auch, wie genau ein sich bewegender "Farbklex" aus Frame 1 in Frame 2 gemappt wird (mir ist schon klar, dass da mehr intelligenz dahinter steckt).
Das muss ja aber nicht heißen, dass das Ergebnis schlechter aussieht als die native 4k Version nur halt - nach meinem Verständnis - nicht identisch.
 
Miuwa schrieb:
Das ist nach meinem Verständnis im allgemeinen schlicht nicht erreichbar, weil hier eben an allen Ecken und Enden Heuristiken zum Einsatz kommen. Neuronale Netzte sind generell ja ne Heuristik, aber eben auch, wie genau ein sich bewegender "Farbklex" aus Frame 1 in Frame 2 gemappt wird (mir ist schon klar, dass da mehr intelligenz dahinter steckt).
Das muss ja aber nicht heißen, dass das Ergebnis schlechter aussieht als die native 4k Version nur halt - nach meinem Verständnis - nicht identisch.
Du liegst da schon richtig. Die Korrektur auf das Zielbild hin, findet über die Wegstrecke mehrerer Frames statt.
In dem Schaubild wird für die Rekonstruktion ja bereits das Endergebnis angezeigt, also nachdem gejittert und kumuliert wurde.

Dadurch dass DLSS die Framerate generell deutlich steigert, reden wir hier aber von einem Bereich unter der Wahrnehmungsschwelle.
Physiologisch tut sich das Auge schwer bei überwiegend gleichbleibenden Bildinhalten kurze Ausreisser im Farbton im Milisekundenbereich auswerten zu können.

Selbst größere Fehler in Einzelframes werden bei hohen Bildwiederholraten nicht mehr wahrgenommen. Auch wenn man sich konzentriert. Dieses Prinzip macht sich ja wiederum die Frame- Generation zunutze.
Die senkt im Normalfall die Anzeigedauer eines Einzelframes so weit, dass das Gehirn das nicht mehr erfassen kann, wenn da etwas nicht passt. Denn es sind auch dort immer nur Kleinigkeiten, die fehlerhaft dargestellt werden.
Die Frame Generation hat dann ein Problem, wenn ein Fehler in den künstlichen Frames dann über längere Zeit wiederholt wird, so dass eine Art Strobing entsteht. Das ist nämlich wiederum schon wahrnehmbar.
 
.Sentinel. schrieb:
Was sind denn die Nachteile der Transistoren?
Kurz; Die "Recheneinheiten" die für FG beansprucht werden, hätte man in ROPs/SM oder andere Ecken der GPU stecken können. Die reduzierte Anzahl an Tensor-Kernen und Co (was auch immer für FG in Anspruch genommen wird) würde weiterhin für alles andere ausreichen.
Ergänzung ()

.Sentinel. schrieb:
So fair muss man schon sein.
Redet ja keiner von, DLSS2 ohne Reflex ist alles was man braucht.
 
Gortha schrieb:
Kurz; Die "Recheneinheiten" die für FG beansprucht werden, hätte man in ROPs/SM oder andere Ecken der GPU stecken können. Die reduzierte Anzahl an Tensor-Kernen und Co (was auch immer für FG in Anspruch genommen wird) würde weiterhin für alles andere ausreichen.
Problem dabei ist ja, dass man jetzt noch nicht abschätzen kann, als wie nützlich sich die ganzen dedizierten Einheiten erweisen können. Wir sind da ja immernoch am Anfang, was die Nutzung eben dieser betrifft.

War generell bei Einführung der Tensor- Cores doch auch schon so.
Da wollten alle mehr Shader und die anderen "unnützen Einheiten" nicht, weil DLSS 1.x die Erwartungen nicht erfüllen konnte.
Jetzt sind bestimmt die meisten froh, Tensor- Cores an Bord zu haben, da DLSS 2.x sich inzwischen gemausert hat.

Zudem wäre mit dem Wegfall der ganzen neuartigen dedizierten Einheiten nicht viel gewonnen.
Denn die Forderung die Chipfläche RT-/Cores und KI Abteil mit Shadern zu ersetzen gab es seit Touring...:
https://www.hardwareluxx.de/index.p...nsor-cores-belegen-nur-wenig-chipflaeche.html

Gortha schrieb:
Redet ja keiner von, DLSS2 ohne Reflex ist alles was man braucht.
Jetzt noch... Wenn sich FG ebenso verbessert wie DLSS2, dann ist man im Nachhinein wieder froh, die Funktionalität zu haben.
 
  • Gefällt mir
Reaktionen: Gortha
.Sentinel. schrieb:
Jetzt noch... Wenn sich FG ebenso verbessert wie DLSS2, dann ist man im Nachhinein wieder froh, die Funktionalität zu haben.
Ich denke das diese "toten" und verzögerten Zwischenbilder keinen wirklichen Mehrwert bieten und in dieser Hinsicht auch nicht viel an FG verbessert werden kann - aufgrund seiner Funktionsweise.

DLSS(2) hat(te) einfach ein ganz anderes Potential und dieses wurde auch realisiert.

Mir persönlich wären eben 10% mehr Rohpower/echte Frames lieber als die Art und Weise der Bildgenerierung die Frame-Generation bietet.

- Aber ich lasse mich gerne überraschen. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse und .Sentinel.
NighteeeeeY schrieb:
Ich kann mich noch an Zeiten erinnern, da hat man für 1000€ einen ganzen High End Gaming PC bekommen. Rip.
Ok, daran kann ich mich nicht erinnern, muss an mir vorbei gegangen sein.
 
Apocalypse schrieb:
Ok, daran kann ich mich nicht erinnern, muss an mir vorbei gegangen sein.

2006. 7900 GTX (380€ Neupreis) und der Rest hat auch nur n Appel und n Ei gekostet. Athlon 64 5200+, 4 (?) Gb DDR2....Mainboard für unter 100€. Da war noch viel Luft bis zu den 1000€.
 
@NighteeeeeY Das war damals aber kein Highend. Weder ein Athlon 5200+, noch ein Board für unter 100€. Für einen P4 965 Extreme Edition hat man 2005 schon einen Tausender hinlegen müssen. Und der hat schon damals in Spielen gegenüber deutlich günstigeren Prozessoren genausowenig gebracht wie heute ein 13900K.
 
  • Gefällt mir
Reaktionen: Apocalypse
Spottdrossel schrieb:
P4 965 Extreme Edition
na klar gab es die genauso wie die FX52/62 aber die hat kein mensch besessen und der leistungszuwachs zu einem normalen prozessor war genauso groß wie heute von einem 7700X zu einem 7950X und reines prestige und völlig zu vernachlässigen.
 
NighteeeeeY schrieb:
2006. 7900 GTX (380€ Neupreis) und der Rest hat auch nur n Appel und n Ei gekostet. Athlon 64 5200+, 4 (?) Gb DDR2....Mainboard für unter 100€. Da war noch viel Luft bis zu den 1000€.
Mein Q6600 mit 8800GTX und iirc 16GB war dann schon viel teurer, auch damals war man für high end schnell viel Geld los, selbst ohne SLI.
und mein Setup war ja nicht mal high end sondern ehr gehobene Mittelklasse. Nicht mal Dual-Socket CPUS oder SLI :D
 
Zuletzt bearbeitet:
Der dreiste Versuch 4060 als 4080 mit 12GB zu verkaufen ist gescheitert, aber 4070 zum Preis von 4080 16GB ist erfolgreich durchgegangen 🙄

Da wird noch 4080ti mit 20GB 320Bit kommen um die riesige Lücke zwischen 4090 und 4080 zu schließen zum Preis von 1.900€ man will ja die 4090 so attraktiv wie möglich machen 😅
 
  • Gefällt mir
Reaktionen: Beg1, DaCrazyP und up.whatever
ITX17x17 schrieb:
Der dreiste Versuch 4060 als 4080 mit 12GB zu verkaufen ist gescheitert, aber 4070 zum Preis von 4080 16GB ist erfolgreich durchgegangen

Sie veröffentlichen die Karte zwar, ob sie allerdings ein Erfolg wird bleibt abzuwarten.
Im Schnitt ~15% mehr fps vs. 3090 Ti in den vorliegenden Benchmarks, 3090 Ti war bereits für ~1100€ (aktuell eher 1200€) zu haben, ein Aufpreis von ~32% (ausgehend von 1449€, Partnerkarten werden noch mehr kosten) - dafür -33% VRAM und ein kleineres Speicherinterface.

Wenn man sich dann noch Benchmarks wie Plague Tale ansieht, wo die RTX 4090 93% mehr Leistung bringt und das für "nur" ~35% mehr Geld, dann KANN eigentlich kein Kunde mit Hirn so ein Produkt zum aufgerufenen Preis kaufen und ich hoffe die Reviewer werden das richtig kritisieren.

Als Vorteile ggü. Ampere bleiben nur Effizienz und DLSS3 (aktuell eher mäßiges Argument).
 
  • Gefällt mir
Reaktionen: DaCrazyP und ITX17x17
Beg1 schrieb:
Sie veröffentlichen die Karte zwar, ob sie allerdings ein Erfolg wird bleibt abzuwarten.
Im Schnitt ~15% mehr fps vs. 3090 Ti in den vorliegenden Benchmarks, 3090 Ti war bereits für ~1100€ (aktuell eher 1200€) zu haben, ein Aufpreis von ~32% (ausgehend von 1449€, Partnerkarten werden noch mehr kosten) - dafür -33% VRAM und ein kleineres Speicherinterface.

Wenn man sich dann noch Benchmarks wie Plague Tale ansieht, wo die RTX 4090 93% mehr Leistung bringt und das für "nur" ~35% mehr Geld, dann KANN eigentlich kein Kunde mit Hirn so ein Produkt zum aufgerufenen Preis kaufen und ich hoffe die Reviewer werden das richtig kritisieren.

Als Vorteile ggü. Ampere bleiben nur Effizienz und DLSS3 (aktuell eher mäßiges Argument).
Da bin ich gleicher Meinung, ich bin von Reviewer total enttäuscht, egal ob es bekannte Quellen, Magazine oder YouTuber sind, man hat das Gefühl die haben die Aufgabe jeden Scheiß 💩 schön zu reden, haben einfach keine Eier kritisch zu berichten, das die RTX3090ti überall in Vergleich auftaucht finde ich total daneben, eine Karte die total unnötig ist, 2% bis maximal 6% mehr Leistung erkauft durch Unmenge an Stromaufnahme und alles Reviewer feiern diesen unnötigen uneffizienten Verbrauch🤦

Der einzige der wenigstens erwähnt hat das NVIDIA bei RTX4090 die 450W als unnötige falsche Entscheidung gemacht hat, war Der8auer in seinem Test war auf 300W limitierung das beste Ergebnis von Leistung und Leistungsaufnahme, die Brechstange 450W ist total unnötig...

Ich persönlich finde RTX4000er interessant nur wegen Effizienz bei gleicher Leistung im Vergleich zu 3000er/2000er Vorgänger Karten, aber Speicher-Interface-Krüppel 4080 256Bit und die dreiste Preisgestaltung ist ein abtörner, überall wird versucht das schön zu reden "Inflation, schwacher €" blablabla komisch das $ zu € Umrechnung und Inflation die RTX3000er Karten nicht betrifft, die Preise haben normal Zustand erreicht...

Noch eine Spekulationen von mir, NVIDIA hat in letzten Treiber die LHR Bremse entfernt, sicher nicht grundlos, mich würde es nicht wundern, wenn NVIDIA demnächst irgendeine Kryptowährung pushen wird um den Lieblings Kunden wieder zurück zu bekommen "den Miner"
 
  • Gefällt mir
Reaktionen: DaCrazyP
ITX17x17 schrieb:
komisch das $ zu € Umrechnung und Inflation die RTX3000er Karten nicht betrifft, die Preise haben normal Zustand erreicht...

Noch eine Spekulationen von mir, NVIDIA hat in letzten Treiber die LHR Bremse entfernt, sicher nicht grundlos, mich würde es nicht wundern, wenn NVIDIA demnächst irgendeine Kryptowährung pushen wird um den Lieblings Kunden wieder zurück zu bekommen "den Miner"

Die RTX 3000-Karten sind in den USA wesentlich günstiger, also der Eurokurs wird auch hier weitergegeben.

Und nein, LHR wurde entfernt, weil es keinen Sinn macht zwei Treiberpfade zu pflegen, daher kommt wohl auch der Leistungsgewinn der 3000er Karten (~5%), bis GPU-Mining wieder profitabel ist, werden vermutlich noch viele Monate vergehen, das kann auch nvidia nicht forcieren.
 
  • Gefällt mir
Reaktionen: ITX17x17
Beg1 schrieb:
Sie veröffentlichen die Karte zwar, ob sie allerdings ein Erfolg wird bleibt abzuwarten.
Im Schnitt ~15% mehr fps vs. 3090 Ti in den vorliegenden Benchmarks, 3090 Ti war bereits für ~1100€ (aktuell eher 1200€) zu haben, ein Aufpreis von ~32% (ausgehend von 1449€, Partnerkarten werden noch mehr kosten) - dafür -33% VRAM und ein kleineres Speicherinterface.

Wenn man sich dann noch Benchmarks wie Plague Tale ansieht, wo die RTX 4090 93% mehr Leistung bringt und das für "nur" ~35% mehr Geld, dann KANN eigentlich kein Kunde mit Hirn so ein Produkt zum aufgerufenen Preis kaufen und ich hoffe die Reviewer werden das richtig kritisieren.
ITX17x17 schrieb:
Da bin ich gleicher Meinung, ich bin von Reviewer total enttäuscht, egal ob es bekannte Quellen, Magazine oder YouTuber sind, man hat das Gefühl die haben die Aufgabe jeden Scheiß 💩 schön zu reden, haben einfach keine Eier kritisch zu berichten, das die RTX3090ti überall in Vergleich auftaucht finde ich total daneben, eine Karte die total unnötig ist, 2% bis maximal 6% mehr Leistung erkauft durch Unmenge an Stromaufnahme und alles Reviewer feiern diesen unnötigen uneffizienten Verbrauch🤦

Ich persönlich finde RTX4000er interessant nur wegen Effizienz bei gleicher Leistung im Vergleich zu 3000er/2000er Vorgänger Karten, aber Speicher-Interface-Krüppel 4080 256Bit und die dreiste Preisgestaltung ist ein abtörner, überall wird versucht das schön zu reden "Inflation, schwacher €" blablabla komisch das $ zu € Umrechnung und Inflation die RTX3000er Karten nicht betrifft, die Preise haben normal Zustand erreicht...
Und doch wird es vermutlich genug Leute geben, die sie (leider) zu dem Preis kaufen.

Die ganzen Youtube-Reviews und Gerüchte preisen ja jetzt schon die vermutlichen Preise der 4070 als "Deal" an. Manchmal hat man die Vermutung, dass das versteckte PR-Aktionen sind. Eine 4070 für 700€ ist für mich alles andere als ein super Angebot, aber wir sollen wohl von allen Seiten eingetrichtert bekommen, dass es so ist.
 
Zurück
Oben