gartenriese
Lt. Commander Pro
- Registriert
- Feb. 2011
- Beiträge
- 1.640
Sehr optimistischFighter1993 schrieb:Danke, jetzt wird es auch der Letzte begreifen.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Sehr optimistischFighter1993 schrieb:Danke, jetzt wird es auch der Letzte begreifen.
Taxxor schrieb:Die Upscaler werden mit hochaufgelösten Bilddaten trainiert, da steht nichts davon dass jedes Spiel mit den Bilddaten genau dieses Spiels trainiert wird
Tuetensuppe schrieb:Call of Duty: Black Oops 7 ist mit DLSS total überschärft. Schaut ja gruselig aus, der Schnee besteht aus lauter Mini-Bombentrichtern . Hat wohl, im Gegensatz zu "Nativ", wohl frisch geregnet
Zudem sieht man, vor allem bei den Schatten-Abgrenzungen, deutliche "Treppenstufen".
Das was du da zitierst ist ja nicht das Training für DLSS sondern die Eingabedaten während dem Spielen.Rickmer schrieb:Es muss mit in-engine Daten trainiert werden, weil um nvidia nochmal zu zitieren:
Wo willst du sonst motion vectors her bekommen? Und warum nutzt nvidia das sehr spezifische Wort game engine?
Am Ende des Tages können das nur die Nvidia-DLSS-Entwickler im Detail beantworten. Ich würde zu gerne mit einem diskutieren.Taxxor schrieb:Dass beim Training generell gegen eine ground truth verglichen wird, denke ich aber schon, aber halt eben generisch
Kannst du das erläutern? Die Daten, die Nvidia für das Training verwendet, sind ja die sogenannte "Ground Truth". Und was meinst du damit, dass die Details nicht erfunden sind? Die Details kommen ja nicht vom Spiel selbst sondern von DLSS, sind also meiner Meinung nach generiert, also "erfunden". Oder verstehe ich dich da gerade falsch?Grestorn schrieb:Dieses Beharren auf einer Ground Truth ärgert mich so sehr, weil sie ein Narrativ befeuert, das so einfach nicht stimmt. AI Upscaling = Erfundene Details. NEIN. Die Details sind eben NICHT erfunden.
Das Neural Network lernt anhand echter Enginedaten wie es in wesentlich höherer Auflösung gerendert aussehen müsste. Es lernt aber nicht anhand von konkretem Content, wie dieser wiederherzustellen ist, sondern lernt davon abgeleitete, allgemeingültige Regeln.gartenriese schrieb:Kannst du das erläutern? Die Daten, die Nvidia für das Training verwendet, sind ja die sogenannte "Ground Truth". Und was meinst du damit, dass die Details nicht erfunden sind? Die Details kommen ja nicht vom Spiel selbst sondern von DLSS, sind also meiner Meinung nach generiert, also "erfunden". Oder verstehe ich dich da gerade falsch?
Beides ist falsch.Lurtz schrieb:Beispiel:
Modell erkennt "das ist eine Stromleitung" -> Versuche die feinen Linien vertikal in ihrer Struktur beizubehalten, möglichst ohne Brüche (etwas das DLSS irgendwie bis heute nicht gut kann).
Es lernt aber nicht:
In Spiel XY ist da eine Stromlinie, pinsel die in den Frame.
gartenriese schrieb:Kannst du das erläutern? Die Daten, die Nvidia für das Training verwendet, sind ja die sogenannte "Ground Truth". Und was meinst du damit, dass die Details nicht erfunden sind? Die Details kommen ja nicht vom Spiel selbst sondern von DLSS, sind also meiner Meinung nach generiert, also "erfunden". Oder verstehe ich dich da gerade falsch?
Die Details kommen allesamt direkt vom Spielgartenriese schrieb:Die Details kommen ja nicht vom Spiel selbst sondern von DLSS, sind also meiner Meinung nach generiert, also "erfunden". Oder verstehe ich dich da gerade falsch?
Genau, die echten Enginedaten sind die Ground Truth. Das meine ich ja.Lurtz schrieb:Das Neural Network lernt anhand echter Enginedaten wie es in wesentlich höherer Auflösung gerendert aussehen müsste. Es lernt aber nicht anhand von konkretem Content, wie dieser wiederherzustellen ist, sondern lernt davon abgeleitete, allgemeingültige Regeln.
Das hatte ich auch nicht gemeint, da habe ich mich wohl falsch ausgedrückt.Lurtz schrieb:Beispiel:
Modell erkennt "das ist eine Stromleitung" -> Versuche die feinen Linien vertikal in ihrer Struktur beizubehalten, möglichst ohne Brüche (etwas das DLSS irgendwie bis heute nicht gut kann).
Es lernt aber nicht:
In Spiel XY ist da eine Stromleitung, pinsel die in den Frame.
Wie sollte das bei einem völlig interaktivem Material wie Spielen auch funktionieren? Kein Spiel mit NPCs könnte so funktionieren, woher soll der Algorithmus wissen, wo sich die Figuren bewegen und wo sie hinzumalen sind? Gerade das "Tracking" entfernter Objekte ist mit dem 2nd Gen Transformer-Model aber nochmal enorm besser geworden.
Lurtz schrieb:Beispiel:
Modell erkennt "das ist eine Stromleitung" -> Versuche die feinen Linien vertikal in ihrer Struktur beizubehalten, möglichst ohne Brüche (etwas das DLSS irgendwie bis heute nicht gut kann).
Das glaube ich eben nicht. DLSS arbeitet ja nur mit den Pixeln und nicht mit den 3D-Modellen.Taxxor schrieb:Die Details kommen allesamt direkt vom Spiel
Stimmt, war falsch formuliert. Ich stimme dir zu.Taxxor schrieb:Beides ist falsch.
DLSS erkennt nicht, dass dort eine Stromleitung ist. Das ist DLSS 1.0
DLSS hat aber die Daten mehrerer Frames, die diese Stromleitung sowie alles andere was auf dem Bild zu sehen ist, enthalten, der Algorithmus bestimmt nun welche dieser Daten verworfen und welche verwendet werden.
Das geschied völlig generisch anhand der Daten, dioe der Algorithmus aus der Engine bekommt
Kannst du gerne nicht glauben, ist aber trotzdem so.gartenriese schrieb:Das glaube ich eben nicht.
Naja, irgendein Algorithmus wird auf den Tensorkernen schon laufen. Vielleicht ist das jetzt auch Wortklauberei :-PGrestorn schrieb:Nein, die Details (beim stehenden Bild) kommen eben NICHT von einem AI-Algorithmus, sondern von den vielen gejittert gerenderten Frames. Das ist es, was immer wieder missverstanden wird.
Was ist denn der Unterschied zwischen "Ground Truth" und den hochauflösenden Bildern? Für mich ist beides das gleiche.Grestorn schrieb:Deswegen braucht DLSS auch keine "Ground Truth" auf die es trainiert wird. Es hat die hochauflösenden Daten bereits.
Ja, aber eben mit vielen vielen minimal versetzt gerenderten Bildern. Dadurch, dass sie minimal versetzt gerendert wurden (um weniger als ein Pixel) kommen die beim Rasterizing normal verloren gegangenen Details wieder zum Vorschein und der Algorithmus kann sie berücksichtigen.gartenriese schrieb:Das glaube ich eben nicht. DLSS arbeitet ja nur mit den Pixeln und nicht mit den 3D-Modellen.