Bericht Final Fantasy XV: DLSS ist eine Alternative, aber kein Ersatz für Ultra HD

ZeroZerp schrieb:
Kein einziger? Das ist ja das merkwürdige, dass Du um Dich schlägst, obwohl Dir alle Recht geben, dass es vereinzelt schlechter aussieht und teilweise verbugt ist.

Nur halt in einem Punkt nicht und zwar dass DLSS grundsätzlich schlechter aussieht als Nativ 4K+TAA. Das tut es nachweisbar nicht.
Und Vorteil einer KI ist ja gerade explizit, dass sie durch weiteres Lernen irgendwann weiss, wie es besser geht.
Anhand der bisher gesehenen Bilder, ist seine Aussage zu 100% Wahr.
Es sieht schlechter aus.
Hätte FF jetzt noch eine brauchbare TAA Implementierung, wie etwa Division, dann würdest du auch nicht darüber diskutieren.
Im Normalfall bedeutet TAA + UHD ein 99% perfektes, flimmerfreies Bild
 
Die KI wird doch für jedes Spiel neu trainiert - so wurde es von NV publiziert. Die Zeit fürs Antrainieren muss auch begrenzt sein - gibt ja nicht nur ein Game und NV wird nicht unbegrenzt viele Supercomputer zur Verfügung haben. Insofern muss das nicht heißen, dass die KI noch "besser" wird.
 
bad_sign schrieb:
Anhand der bisher gesehenen Bilder, ist seine Aussage zu 100% Wahr.
Es sieht schlechter aus.

OK- Geh nochmal in Dich und frage Dich, ob das mit TAA wirklich besser aussieht...
https://www.computerbase.de/forum/t...in-ersatz-fuer-ultra-hd.1842945/post-22064329

Also entweder hab ich völlig einen and der Klatsche oder eine absolut nicht Mainstream übliche Wahrnehmung, wenn ich bei den dort geposteten Bildern das DLSS Bild bevorzuge.

Mensch... So weit kann man doch da garnicht auseinanderliegen...
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
FF hat einer der schlechtesten Implementierungen von TAA überhaupt, der Antiflimmer-Effekt in FF ist praktisch nicht vorhanden. Jedes andere Spiel bekommt das besser hin. Sogar SMAA hat mehr Effekt als TAA in FF
 
Pisaro schrieb:
Also hast du doch Kantenglättung aktiv. Dann schreib doch nicht, dass es das letzte ist was du bei einem Spiel einschaltest.

Wenns die FPS zulassen, dann wirds als letztes eingeschaltet. Wenn nicht, dann bleibts halt aus, alle anderen Einstellungen aber erstmal an. Texturen und Beleuchtung sind mir wichtiger als Kanten.
 
bad_sign schrieb:
FF hat einer der schlechtesten Implementierungen von TAA überhaupt, der Antiflimmer-Effekt in FF ist praktisch nicht vorhanden. Jedes andere Spiel bekommt das besser hin. Sogar SMAA hat mehr Effekt als TAA in FF
Was hat das jetzt mit meiner Frage zu tun, ob in meinem Beispiel DLSS nicht überdeutlich besser aussieht als 4K TAA?

In welche Spiel ist Deiner Meinung nach TAA dann überragend integriert?
 
ich seh das alles nicht so negativ wie einige kommentare hier. das feature ist toll nur wird es nie mehr als eine handvoll spiele geben die das unterstützen daher totaler quatsch. und ob sich raytracing durchsetzt steht auch in den sternen. Im schlechtesten fall haben wir in 2 jahren 1200€ für ne grafikkarte bezahlt mit 2 primären features die aber von keinem spiel unterstützt werden.
 
  • Gefällt mir
Reaktionen: pietcux und .Sentinel.
@ Computerbase
Ich habe mir nochmal das Orginal von hier runter geladen anstatt das tot komprimierte Youtube Video laufen zu lassen und es mir nochmal auf dem TV angesehen. Schon kommen bei mir erhebliche Fragen auf.
Wurden beide Szenen gleich aufgenommen? und abgesehen vom Zusammenlegen keine anderen Zwischenschritte eingelegt oder Kompressionscodecs verwendet?

Ich frage nur weil das DLSS Video gleich an mehreren Stellen erheblich Detail ärmer ausschaut und ich den Eindruck habe dass das DLSS Video stärker komprimiert wurde.

Anfangs hatte ich es auf die Kompression von Youtube geschoben das z.B. am Anfang beim Zaun an der Straße die Querstreben eher verschwinden aber das setzt sich in dem runtergeladenen Video fort.
Zaun.JPG

Richtig schlimm wird es aber est wenn z.B. die Vegetation zum Einsatz kommt aber auch die Berge im Hintergrund sehen mir irgendwie Detailärmer aus.
Vegetation.JPG

Ist das im Spiel auch so oder auf andere Faktoren wie andere Spiele Einstellungen oder die Video Komprerssion zurück zu führen?

Edit:
An der Szene sieht man den Detailverlußt im Fels Hintergrund nochmal ein gutes Stück besser:
Berge.JPG
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: USB-Kabeljau und .Sentinel.
Wie bereits gesagt, Division. Wobei eigentlich jedes Spiel mit TAA beinahe bis vollkommen flimmerfrei ist. FF ist ein harter Ausreißer.
Das TAA auch Ghosting hervorrufen kann, ist eigentlich der einzige Nachteil. Zumindest in UHD ist mir die "unschärfe" bisher nie aufgefallen.
 
@mmichisurf
Tja- Es ist so vorhersagbar... Und das spielchen wiederholt sich jetzt schon seit zig Jahren und es wird immer und immer wieder mit den gleichen Argumenten "gekämpft".

Mal was zum Schmunzeln aus dem Jahr 2001:
https://alt.3dcenter.org/artikel/t_und_l/index4.php

Nach all den Jahren sollte es doch nun wirklich nichts ungewöhnliches mehr für den Hobby- PCler sein, wie so einen neue Technologie eingeführt wird. Bei jedem Technologiesprung wird immer das gleiche Theater abgezogen.

Das wird sich aber wohl auch niemals ändern....
Ergänzung ()

bad_sign schrieb:
Wie bereits gesagt, Division.
Sorry- Hatte ich überlesen... Ich ziehe mir das gleich mal rein.
Wobei ich auch sehr sehr große Stücke auf die Snowdrop Engine halte. Starke Features, top Implementierung...
 
ZeroZerp schrieb:
@mmichisurf
Tja- Es ist so vorhersagbar... Und das spielchen wiederholt sich jetzt schon seit zig Jahren und es wird immer und immer wieder mit den gleichen Argumenten "gekämpft".

Mal was zum Schmunzeln aus dem Jahr 2001:
https://alt.3dcenter.org/artikel/t_und_l/index4.php

Nach all den Jahren sollte es doch nun wirklich nichts ungewöhnliches mehr für den Hobby- PCler sein, wie so einen neue Technologie eingeführt wird. Bei jedem Technologiesprung wird immer das gleiche Theater abgezogen.

Das wird sich aber wohl auch niemals ändern....
DLSS hat eine große Chance so zu enden, wie GPU-PhysX, Tot.
Erst wenn sowas offen wird kann es eine Chance haben, vorher nicht.

Und bisher hat DLSS einfach diesen "HockusPockus" Charakter, der mit viel Marketing genau gar nichts bringt, was es nicht schon gibt. Alles was Nvidia bisher gezeigt hat ist exakt auf 3200x1800 Niveau, Leistung und Optik.

Jep, die Snowdrop ist technisch erste Klasse. WoT hatte auch mal TAA drin, wurde aber glaube ich wieder entfernt (keine Option mehr und flimmert mehr wie früher). Und wenn sogar so unfähige Leute, wie Wargaming TAA gut brauchbar hinbekommen, dann sollte es nicht so schwer sein :)
 
bad_sign schrieb:
DLSS hat eine große Chance so zu enden, wie GPU-PhysX, Tot.
Erst wenn sowas offen wird kann es eine Chance haben, vorher nicht.
Diesbezüglich stimme ich völlig mit Dir überein. Der Aufwand, jeden Einzeltitel mit Unterstützung von NVIDIA durch das Rechenzentrum jagen zu müssen, führt ein gewisses Trägheitsmoment ein, das dieses Projekt zum Scheitern bringen kann.
Es ist nämlich immer die Frage, wie NVIDIA so einen Langzeit- Support für ein Einzelfeature durchziehen will und wie einfach es den Entwicklern tatsächlich gemacht wird, den Service in Anspruch zu nehmen.

Der Vorgang muss automatisiert werden, so dass sich die Spiele ohne großen Aufwand selbst trainieren.
Die Trainingsdaten sollten dann allen Architekturen offenstehen (INTEL, NVIDIA, AMD). Nur so denke ich, besteht da eine dauerhafte Zukunft.
Es müsste letztenendes, wenn jemand die Option DLSS aktiviert automatisch dafür gesorgt werden, dass dieser nach Ende der Spielesession und nach Rückfrage ein per Zufallsgenerator auf 4k 64 fach supergesampletes Bild samt Original an den Rechencluster schicken kann. Oder eine Option, wo ein Benutzer eine beliebige Anzahl an Bildern absenden kann.
So hat die Community die Möglichkeit das System selbst zu trainieren. Und das dann zudem nicht nur für bestimmte Auflösungen.
 
  • Gefällt mir
Reaktionen: Sun-Berg
USB-Kabeljau schrieb:
3. Das Ganze sollte so gemacht sein, daß der Algorithmus mit jeder nur erdenklichen Auflösung funktioniert.
Dann könnte man im NVidia-Treiber als Scaling DLSS auswählen, und dann beim Spiel einfach gucken, wie hoch man die Auflösung stellen kann, und das DLSS skaliert das dann hoch und korrigiert es nach den durch xx-fach SuperSampling angelernten Mustern.

bei Deep Learning muss die "KI" ja erstmal "lernen". Und damit sie Lernen kann muss sie wissen wie weit ihr Ergebnis vom "richtigen Ergebnis" entfernt ist. Deswegen rechnet NV quasi 64x Super Sampled Pics diverser Games um anhand dieser "MusterBilder" die KI anzulernen. Anders wüsste ich nicht wie es funktionieren soll und ob die Ki jemals so flexibel wird das auf mehrere Titel anzuwenden ist auch fraglich.

Bisher darf sie ja aber nur "Upscaling" machen, ich denke gerade über diverse dynamische Settings könnte sich die Engine aber ggf auch selbst optimieren, also auch zeuch wie LOD, Schatten usw dynamisch anpassen.

Man braucht halt immer eine vorgerechnete Referenz um wirklich etwas lernen zu können.

Ergänzung ()

ZeroZerp schrieb:
Es müsste letztenendes, wenn jemand die Option DLSS aktiviert automatisch dafür gesorgt werden, dass dieser nach Ende der Spielesession und nach Rückfrage ein per Zufallsgenerator auf 4k 64 fach supergesampletes Bild samt Original an den Rechencluster schicken kann. Oder eine Option, wo ein Benutzer eine beliebige Anzahl an Bildern absenden kann.

oder sowas in der Art richtig. Aber der typische CBler beschwert sich ja schon wenn man sich bei Gf Experience anmelden muss um da bequem den Treiber updaten zu können ^^
 
Ich denke, da lassen sich aber auch allgemeine Muster erkennen.
Zumal ein und das selbe Objekt je nach Entfernung mehr oder weniger Pixel abbekommt.

Ich halte dieses "auf ein Spiel und eine bestimmte Auflösung trainieren" für wenig sinnvoll.
Das schränkt die Technik sehr ein. Und wird dann bei jedem Game wieder von null angefangen zu trainieren?
 
Brauchbar, nur sicher kein Killerfeature, aber vielleicht wird es das eines Tages, wenn es der KI zu langweilig wird und sie uns an den Kragen will :o :D
 
Zuletzt bearbeitet:
Kuomo schrieb:
Brauchbar, nur sicher kein Killerfeature, aber vielleicht wird es das eines Tages, wenn es der KI zu langweilig wird und sie uns an den Kragen will :o :D
Ok, intelligentere NPCs währen natürlich auch nicht schlecht.
 
  • Gefällt mir
Reaktionen: Sun-Berg
Sun-Berg schrieb:
@Wadenbeisser:

Die Idee, durch KI trainierte Algorithmen das Upscaling so gut zu machen, dass man keinen Unterschied zu 4K sehen kann ist schon neu. Und auch wenn es jetzt noch nicht besser funktioniert als normales Upscaling von 1800p rauf so wird man doch zumindest Erfahrungswerte sammeln und mit der Zeit immer besser werden. Das ist, soweit ich das verstanden haben, die Idee hinter der KI.

Für mich ist DLSS angesichts der Alternativen einfach ein proof of concept was schon sehr gut läuft. Geld würde ich dafür jetzt keins ausgeben. Interessant wird es erst wenn es dann mal wirklich besser ausschaut als normales Upscaling.

DLSS sieht aber besser aus als normales Upsampling von 1800p, sonst würd es ja nicht sogar an 2160p mit TAA ranreichen und stellenweise sogar hinter sich lassen. Ihr schaut zuviel YT anscheinend.
 
  • Gefällt mir
Reaktionen: pietcux
Ist genau wie bei Raytracing. Das muss man selber am eigenen PC ingame sehen um es wirklich beurteilen zu können. YouTube und Standbilder bringen nichts.
 
@Lübke82 : Aha. Wer ist “Ihr”? Das soll wohl “Sie schauen” sein? Welches youtube video meinst du denn?

Ich mag ehrlich gesagt nicht gegen solche Anmachen von der Seite kämpfen. Meine Annahme bezieht sich auf einen Techspot Artikel. Und genau so wie wir hier dem redakteur von CB glauben, verlasse ich mich dabei auf die Aussage des Redakteurs von techspot.

Auch auf youtube gibts übrigens gute Redakteure.
 
Lübke82 schrieb:
DLSS sieht aber besser aus als normales Upsampling von 1800p, sonst würd es ja nicht sogar an 2160p mit TAA ranreichen und stellenweise sogar hinter sich lassen. Ihr schaut zuviel YT anscheinend.

Laut einem Artikel von TechSpot.com
TechSpot.com schrieb:
And here’s the fun part. Native 1800p rendering delivers nearly identical performance to DLSS in the Infiltrator demo: DLSS is about 2 percent faster in average framerates, and 6 percent faster in 1% lows. Of course, DLSS is a good 37 percent faster than 4K in average framerates, but the key thing here is DLSS is nearly visually identical to 1800p while also providing near identical performance.
https://www.techspot.com/article/1712-nvidia-dlss/

und einem Video von Hardware Unboxed
sehen 4k DLSS und 1800p TAA im Infiltrator Demo nahezu identisch aus und liefern auch dieselbe Performance.
Das Infiltrator Demo läuft noch dazu komplett wie auf Schienen ab, sollte also das Optimum für DLSS darstellen wenn das Netzt trainiert wird und die Szenen immer exakt dieselben sind.
Daher hat es Nvidia wohl auch beim Launch der RTX-Karten also Demo für DLSS gezeigt.

FF15 hat noch dazu eine sehr schlechte Implementierung von TAA, hier ein Zitat vom TechSpot-Artikel zu TAA in FF15.
TechSpot.com schrieb:
I’m not the biggest fan of TAA in most games, but it is possible to get right. Shadow of the Tomb Raider for example is a game with decent TAA that softens edges without significantly reducing texture quality. But in this particular game, TAA… well it sucks, to be honest.
https://www.techspot.com/article/1712-nvidia-dlss/

Mit einer anderen Kantenglättungsmethode, wie SMAA, würden sicher auch manche einzelne Details besser aussehen als mit TAA, jede Methode hat seine Stärken und Schwächen, aber im großen und ganzen entspricht die Qualität von 4k DLSS der von 1800p TAA, was ja beachtlich ist, denn das Spiel wird bei 4k DLSS eben nur in 1440p gerendert, nur leider ist die Performance auch identisch mit 1800p TAA, was das ganze derzeit ziemlich sinnlos macht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sun-Berg
Zurück
Oben