Notiz GeForce 417.35 WHQL: Grafiktreiber unterstützt DLSS in Final Fantasy

Robert

Redakteur
Teammitglied
Dabei seit
Feb. 2009
Beiträge
1.392

Lübke82

Lt. Commander
Dabei seit
Dez. 2007
Beiträge
1.501
Sehr geil. Genau darauf habe ich gewartet. Leider muss anscheinend aber ein Update des Spieles noch kommen. Hab in den Optionen des Spieles zumindest nichts gefunden
 

D708

Commander
Dabei seit
Juli 2015
Beiträge
2.146
Ich hoffe, dass es wirklich gut funktioniert. Ist für mich auch spannender als Raytracing
 

ZeroZerp

Rear Admiral
Dabei seit
Okt. 2007
Beiträge
5.356
Ja- Sieht vielversprechend aus:

Mal sehen, wie es sich in der Praxis schlägt. Könnte ein "Gamechanger" für die FPS+4K Fanatiker werden.
 

Zotac2012

Vice Admiral
Dabei seit
Apr. 2012
Beiträge
7.043
Viel interessanter wäre, mal zu zeigen was eine RTX 2070 / 2080 im Vergleich zu einer GTX 1080Ti an FPS mit DLSS bringen! Schaue ich mir aber die FPS der RTX 2080Ti für weit über 1000,00 Euro an, lässt sich nichts Gutes erahnen! Aber schön das CB auch die 0,05 ‰ User hier im Forum mit einer RTX 2080Ti mit Werten versorgt! :daumen:
 

grossernagus

Banned
Dabei seit
Okt. 2013
Beiträge
2.080
Den Fehler bei Rocket League haben sie aber mit irgendeinem vorherigen Treiber eingebaut und jetzt wieder gefixt?

Einfach nur erbärmlich diese häufigen Treiberupdates. :grr:
 

r4yn3

Admiral
Dabei seit
Mai 2006
Beiträge
7.376
Leider muss anscheinend aber ein Update des Spieles noch kommen.
Gemäß Nvidia Seite, "Our latest GeForce Game Ready driver readies GeForce RTX gamers for a new Steam update for FINAL FANTASY XV WINDOWS EDITION XV. "
Sollte dann bei den AA Optionen dabei sein.
Die Demo Der Benchmark sollte allerdings schon DLSS können..


Mir ist immer noch nicht klar wo DLSS die Performance rausholt. Es ist ja sogar schneller als 4K ohne AA, oder?
 

grossernagus

Banned
Dabei seit
Okt. 2013
Beiträge
2.080

Redirion

Captain
Dabei seit
Apr. 2007
Beiträge
3.398
Mir ist immer noch nicht klar wo DLSS die Performance rausholt. Es ist ja sogar schneller als 4K ohne AA, oder?
Wenn du in english ganz gut bist, schau dir dieses Video auf Youtube an (von Digitalfoundry).

Die ersten zwei Minuten genügen, um deine gewünschte Information zu erhalten.

DLSS senkt die interne Renderauflösung auf 1440p ab. DLSS ist dann sowas wie ein intelligentes Adaptives MSAA, was die Bildqualität wieder auf 4k+TAA-Niveau hiefen soll.
 

OZZHI

Rear Admiral
Dabei seit
Juli 2009
Beiträge
5.643
Nvidia hat anscheinend noch einen schöneren Farbfilter auf das 2080 Ti Gameplay gepackt damit noch zusätzliche Noobs auf den Hypetrain aufsteigen. :D

Ich hoffe dieser DLSS Kram wird nicht zum Standard sodass man sich im Zukunft immer fragen müsste, ob das Spiel in nativer Auflösung läuft oder einem nur vorgegaukelt wird.
 

ZeroZerp

Rear Admiral
Dabei seit
Okt. 2007
Beiträge
5.356

ZeroZerp

Rear Admiral
Dabei seit
Okt. 2007
Beiträge
5.356
Geil wie bei den älteren Konsolen: niedriger auflösen und dann hochskalieren. Nur wird das jetzt mit 'nem Buzzword "DeepLearning" so umschrieben, daß es schön modern und KI-mäßig klingt. :D
Wenn Du mir jetzt noch erklärst, was der Unterschied zwischen beiden Verfahren des "Hochskalierens" (Konsole/Tensor Cores) bestehen, dann kann ich Deine Aussage nachvollziehen.
 

grossernagus

Banned
Dabei seit
Okt. 2013
Beiträge
2.080
So lange das Bild nicht gleich aussieht, vermute ich einfach, daß Nvidia da trickst. Wäre schließlich nicht das erste Mal.
 

Qarrr³

Fleet Admiral
Dabei seit
Nov. 2005
Beiträge
11.713
Nur wird das jetzt mit 'nem Buzzword "DeepLearning" so umschrieben, daß es schön modern und KI-mäßig klingt. :D
Deep learning in Spielen ist wie der Schritt von Schallplatte zur CD bei Musik. Das ist ein Meilenstein und die Grundlage für 24bit/192khz 10 Kanal Audio. Deep learning wird in der nächsten Generation 8k in Echtzeit ermöglichen, wird dafür sorgen, dass dein Handy Crysis abspielt und wir am Ende tatsächlich von der Realität nicht mehr zu unterscheidende Spiele haben werden. Das braucht aber noch ein paar Jahre Forschung.
Ergänzung ()

So lange das Bild nicht gleich aussieht, vermute ich einfach, daß Nvidia da trickst.
Natürlich trickst Nvidia da. Das ist der Sinn von deep learning. Das ist etwa so, als wenn du einem Maler ein schlecht aufgelöstes Bild von einer Kirche zeigst und der soll das mal in schön malen. Das bekommt der hin, weil der weiß wie Kirchen generell aussehen und was das schlechte Bild an details verschluckt hat. Das Bild, was rauskommt ist nicht genau die Kirche, aber jemand der die Kirche nicht kennt, würde keinen Fehler erkennen. Da können Farben schon leicht anders sein. Nvidia hat da eine Software gebaut, die auf Forschung basiert, die letztes Jahr noch in Universitäten entwickelt wurde.
Das Ende der Fahnenstange ist noch lange nicht erreicht.
 
Zuletzt bearbeitet:

TenDance

Captain
Dabei seit
Mai 2009
Beiträge
3.491
Quizfrage: für Pascal-Systeme ist wohl immer noch der letzte 391er Treiber die beste Wahl oder?
Die bugfixwelle der 400er muss man sich ja nicht antun ohne RTX-GPU wie es aussieht.
 
Top