Notiz GeForce 417.35 WHQL: Grafiktreiber unterstützt DLSS in Final Fantasy

Robert

Redakteur
Teammitglied
Registriert
Feb. 2009
Beiträge
1.669
Jede Woche neuer Treiber. Kann man machen
 
  • Gefällt mir
Reaktionen: Tweakit, Thaliya, The Pack und 7 andere
Sehr geil. Genau darauf habe ich gewartet. Leider muss anscheinend aber ein Update des Spieles noch kommen. Hab in den Optionen des Spieles zumindest nichts gefunden
 
Ich hoffe es kommen jetzt schnell noch ein paar Spiele mit DLSS-Support hinterher!
 
  • Gefällt mir
Reaktionen: kristwi
Ich hoffe, dass es wirklich gut funktioniert. Ist für mich auch spannender als Raytracing
 
Ja- Sieht vielversprechend aus:

Mal sehen, wie es sich in der Praxis schlägt. Könnte ein "Gamechanger" für die FPS+4K Fanatiker werden.
 
Viel interessanter wäre, mal zu zeigen was eine RTX 2070 / 2080 im Vergleich zu einer GTX 1080Ti an FPS mit DLSS bringen! Schaue ich mir aber die FPS der RTX 2080Ti für weit über 1000,00 Euro an, lässt sich nichts Gutes erahnen! Aber schön das CB auch die 0,05 ‰ User hier im Forum mit einer RTX 2080Ti mit Werten versorgt! :daumen:
 
  • Gefällt mir
Reaktionen: DanHot
Vergleich mit 1080ti ist doch dumm.
Wieso nicht 2080ti mit und ohne Dlss damit man direkt sieht was das bringt?
 
  • Gefällt mir
Reaktionen: DanHot, CR4NK, Baal Netbeck und eine weitere Person
Den Fehler bei Rocket League haben sie aber mit irgendeinem vorherigen Treiber eingebaut und jetzt wieder gefixt?

Einfach nur erbärmlich diese häufigen Treiberupdates. :grr:
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
Lübke82 schrieb:
Leider muss anscheinend aber ein Update des Spieles noch kommen.
Gemäß Nvidia Seite, "Our latest GeForce Game Ready driver readies GeForce RTX gamers for a new Steam update for FINAL FANTASY XV WINDOWS EDITION XV. "
Sollte dann bei den AA Optionen dabei sein.
Die Demo Der Benchmark sollte allerdings schon DLSS können..


Mir ist immer noch nicht klar wo DLSS die Performance rausholt. Es ist ja sogar schneller als 4K ohne AA, oder?
 
  • Gefällt mir
Reaktionen: Lübke82
r4yn3 schrieb:
Mir ist immer noch nicht klar wo DLSS die Performance rausholt.
Und wieso ist der Himmel mit DLSS so viel blauer als ohne?
 
  • Gefällt mir
Reaktionen: Sennox
r4yn3 schrieb:
Mir ist immer noch nicht klar wo DLSS die Performance rausholt. Es ist ja sogar schneller als 4K ohne AA, oder?

Wenn du in english ganz gut bist, schau dir dieses Video auf Youtube an (von Digitalfoundry).

Die ersten zwei Minuten genügen, um deine gewünschte Information zu erhalten.

DLSS senkt die interne Renderauflösung auf 1440p ab. DLSS ist dann sowas wie ein intelligentes Adaptives MSAA, was die Bildqualität wieder auf 4k+TAA-Niveau hiefen soll.
 
  • Gefällt mir
Reaktionen: Lübke82 und r4yn3
ZeroZerp schrieb:
Ja- Sieht vielversprechend aus:
Nvidia hat anscheinend noch einen schöneren Farbfilter auf das 2080 Ti Gameplay gepackt damit noch zusätzliche Noobs auf den Hypetrain aufsteigen. :D

Ich hoffe dieser DLSS Kram wird nicht zum Standard sodass man sich im Zukunft immer fragen müsste, ob das Spiel in nativer Auflösung läuft oder einem nur vorgegaukelt wird.
 
  • Gefällt mir
Reaktionen: Flaimbot, Sennox, KarlKarolinger und eine weitere Person
OZZHI schrieb:
Ich hoffe dieser DLSS Kram wird nicht zum Standard sodass man sich im Zukunft immer fragen müsste, ob das Spiel in nativer Auflösung läuft oder einem nur vorgegaukelt wird.
Wenn der Unterschied so minimal ist, dass man danach fragen muss, ob es den DLSS Kram nutzt, dann hat diese Funktion alles richtig gemacht...
 
  • Gefällt mir
Reaktionen: FCK-THIS, DanHot, Herr Melone und 10 andere
Geil wie bei den älteren Konsolen: niedriger auflösen und dann hochskalieren. Nur wird das jetzt mit 'nem Buzzword "DeepLearning" so umschrieben, daß es schön modern und KI-mäßig klingt. :D
 
  • Gefällt mir
Reaktionen: Flaimbot, Steini1990 und Benji18
Marflowah schrieb:
Geil wie bei den älteren Konsolen: niedriger auflösen und dann hochskalieren. Nur wird das jetzt mit 'nem Buzzword "DeepLearning" so umschrieben, daß es schön modern und KI-mäßig klingt. :D
Wenn Du mir jetzt noch erklärst, was der Unterschied zwischen beiden Verfahren des "Hochskalierens" (Konsole/Tensor Cores) bestehen, dann kann ich Deine Aussage nachvollziehen.
 
  • Gefällt mir
Reaktionen: FCK-THIS und Lübke82
So lange das Bild nicht gleich aussieht, vermute ich einfach, daß Nvidia da trickst. Wäre schließlich nicht das erste Mal.
 
  • Gefällt mir
Reaktionen: DanHot und Sennox
Marflowah schrieb:
Nur wird das jetzt mit 'nem Buzzword "DeepLearning" so umschrieben, daß es schön modern und KI-mäßig klingt. :D
Deep learning in Spielen ist wie der Schritt von Schallplatte zur CD bei Musik. Das ist ein Meilenstein und die Grundlage für 24bit/192khz 10 Kanal Audio. Deep learning wird in der nächsten Generation 8k in Echtzeit ermöglichen, wird dafür sorgen, dass dein Handy Crysis abspielt und wir am Ende tatsächlich von der Realität nicht mehr zu unterscheidende Spiele haben werden. Das braucht aber noch ein paar Jahre Forschung.
Ergänzung ()

grossernagus schrieb:
So lange das Bild nicht gleich aussieht, vermute ich einfach, daß Nvidia da trickst.
Natürlich trickst Nvidia da. Das ist der Sinn von deep learning. Das ist etwa so, als wenn du einem Maler ein schlecht aufgelöstes Bild von einer Kirche zeigst und der soll das mal in schön malen. Das bekommt der hin, weil der weiß wie Kirchen generell aussehen und was das schlechte Bild an details verschluckt hat. Das Bild, was rauskommt ist nicht genau die Kirche, aber jemand der die Kirche nicht kennt, würde keinen Fehler erkennen. Da können Farben schon leicht anders sein. Nvidia hat da eine Software gebaut, die auf Forschung basiert, die letztes Jahr noch in Universitäten entwickelt wurde.
Das Ende der Fahnenstange ist noch lange nicht erreicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Herr Melone, [wege]mini, C3LLoX und 10 andere
Quizfrage: für Pascal-Systeme ist wohl immer noch der letzte 391er Treiber die beste Wahl oder?
Die bugfixwelle der 400er muss man sich ja nicht antun ohne RTX-GPU wie es aussieht.
 
Zurück
Oben