Notiz GeForce 417.35 WHQL: Grafiktreiber unterstützt DLSS in Final Fantasy

Zotac2012 schrieb:
Also bei mir sieht der FF XV Benchmark auf WQHD mit 144 Hz und TAA und Gsync auch Top aus, da braucht es kein DLSS. Und die RTX Ready Grafikkarte wie die RTX 2070 mit einer völlig kastrierten RTX-Feature Hardware und dem kleinen TU 106 welcher eigentlich für die RTX 2060 ist, diese RTX Grafikkarte für Arme, kann Nvidia behalten. Für so einen Schrott würde ich nicht mal 400,00 bezahlen, dann lieber in einen guten Monitor investiert [den habe ich schon!] oder ein schönes Wochenende mit der Freundin verbringen, das ist 1000mal besser als dieses tolle DLSS Feature! :daumen:

Das ist aber auch nur deine Meinung.
Eine sachliche Diskussion eben nicht.

Denn von FHD auf WQHD ist wie die Diskussion von WQHD auf UHD bei nem sagen wir mal 27er Monitor.
Die Pixeldichte steigt, das Bild sieht besser aus. Fakt.

Andere kaufen sich halt auch zwei 2080Ti, nen Sportwagen für sich, einen für die Freundin und dann noch ne Yacht?
Was hat das mit der Technik und deren Möglichkeiten zu tun?

Also bitte unterlassen.
 
  • Gefällt mir
Reaktionen: snickii, Oneplusfan, Luzifer71 und eine weitere Person
Zotac2012 schrieb:
oder ein schönes Wochenende mit der Freundin verbringen, das ist 1000mal besser als dieses tolle DLSS Feature!

Alter! Wie bist du denn drauf? Wie kannst du es wagen hier mit deinem Reallife zu Posen, wenn um Grafikkarten geht? Jetzt sag am besten noch, das deine Freundin besser aussieht wie ein GF RTX Karte und du kommst auf den Scheiterhaufen!

/Ironie off
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Muffknutscher schrieb:
Alter! Wie bist du denn drauf?
Bis dahin geh ich noch konform. Dann hätte ich aber angefügt, dass die meisten RTX Käufer vermutlich trotzdem noch das Wochenende mit der Freundin bezahlen können, weil es halt nur eine Investition von vielen ist.
Aber gut, wenn man sich zwischen beidem entscheiden müsste, würde ich vermutlich die Karte auch erstmal nach hinten schieben. Diese Sachverhalte haben aber noch nie etwas zu irgendeiner Diskussion bei den Karten beigetragen.

@Topic
Funktioniert DLSS eigentlich nur mit nativen 4k Bildschirmen oder theoretisch auch mit DSR auf 4k und dann aktiviertem DLSS? Ob das nun Sinn machen würde oder nicht lasse ich mal außen vor.
 
  • Gefällt mir
Reaktionen: Lübke82
Ich brauche mal eine Auffrischung zum Thema.

1. Ist DLSS proprietär oder könnte AMD es ebenfalls nutzen oder bräuchten die eine Eigenentwicklung?
2. Werden dafür spezielle Cores benötigt oder ließe es sich auch auf älteren Karten nutzen?
3. Müssen Entwickler explezit auf DLSS hin entwickeln und unterstützen?
4. Wo liegt der Unterschied zwischen Upscaling+AA und DLSS? Bessere Performance, bessere Bildqualität?
 
Postman schrieb:
Dann haben wenigsten Leute wie du dauerhaft was zu plappern ;)
Nicht jeder sitzt als Sparbrötchen mit Features von gestern im Keller.
Erwähnen sollte man sowas schon. Wenn man so einen halbgaren Vergleich nicht kritisieren darf und alles mit einer rosaroten Brille akzeptieren muss, dann können wir die Kommentarfunktion im Forum gleich ausschalten.

Ich bin kein Feind von neuer Technik und von Nvidia schon gar nicht. Werde hier viel öfters als Blau/Grüner Fanboy hingestellt als mir lieb ist. Dennoch finde ich es sehr bedenklich, dass Nvidia einen mittels proprietäre Technik versucht an eine neue Hardwarelinie anzubinden, dabei gleichzeitig einen Performancevorteil zur (Hauseigenen)-Konkurrenz suggeriert, der gar nicht vorhanden ist und für die old Gen Grafikeinstellungen wählen, die das Bild verschlechtern (TAA), damit alle glauben das 2080 Ti + 4K DLSS Gameplay sei dem nativen 4K Überlegen.

Und das alles wird noch von den unbegründet hohen Preisen überschattet, welches das elitäre Gehabe von Early Adoptern in der letzten Zeit nur noch verschlimmert hat. Vielleicht weiss ja ein Veteran ob das schon immer so war?! An dieser Stelle müssen wir einfach auf einen echten Vergleich von guten Technik Kanälen warten und beobachten, wie sich das entwickelt bzw. wie viele Spiele diese Technik bekommen und somit evtl. zum Vorteil von Nvidia programmiert werden.
 
  • Gefällt mir
Reaktionen: grossernagus
TheUngrateful schrieb:
1. Ist DLSS proprietär oder könnte AMD es ebenfalls nutzen oder bräuchten die eine Eigenentwicklung?
2. Werden dafür spezielle Cores benötigt oder ließe es sich auch auf älteren Karten nutzen?
3. Müssen Entwickler explezit auf DLSS hin entwickeln und unterstützen?
Ja all diese Punkte sind proprietäre NVIDIA Entwicklungen und müssen explizit von den Entwicklern eingepflegt werden. AMD muss etwas eigenes entwickeln wenn sie ähnliche Funktionen bieten wollen.
DLSS selbst funktioniert ja nur mit Verbindung zu den NVIDIA Servern.

Edit: Das DLSS wirklich die Tensor Cores der RTX Serie benötigt wage ich aber zu bezweifeln. Es wird nur eine künstliche Beschneidung seitens NVIDIA durchgeführt um die neuen Produkte verkaufen zu können. Beweisen kann ich das aber logischerweise nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheUngrateful
Phear schrieb:
Diese Sachverhalte haben aber noch nie etwas zu irgendeiner Diskussion bei den Karten beigetragen.

Es war nie meine Absicht hier eine sachliche Diskussion zu starten. Daher auch die /Ironie Tags.

Aber ich kann gerne noch etwas @Topic sagen:

Wer sich halt unbedingt eine Karte in dem Preisbereich kaufen muss/will/kann soll das einfach mal testen, dann wird er/sie schon sehen ob das mit dem DLSS was taugt. Als Nichtkäufer einer 20XX Serie würde ich mich nur auf das verlassen wollen, was ich auch zuhause Testen kann.
 
Phear schrieb:
TheUngrateful schrieb:

da muss man sich etwas mit der Sache auseinander setzen. 4K native + DLSS macht nur dann Sinn wenn man auf 8 K super samplen wöllte, aktuell also fürn Popo. (oder wer hat nen 8K Bildschirm von euch?)

Zur Technik und "mit was und wem kompatibel".

Nvidia rechnet auf ihren Servern hochauflösende Bilder / In Game Szenen. Ein Neuronales Netzwerk (das nachher von den Tensor Cores interpretiert wird) wird dadurch angelernt, die KI lernt also wie niedrig aufgelöste 1440p Bilder eigentlich in 4K bzw eher 16K und mehr aussehen sollten. Als Entwickler machst du also nichts anderes als den Upscaling Algorithmus sich selbst zu überlassen, das System lernt.

Damit das ganze beim Client funktioniert braucht es 1) die Tensor Kerne wegen der Performance und 2) dieses Game spezifische angelernte Neuronale Netzwerk - genau deswegen kann es auch nur mit Nvidia + RTX gehen und auch deswegen braucht es das Experience Tool da dieses fortlaufend neue Deep Learning Profile bereitstellen kann.

Jede Auflösung muss separat angelernt werden. Bei 4 K ist der Gain natürlich am größten und da fehlt es oft an Power, macht also Sinn hier zu beginnen. Deine Grafikkarte rechnet dann also zB nur in 1440p und das Neuronale Netzwerk versucht daraus möglichst intelligent ein 4K bzw 2160p Bild zu machen
 
  • Gefällt mir
Reaktionen: Baal Netbeck, Palatas und TheUngrateful
Krautmaster schrieb:
4K native + DLSS macht nur dann Sinn wenn man auf 8 K super samplen wöllte
Hä? DLSS ist nur unter 4K auswählbar. So ist der Satz etwas irreführend.
Das Ausgegebene Ergebnis ist halt 4K.
Man berechnet quasi halt nur 2/3, der Rest ist Quick and Dirty über die Tensorcores.
 
Bei Nvi
TheUngrateful schrieb:
1. Ist DLSS proprietär oder könnte AMD es ebenfalls nutzen oder bräuchten die eine Eigenentwicklung?
2. Werden dafür spezielle Cores benötigt oder ließe es sich auch auf älteren Karten nutzen?
3. Müssen Entwickler explezit auf DLSS hin entwickeln und unterstützen?
4. Wo liegt der Unterschied zwischen Upscaling+AA und DLSS? Bessere Performance, bessere Bildqualität?
1. Es ist proprietär, läuft nur auf RTX Karten.
2. Das weiß keiner so wirklich. Nvidia sagt, dass die Tensorcores dafür genutzt werden, allerdings so rein von der Funktionsweise sollte es theoretisch auch mit Pascal gehen. Die eigentliche Optimierung findet ja bei Nvidia auf den Servern statt. Die entsprechenden Profile müssten theoretisch auch auf Pascal laufen, aber da muss man sich keine Hoffnung machen bei Nvidia
3. Hinentwickeln nicht, aber sie müssen die Unterstützung in das Spiel einbauen
4. Der Unterschied liegt in der KI, welche lernt und so das Bild so verbessern soll. Ein Upscaler ist im Grunde dumm, DLSS lernt und verbessert sich mit der Zeit. Das System lernt, wie ein optimales Bild auszusehen hat und passt dementsprechend das Upscaling an.
 
  • Gefällt mir
Reaktionen: TheUngrateful
DLSS ist doch n feature mit enormem potential, wen interessiert die native auflösung wenn ich beim spielen den unterschied nicht wahrnehmen kann.
gerade für karten wie die 2070 oder die 2060 kann das feature game changing sein sofern es gut und häufig implementiert wird.
wenn die 2070 damit die leistung einer 1080ti erreicht ohne einen wahrnehmbaren unterschied darzustellen macht das gerade die unteren rtx karten deutlich attraktiver!
 
  • Gefällt mir
Reaktionen: SyntaX, Luzifer71 und Minutourus
OZZHI schrieb:
Erwähnen sollte man sowas schon. Wenn man so einen halbgaren Vergleich nicht kritisieren darf und alles mit einer rosaroten Brille akzeptieren muss, dann können wir die Kommentarfunktion im Forum gleich ausschalten.

Ich bin kein Feind von neuer Technik und von Nvidia schon gar nicht. Werde hier viel öfters als Blau/Grüner Fanboy hingestellt als mir lieb ist. Dennoch finde ich es sehr bedenklich, dass Nvidia einen mittels proprietäre Technik versucht an eine neue Hardwarelinie anzubinden, dabei gleichzeitig einen Performancevorteil zur (Hauseigenen)-Konkurrenz suggeriert, der gar nicht vorhanden ist und für die old Gen Grafikeinstellungen wählen, die das Bild verschlechtern (TAA), damit alle glauben das 2080 Ti + 4K DLSS Gameplay sei dem nativen 4K Überlegen.

Und das alles wird noch von den unbegründet hohen Preisen überschattet, welches das elitäre Gehabe von Early Adoptern in der letzten Zeit nur noch verschlimmert hat. Vielleicht weiss ja ein Veteran ob das schon immer so war?! An dieser Stelle müssen wir einfach auf einen echten Vergleich von guten Technik Kanälen warten und beobachten, wie sich das entwickelt bzw. wie viele Spiele diese Technik bekommen und somit evtl. zum Vorteil von Nvidia programmiert werden.

Klar darf man alles kommentieren.
Ich sehe es schmerzfrei wenn man nicht auf einen Hersteller haut, sondern die verbesserten Techniken betrachtet.

Wenn du Prioritär-Features in den Mund nimmst fällt mir als erstes "Freesync" von AMD ein, die es genauso gemacht hatten. Warum ist es dann NVIDIA verpöhnt sich auf Softwarebasis ein eigenes Konzept zu entwickeln?

AMD kündigt momentan mit dem Codewort "Navi 10" für 2019 gerade mal an mit einer RTX 2080 gleichzuziehen und dass aber ohne Retracing - ob das eine Fehlentscheidung ist wird sich noch zeigen, aber vmtl. fehlt die Power dafür. Aber vmtl. ist auch da NVIDIA Schuld. Für reine Preisfüchse ist und bleibt AMD sicherlich Hoffnung am Horizont, aber für Gamer die auch etwas in ihre Hardware investieren können, ist dies kein Argument. Würde AMD etwas an der Spitze bringen wäre ich gleich dort, denn mir ist die Marke letztendlich egal und nur die Leistung zählt im Bereich des von mir favorisierten 4Ks.

Dass man NVIDIA Käufer dann als "elitär" abstempelt ist blanker Neid.

So mancher von der verwöhnte Schüler und Student sollte sich aber nur mal daran gewöhnen, dass man eben entweder nur in FullHD spielt oder sich alternativ eben nicht alles sofort und gleich haben kann.
Statt ein 300-500 EUR Handy rumzuschleppen, sollte man die Kohle dann eben lieber in eine Grafikkarte investieren oder sich eben eine Konsole kaufen.
 
Danke für die Erläuterung!
Das klingt doch eigentlich sehr vielversprechend und so viel sinnvoller als dieser zum scheitern verurteilte Versuch, jetzt schon "Raytracing" in den Markt zu drücken.

Jetzt bleibt mir die Frage, woran hapert es?
Warum dauert eine implementierung seitens der Entwickler so lange?
Wenn ich es richtig sehe gibt es jetzt Monate nach release nur Benchmarks die dieses Feature nutzen.
Ich weiß, es ist neu. Aber wenn man sowas als Kaufargument hinstellt und bei der Vorstellung exzessiv nur DLSS und Raytracing bewirbt, dann sollte es auch zügig zumindest teilweise nutzbar sein.
Wäre doch lächerlich, wenn es erst mit der nächsten Gen sich verbreiten würde.
 
TheUngrateful schrieb:
Danke für die Erläuterung!
Das klingt doch eigentlich sehr vielversprechend und so viel sinnvoller als dieser zum scheitern verurteilte Versuch, jetzt schon "Raytracing" in den Markt zu drücken.

Jetzt bleibt mir die Frage, woran hapert es?
Warum dauert eine implementierung seitens der Entwickler so lange?
Wenn ich es richtig sehe gibt es jetzt Monate nach release nur Benchmarks die dieses Feature nutzen.
Ich weiß, es ist neu. Aber wenn man sowas als Kaufargument hinstellt und bei der Vorstellung exzessiv nur DLSS und Raytracing bewirbt, dann sollte es auch zügig zumindest teilweise nutzbar sein.
Wäre doch lächerlich, wenn es erst mit der nächsten Gen sich verbreiten würde.

naja, ich sehe die features wie dlss, adaptive shading und raytracing eher als bonus oben drauf.
wenn sie adaptiert werden hab ich was davon, ansonten hab ich genau die richtige GPU um mein 144hz wqhd display und meinen 4k oled zu befeuern.
ein upgrade meiner GPU war sowieso nötig und da kam mir die turing reihe gerade recht, finde die 1080ti im vergleich dazu eher unspannend.
Raytracing als zum scheitern verurteilt darzustellen halte ich für etwas fragwürdig wenn ich das mit 70-100 fps in wqhd nutzen kann und defintiv einen optischen mehrwert erkennen kann.
 
Fraggball schrieb:
DLSS ist doch n feature mit enormem potential, wen interessiert die native auflösung wenn ich beim spielen den unterschied nicht wahrnehmen kann.
gerade für karten wie die 2070 oder die 2060 kann das feature game changing sein sofern es gut und häufig implementiert wird.
wenn die 2070 damit die leistung einer 1080ti erreicht ohne einen wahrnehmbaren unterschied darzustellen macht das gerade die unteren rtx karten deutlich attraktiver!
Na da hat doch das Nvidia Marketing schon voll funktioniert! :daumen:
Ich habe schon einiges auf UHD [2160p] gesehen, aber so ein unscharfes Bild wie in dem Video, war selbst beim preisgünstigsten Monitor mit UHD nie zu sehen, aber das Nvidia immer alles mit fairen und transparenten Mitteln durchführt ist ja bekannt, deswegen schaut man ja immer als erstes bei einer Bestellung einer Nvidia Grafikkarte, ist auch wirklich eine Grafikkarte in der Verpackung oder nur eine Holzattrappe!
 
  • Gefällt mir
Reaktionen: grossernagus
TheUngrateful schrieb:
4. Wo liegt der Unterschied zwischen Upscaling+AA und DLSS? Bessere Performance, bessere Bildqualität?
Beides.

Wie bereits meine Vorredner schon angemerkt haben, lernt das System, wie typische Bilder einer Software in 4K mit AA auszusehen haben. Dabei werden unter Anderem auch Materialien berücksichtigt.

So lernt die KI z.B. wie das Bild aussieht, wenn eine Felsenlandschaft in 4K gezeigt wird.
Die KI sucht nun das Bild nach typischen Mustern ab (z.B. eine detail- Map).
Was DLSS nun macht ist, auf dem Bild auf einer niedrigeren Auflösung basierend (daher kommt der größte Teil der Geschwindigkeitssteigerung) die Details, wie etwas hochaufgelöst auszusehen hat und die es sich vorher eingeprägt hat in ein 4K Bild hineinzurechnen.

Das bedeutet, dass Du im Gegensatz zum reinen Upscaling mit AA zur Kantenglättung tatsächlich ein Bild mit den zugehörigen Details aus dem 4K Lernvorgang erhältst. Je besser die KI trainiert wird, umso erfolgreicher kann das Verfahren die Details wieder rekonstruieren.

Die Qualität von DLSS ist letztenendes nur davon abhängig wie lange und wie viel trainert wird und kann (im Extremfall) die Qualität von nativem 4K mit TAA sogar übertreffen.

Dementsprechend nimmt man als Referenz, die auch "ground truth" genannt wird für das Training der KI ein Bild in 4K mit dem qualitativ am hochwertigst zu Verfügung stehenden Antialias Modus (64x Supersampling). Also eine Bildqualität, die auch von einem TAA geglätteten Bild niemals erreicht werden kann.

Das heisst, dass selbst wenn in einzelnen Szenen die Qualität von DLSS nicht an das Original heranreicht, kann man einfach die KI weiter mit Szenen füttern, wo noch Schwächen offensichtlich sind und schon erhält man ein besseres Ergebnis.

Weiterer Vorteil ist, dass das Verfahren im Screenspace stattfindet. Es ist also egal, ob deferred, forward oder was sonst noch an Renderverfahren angewandt wird - Das Antialias funktioniert an allen Stellen.

Der revolutionäre Ansatz ist eben, dass man durch das Hochrechnen im Optimalfall keine Details verliert und sich im Gegenteil dem Niveau des Bildes angleicht, welches es durch die Bestmögliche Darstellungsoption in 4K erreichen kann und das bei Rendergeschwindigkeiten, die einer 1440p Auflösung ohne AA entsprechen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheUngrateful
Zotac2012 schrieb:
Na da hat doch das Nvidia Marketing schon voll funktioniert! :daumen:
Ich habe schon einiges auf UHD [2160p] gesehen, aber so ein unscharfes Bild wie in dem Video, war selbst beim preisgünstigsten Monitor mit UHD nie zu sehen, aber das Nvidia immer alles mit fairen und transparenten Mitteln durchführt ist ja bekannt, deswegen schaut man ja immer als erstes bei einer Bestellung einer Nvidia Grafikkarte, ist auch wirklich eine Grafikkarte in der Verpackung oder nur eine Holzattrappe!
Guter, sachlicher und völlig unprovokativer beitrag! das ist genau die diskussionskultur die ich in foren so sehr schätze...
 
  • Gefällt mir
Reaktionen: SyntaX
Zotac2012 schrieb:
Ja die Wahrheit schmerzt halt und nicht jeder möchte sie hören! :evillol:
gut das du meine beweggründe beim nötigen upgrade auf eine neue architektur zu setzten, anstatt auf eine mehrere jahre alte, besser kennst als ich selbst.
mehr bleibt mir dazu nicht zu sagen, da jede diskussion darüber aboslut ins leere laufen wird.
 
Zurück
Oben