News Nvidia DLSS 3: Frame Generation ist mit AMD FSR und Intel XeSS nutzbar

.Sentinel. schrieb:
Wer aus höheren Frameraten und niedrigerer Latenz als Nativ wirklich noch etwas Negatives ziehen will, hat halt einfach wirklich den Schuss nicht gehört....
Die Latenz steigt mit FG. Sonst gäbe es tatsächlich kaum was zu meckern.

Und bei 30FPS ist die Latenz schon hoch genug. Was bringt mir dann ein flüssigeres Bild, wenn es sich noch schlechter steuert?
 
Zuletzt bearbeitet:
DrFreaK666 schrieb:
Die Latenz steigt mit FG. Sonst gäbe es tatsächlich kaum was zu meckern
Liest eigentlich irgendjemand die Beiträge, die hier verfasst werden? Offensichtlich nicht...
Die Latenz steigt nicht.
Im Gegensatz zum hier im Forum oftmals über alles gestelltes "natives" Rendern sinkt die Latenz mit den zugedachten Komplementärtechniken.
nVidia hat DLSS&Co. aus einem guten Grund entwickelt und es zum Erscheinen der RTRT- Fähigen Karten unter dem Feature- Set RTX auf den Markt geworfen. Auch kommt es nicht von irgendwo her, dass unter FG Reflex (AMD waren die Ersten) automatisch aktiviert wird.

Ich zitiere:
Das Unternehmen hat die Möglichkeiten des Raytracing und das damit verbundene Spielerlebnis stark vorangetrieben. Diese Technologie sorgt für eine verbesserte Grafik durch realistische Beleuchtung, präzise Schatten und diffuse Lichtquellen. Aber es kann auch Druck auf Ihren ausüben und Ihre FPS-Zahl senken, was für jeden PC-Spieler unglücklich ist.

Genau hier kommt DLSS ins Spiel. Diese Technologie wurde entwickelt, um die visuelle Wiedergabetreue zu verbessern und gleichzeitig die Leistung zu steigern und die Bildwiederholrate hoch zu halten, damit du deinen optimal nutzen kannst.

Es ist eine Komplementärtechnologie, die ohne RTRT wohl nicht so schnell Einzug gehalten hätte.
 
.Sentinel. schrieb:
Liest eigentlich irgendjemand die Beiträge, die hier verfasst werden?
Gute Frage ;)
Denn ich schrieb, dass die Latenz mit Frame Generation steigt. Ich habe nicht mit Nativ verglichen, sondern mit FG on/off und der Tenor der Tester ist eindeutig: Frame Generation erhöht die Latenz.

Ich hab glaub verstanden worauf du hinaus wolltest und wir haben aneinander vorbeigeredet.
30FPS mit aktiviertem DLSS sind natürlich unrealistisch
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Das Schöne am PC ist die Modularität. FG einfach ausschalten und sich des Lebens freuen.
Jede grafische Darstellung am PC erhöht die Latenz. Deswegen gibt es DLSS, FSR, Reflex, VRS &co überhaupt erst.

Man kann immer auf Low spielen in 720P. Super- Latenzen...
 
  • Gefällt mir
Reaktionen: Klever und Coeckchen
.Sentinel. schrieb:
Alleine die Kachel mit "CUDA Templates" ist zum Lachen -> O- Ton
Ja. Ich habe imo auch gut genug beschrieben was ich meine, und daraus abzuleiten, dass ich Open-Source Entwicklungen lächerlich finde, ist schlicht Lüge.

.Sentinel. schrieb:
Aha- Was gibts Du der Open Source Community im Konkreten zurück, wenn es nich proprietär wäre?
Von Android und Chrome hast du aber schon gehört?

.Sentinel. schrieb:
Wo ist Dein akuter Vorteil um die Entwicklung voranzutreiben, wenn sie es offen stellen?
Juckt mich exakt null. Ich argumentiere nicht als Nvidia-Manager, sondern als Verbraucher und Entwickler.

Und in dieser Hinsicht ist Nvidia stumpf ranzig.

.Sentinel. schrieb:
Lies die CUDA Templates. Was ist Dein Problem?
Und dann? CUDA wird danach immer noch Nvidia-exklusiv bleiben, (im wahrsten Sinne) Greenwashing hin oder her.

.Sentinel. schrieb:
PhyxsX, TensorFlow&Co wurde also von Google entwickelt und open source gestellt?
Wenn du dich mit Absicht so doof stellst, verlier ich das Interesse am Gespräch. PsysiX ist NV, TF ist Google.
Kann ein Hauptschüler googlen, auf CB würde ich diese Tatsachen als allgemein bekannt voraussetzen. Und imo läuft TF unter Apache, also ja.

.Sentinel. schrieb:
Hach ja! Sind ja nur solche "Kleinigkeiten" an modernsten Techniken und Beschleunigungsalgorithmen offen lesbar drin, so dass jeder Affe daraus seinen realtime- Pathtracer auch mit komplexeren Szenen draus bauen kann?
Offener kann man es halt nicht mehr gestalten...
Raytracing ist nur halt die stupideste Art Licht zu berechnen. Jeder brauchbare "Affe" ist in der Lage sich ne RT-Engine zu zimmern, weil es wirklich nur Arithmetik ist.

Wir reden hier immer noch über ein 25 Jahre altes Spiel. In der Zeit wurden Leute geboren, wurden erwachsen, haben geheiratet, und selbst Kinder bekommen. Das ist ein lauchiges Beispiel.

.Sentinel. schrieb:
Da muss man halt auch mal feststellen. Es ist völlig egal, was nVidia macht.
Sie können es nur falsch machen und es wird immer durch die absurdesten Konstrukte zu ihrem Nachteil gedreht.
Nvidia macht hervorragende Produkte und entwickelt großartige Technologien. Deshalb sollte man aber keinen Kniefall machen und schlucken was einem an Gebaren präsentiert wird.

.Sentinel. schrieb:
Psychologisch leider nachvollziehbar.
Beleidigungen dürfen in die Stelle geschoben werden, wo die Sonne nicht hinscheint.
 
  • Gefällt mir
Reaktionen: Coeckchen
Bright0001 schrieb:
Ja. Ich habe imo auch gut genug beschrieben was ich meine, und daraus abzuleiten, dass ich Open-Source Entwicklungen lächerlich finde, ist schlicht Lüge.
Habe ich nicht getan.


Von Android und Chrome hast du aber schon gehört?
Ja

Juckt mich exakt null. Ich argumentiere nicht als Nvidia-Manager, sondern als Verbraucher und Entwickler.
#me too

Und in dieser Hinsicht ist Nvidia stumpf ranzig.
In dieser Hinsicht sucht nVidia seinesgleichen.
Stelle mal im Entwicklerportal eine Anfrage. Oder bitte mit Deinem Studio um Unterstützung z.b. bei der Integration von DXGI.

PsysiX ist NV, TF ist Google.
Was tut das zur Sache? Du baust einen Strohmann auf.

Raytracing ist nur halt die stupideste Art Licht zu berechnen. Jeder brauchbare "Affe" ist in der Lage sich ne RT-Engine zu zimmern, weil es wirklich nur Arithmetik ist.
Interessant, dass es Programmierer gibt, die diese "stupide Art" Licht zu berechnen Realtime- Fähig kriegen und andere nicht... Reine Arithmetik? Woher dann die erheblichen Performanceunterrschiede je nach Implementation?

Wir reden hier immer noch über ein 25 Jahre altes Spiel.
Ich wusste garnicht, dass sich der Lichttransport und die Arithmetik nach dem Alter von Spielen richtet.
Ist nicht einer der Vorteile von Raytracing, dass es eben Pixel- based ist und in einer deutlich geringeren Abhängigkeit der Szenenkomplexität steht, sondern eher auflösungskritisch ist?
Versuch mal ReSTIR per Raster zu verwirklichen.

Nvidia macht hervorragende Produkte und entwickelt großartige Technologien. Deshalb sollte man aber keinen Kniefall machen und schlucken was einem an Gebaren präsentiert wird.
Exakt- Nur passiert hier oftmals das Gegenteil. Es wird einseitig Negatives hervorgehoben. Und das passt einfach objektiv nicht ins Gesamtbild.
Wie gesagt und wie wiederholt. Man kann nVidia aus vielen fraglichen Entscheidungen einen Strick drehen.
Da bin ich voll dabei.
Aber in Sachen Forschung, Entwicklung und auch Veröffentlichung von Technik, die für alle Einsehbar ist, macht ihnen im Augenblick keiner was vor. Die ruhen sich nicht aus.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Habe ich nicht getan.
Von "CUDA Templates sind zum lachen" hast du "nvidias Open-Source Bemühungen sind lächerlich" abgeleitet. Also ich würde sagen: Hast du schon.

.Sentinel. schrieb:
Na dann sind wir ja einer Meinung, dass Gewinnorientierung und echte Open-Source koexistieren kann.

.Sentinel. schrieb:
In dieser Hinsicht sucht nVidia seinesgleichen.
Man braucht nicht lange suchen, schließlich existiert Intel ja auch.

.Sentinel. schrieb:
Oder bitte mit Deinem Studio um Unterstützung z.b. bei der Integration von DXGI.
Da weiß ich leider nicht, was das ist. :p

.Sentinel. schrieb:
Was tut das zur Sache? Du baust einen Strohmann auf.
Also nur um es zusammen zu fassen:
Du fragst mich, wer das entwickelt hat.
Ich antworte.
Du beschuldigst mich einen Strohmann aufzubauen.

Ernsthaft?

.Sentinel. schrieb:
Interessant, dass es Programmierer gibt, die diese "stupide Art" Licht zu berechnen Realtime- Fähig kriegen und andere nicht... Reine Arithmetik? Woher dann die erheblichen Performanceunterrschiede je nach Implementation?
Eine Liste von X zu sortieren ist ein stumpfes Problem; Es wird nicht weniger stumpf, weil ein Algorithmus besser als ein anderer ist. Gleiches gilt für RT, am Ende ist es Bruteforcing für Licht.

.Sentinel. schrieb:
Ich wusste garnicht, dass sich der Lichttransport und die Arithmetik nach dem Alter von Spielen richtet.
Ist nicht einer der Vorteile von Raytracing, dass es eben Pixel- based ist und in einer deutlich geringeren Abhängigkeit der Szenenkomplexität steht, sondern eher auflösungskritisch ist?
Versuch mal ReSTIR per Raster zu verwirklichen.
Es ist halt wirklich das (fast) Minimalste, was man tun konnte. Das ist kein AAA-Brecher, sondern ein Spiel, wo Millennials bei Erscheinen teils ungeboren waren.

Da fange ich nicht an zu klatschen.

.Sentinel. schrieb:
Exakt- Nur passiert hier oftmals das Gegenteil. Es wird einseitig Negatives hervorgehoben. Und das passt einfach objektiv nicht ins Gesamtbild.
Wie gesagt und wie wiederholt. Man kann nVidia aus vielen fraglichen Entscheidungen einen Strick drehen.
Da bin ich voll dabei.
Aber in Sachen Forschung, Entwicklung und auch Veröffentlichung von Technik, die für alle Einsehbar ist, macht ihnen im Augenblick keiner was vor. Die ruhen sich nicht aus.
Na auf der Ebene sind wir doch einer Meinung: Ich widerspreche nicht, dass nv hervorragende Arbeit macht. Aber als Unternehmen ist es halt reichlich ungeil.

Ich kann mich noch gut daran erinnern meine 970 zurück zu schicken, weil nv sehr "frei" in ihrer Interpretation von 4GB waren.
 
Ich kann dem Framegeneration nichts abgewinnen, bisher. Ich weis nicht was ich damit soll?
Habe es in A Palgue Tale: Requiem getestet. Wenn ich dort DLSS auf Q stelle habe ich 144FPS und der Input Lag ist wie man es bei 144 erwartet, weiter ist die Leistungsaufnahme der Grafikkarte relativ niedrig, meist (deutlich) unter 300W und die CPU wird zwar genutzt aber nicht übermäßig, entsprechend ist auch die Leistungsaufnahme der CPU. Wenn ich Framegeneration anschalte sehe ich eigentlich grafisch keinen Unterschied. Aber ich habe jetzt 260FPS, aber der Input-Lag ändert sich nicht, er wird gefühlt nicht besser und nicht schlechter. Gemessen habe ich es nicht, da ich nicht weis wie. Die Leistungsaufnahme der Grafikkarte steigt aber deutlich an auf ca. 360W (80%PT). Auch die CPU wird deutlich mehr gefordert und die Leistungsaufnahme + Temps steigen. Jetzt frage ich mich, wozu das Ganze? Der Input Lag sollte deutlich hlher sein als ohne Frame Generation, also was ist mein Mehrwert? Wenn ich von 60 FPS auf 120 FPS dadurch steige der Input-Lag aber von 60FPS auf 45FPS sinkt habe ich doch nicht gewonnen mit Framegeneration. Dass ich bei 144 FPS nicht merke, dass der Input-Lag auf 100FPS steigt ist auch klar, da dieser ohnehin sehr gering ist.
Ich bin sehr zwiegespalten bei dem Thema. Vielleicht teste ich mal mit 20% PT um mal wirklich niedrige FPS zu bekommen.
 
projectneo schrieb:
Ich kann dem Framegeneration nichts abgewinnen, bisher. Ich weis nicht was ich damit soll?
Es hilft Energie zu sparen und höhere FPS zu erreichen.
Der Lag ist komplett zu vernachlässigen. Ich kanns nicht oft genug sagen. Wir reden hier im Normalfall von wenigen Millisekunden.
Jeder Mensch induziert allein mit seiner Reaktionsfähigkeit ein um Größenordnungen heftigeren "Lag".
https://humanbenchmark.com/tests/reactiontime

Manche bilden sich aber ein, dass dann zusätzliche 5ms das Kraut plötzlich fett machen würde.
 
Zuletzt bearbeitet:
Naja es spart ja aber keine Energie. Der Energieverbrauch steigt bei mir deutlich an. Und zum Thema Input Lag ist es sehr wohl ein Unterschied ob der Input mit 45 FPS berechnet wird oder mit 60 FPS.
 
.Sentinel. schrieb:
Manche bilden sich aber ein, dass dann zusätzliche 5ms das Kraut plötzlich fett machen würde.
Hardware Unboxed misst bis zu 15ms zusätzlichen Input-Lag. Macht das das Kraut immer noch nicht fett?
Screenshot_20221114_153726_com.google.android.youtube.jpg
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Jeder Mensch induziert allein mit seiner Reaktionsfähigkeit ein um Größenordnungen heftigeren "Lag".
Input-Lag hat aber auch nicht wirklich etwas mit der eigenen Reaktionszeit zu tun, sondern beschreibt schlicht die Verzögerung bis ich meinen Tastendruck auf dem Bildschirm sehe. Und das nimmt auch schon weit unter der menschlichen Reaktionszeit als störend war.

Bei einem Lichtschalter würdest du beispielsweise auch merken, wenn das Licht erst 15+ ms nach dem Drücken an geht - und genau das ist der Input-Lag in einem Spiel.
 
DrFreaK666 schrieb:
Hardware Unboxed misst bis zu 15ms zusätzlichen Input-Lag. Macht das das Kraut immer noch nicht fett?
Anhang anzeigen 1283700
Nein- Macht es nicht. Sehr schön sieht man hier, dass man mit dem Featurebundle von DLSS3 immer entgspannt unter der nativen Latenz liegt. Sag ich ja schon die ganze Zeit.
Und nicht nur das- Man hat auch noch die 3!- Fache Framerate.
Ergänzung ()

mibbio schrieb:
Input-Lag hat aber auch nicht wirklich etwas mit der eigenen Reaktionszeit zu tun, sondern beschreibt schlicht die Verzögerung bis ich meinen Tastendruck auf dem Bildschirm sehe.
Exakt- Der Gesamtapparat vom Mausklick bis zur Ausgabe dauert bereits so lange, dass die par ms von FG einfach überhaupt nicht ins Gewicht fallen.
 
.Sentinel. schrieb:
Exakt- Der Gesamtapparat vom Mausklick bis zur Ausgabe dauert bereits so lange, dass die par ms von FG einfach überhaupt nicht ins Gewicht fallen.
Das macht trozdem einen Unterschied, weil das eine rein gar nichts mit dem anderen zu tun hat. Wenn ich das Ergenbis vom Tastendruck erst X ms nach dem Drücken auf dem Bildschirm sehen ist doch völlig egal, ob ich davor 1 ns oder 1 h für das Drücken gebraucht habe - die X ms Input-Lag nehme ich dann trotzdem war und länger der Lag ist, desto störender wirkt der in der Wahrnehmung.
Da kann man nicht einfach Reaktionszeit und Input-Lag zusammenrechnen oder miteinander ins Verhältnis setzen, weil das 2 getrennte Vorgänge sind.
 
.Sentinel. schrieb:
Nein- Macht es nicht. Sehr schön sieht man hier, dass man mit dem Featurebundle von DLSS3 immer entgspannt unter der nativen Latenz liegt. Sag ich ja schon die ganze Zeit.
Und nicht nur das- Man hat auch noch die 3!- Fache Framerate.
Du bist echt ein übler Cherry Picker.
Mit DLSS Quality hat man auch schon Performance-Steigerung UND eine deutlich bessere Latenz als mit FG.
 
mibbio schrieb:
Das macht trozdem einen Unterschied, weil das eine rein gar nichts mit dem anderen zu tun hat.
Ich bin ja nicht derjenige der behauptet, dass damit die Spiele dann schlecht spielbar sind...

DrFreaK666 schrieb:
Du bist echt ein übler Cherry Picker.
Mit DLSS Quality hat man auch schon Performance-Steigerung UND eine deutlich bessere Latenz als mit FG.
Du aber auch- Du kannst nämlich auch einfach auf 720P und Low spielen. Dann hast Du eine noch bessere Latenz.

Ich glaube hier driften immer weiter ab, weil es nicht mehr um den Kern der Diskussion bzw. meiner Aussage dazu geht.
Basis meines Einwurfs auf einige Posts, die gegen DLSS3 gewettert haben war, dass der gesteigerte Lag hier überhöht als Negativfaktor unters Brennglas gelegt wird.
Und dieser daher aufgrund des Vergleichs mit der Nativen Auflösung, mit der man jetzt seit 60 Jahren Computer Spiele mit Spaß spielen konnte, in der Praxis nicht ins Gewicht fällt.

Ich kanns nur nochmal wiederholen- Wer die Möglichkeit dazu hat, ausprobieren. Bright Memory Infinite rein, DLSS Quality und FG. Denjenigen möchte ich sehen, der dann jammert, dass der Shooter aufgrund des lags nicht oder schlechter spielbar sei.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Ich bin ja nicht derjenige der behauptet, dass damit die Spiele dann schlecht spielbar sind...
Du behauptest aber die ganze Zeit, das der Input-Lag nicht ins Gewicht fällt weil die menschliche Reaktionszeit viel höher ist. Und die Reaktionszeit hat schlich überhaupt keinen Einfluss darauf, ob man den Input-Lag als störend wahrnimmt oder nicht.
 
mibbio schrieb:
Du behauptest aber die ganze Zeit, das der Input-Lag nicht ins Gewicht fällt weil die menschliche Reaktionszeit viel höher ist.
Nein- Ich behaupte, dass DLSS3 mit aktivierter FG keinen für den Spieler in der Praxis spürbaren lag generiert.
Der Ausflug in die Reaktionszeit kam nur um zu vergegenwärtigen, wie sich Milisekunden in der Praxis auswirken können und wieviele einige ein par Milisekunden erhöhten Ausgabelags komplett überbewerten "nach dem Motto - 10 Milisekunden sind schuld daran, dass ich keinen Gegner treffe", das aber als Grund nehmen, um FG grundsätzlich zu verteufeln.

Ist wie bei DLSS oder FSR, wo die Leuts mit der Lupe und slow motion auf die Suche gehen, um Unterschiede in einzelnen Pixeln dann an den Pranger stellen zu können.
Beiseite gelassen wird der enorme Effizienzgewinn und dass im überwigenden Teil des Bildes die Qualität höher ist als nativ.

Es herrscht hier im Forum inzwischen eine unglaubliche Technikfeindlichkeit. Tendenziell wird alles Neue argwöhnisch begutachtet und erstmal schlecht gemacht bzw. evtl. vorhandene Nachteile übergroß in den Raum gestellt. Entwicklunsgzeit wird einer neuen Technik überhaupt nicht mehr zugestanden. Alles muss ab Tag 1 perfekt sein oder es wird als Müll abgestemeplt.
Erschwerend kommt dann hinzu, wenn wahlweise die Technik nicht mehr auf allen Grafikkarten funktioniert, dass ganze nicht open source ist, diese vom falschen Hersteller kommt usw. usf.

DLSS war lange Zeit hier ein Prügelknabe. Deswegen bin ich gelinde gesagt irritiert, weswegen man jetzt plötzlich DLSS als Referenz hernimmt und nicht mehr das geliebte "nativ".
Klar- Dann könnte man ja an FG ein schlechtes Haar weniger lassen...
Die Technik ist gut. Sie muss halt wie in der VR mit einer Spacewarp- ähnlichen Technik ergänzt werden.
Wenn eine Technik latenzkritisch ist und zwischen tollem Erlebnis und Brechreiz entscheidet, dann VR.
Dort funktioniert das inzwischen einwandfrei.
Dann kannst Du auch die Tickrate der Engine an das mit FG angleichen und schon hast Du wieder Deine 1:1 Input- Latenz.
Zudem muss ein Algorithmus rein, der Bildwechsel erkennt und dann das Zwischenframe bei einem kompletten Szenenwechsel entfernt. Und eine Maske muss noch rein, die Elemente ebenenabhängig dann einer anderen Behandlung unterzieht (HUD- Elemente bzw. Beschriftungen).
Alles schon in der Mache...
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Nein- Ich behaupte, dass DLSS3 mit aktivierter FG keinen für den Spieler in der Praxis spürbaren lag generiert.
Das ist dein Empfinden. Andere sehen das womöglich nicht so.
Deine Meinung ist nicht die Meinung aller (meine natürlich auch nicht).
 
  • Gefällt mir
Reaktionen: .Sentinel.
Zahlen lügen nicht. Du hast den entsprechenden Beweis dafür oben selbst verlinkt.

1668504888986.png

Ich sehe also nicht, warum man hier künstlich ein Problem schaffen will, indem man hier auf einmal wild Referenzpunkte (die der 08/15 User in seinen Settings nunmal benutzt) nach Belieben tauscht.

Weil dann kann man, wie bereits gesagt die Grafik immer auf 720P und Ultralow runterschrauben und hat die beste Latenz, wenn man alles andere schlecht dastehen lassen will.

Zudem darf man auch nicht vergessen, dass das Beispiel Cyberpunk mit niedrigen Scene FPS in der Basis hier technisch bereits die Maximalstrafe für DLSS3+FG darstellt.

Und nochmal- Ich behaupte nicht, dass in der aktuellen Version die FG die Latenzen nicht erhöht.
Genausowenig, wie ich behaupte, dass es fehlerfrei ist.
Auch das Frame 1 nach Szenenwechsel ist unter der Lupe bei DLSS2 qualitativ minderwertig.

Wo gehobelt wird, da fallen Späne. DLSS&co. sind sowas wie das MP3 in der Audiowelt.
Die in der Grafik so wichtigen Performance- und Effizienzvorteile sprechen für sich.
 
Zuletzt bearbeitet:
Zurück
Oben