News Nvidia DLSS 3: Frame Generation ist mit AMD FSR und Intel XeSS nutzbar

catch 22 schrieb:
eine 4090 die im FS runter auf 35FPS geht
An
catch 22 schrieb:
p.s.
eine 4090 die im FS runter auf 35FPS geht? Da muss irgendwas ganz gewaltig falsch laufen. Ich kann kaum glauben, dass man dafĂĽr 2000+ Euro raushaut
👀🤔 was? Msfs ist im cpu limit auf 35 fps. Die 4090 langweilt sich. Aber sie kappt das cpu limit mit dlss3; Und zwar gewaltig.
Das könnte ich nicht mit einem 13900ks@6ghz erreichen.
Das und die rohe power waren mir 2000€wert. Das gute Stück hält nun auch ein paar Jahre bei der Power..

Allerdings ist auch diese Magie begrenzt. Wenn ich unter so 35 fps bin dann wird auch dlss3 mit seinen 60 ruckeln ( nicht so stark wie 35 aber mit zu stark).
Aber mit 400 view distance über Hamburg komplett smooth fliegen ist schon nett. Auch die ganzen cpu belastenden addons sind nun wieder aktiviert🤓

Nun mal auf den cp2077 dlss3 patch warten. Da gibt es auch einige cpu limit scenarios bei mir..
 
Zuletzt bearbeitet:
Laphonso schrieb:
Und dann gibt es aber auch kein Frame Generation. Logisch, oder?
Nein, du kannst FSR auf deiner 4000er NV Karte nutzen und die FG einschalten - man das hat doch Igr raus gefunden das das geht... Und genau dann hätte es auch für NV Karten Besitzer schon einen deutlichen Mehrwert....
 
@Novasun Welchen Mehrwert sollte das haben?
Wenn ein Spiel FG unterstĂĽtzt, dann unterstĂĽtzt es auch DLSS, weil es als Teil von DLSS3 integriert sein wird.
Also warum sollte man als RTX 4000 Besitzer dann FSR+FG nutzen wollen, wenn man DLSS+FG nutzen kann?

Dass man FG auch zusammen mit FSR oder XeSS nutzen kann, ist eine rein technisch interessante Information(wobei eben auch nicht überraschend, da FG ja losgelöst von Upscalern aktiviert werden kann, also logisch dass es in allen möglichen Kombinationen geht), aber nichts, was irgendwem real etwas bringen würde.
 
  • Gefällt mir
Reaktionen: mibbio
Soso, diese komischen KI sonstwas Einheiten auf der 4090 haben wohl auf dieses Ergebnis reduziert ĂĽberhaupt keine Relevanz.
 
Klar, aber wie war das mit DLSS?
 
Was soll mit DLSS sein? Dafür werden die Tensor Cores benötigt, also RTX 2000, 3000 und 4000 vorausgesetzt.

Die stark verbesserten Optical Flow Accelerator auf der 4090 sind für den FG Part von DLSS3 zuständig, alle anderen Features von DLSS3 können auch von RTX 2000 und 3000 genutzt werden.

FG+FSR ist mit RTX 4000 möglich, was aber unnötig ist, da man hier auch direkt FG+DLSS nutzen kann.
RTX 3000 kann DLSS und FSR nutzen, aber kein FG.
 
Zuletzt bearbeitet:
Novasun schrieb:
Nein, du kannst FSR auf deiner 4000er NV Karte nutzen und die FG einschalten - man das hat doch Igr raus gefunden das das geht... Und genau dann hätte es auch für NV Karten Besitzer schon einen deutlichen Mehrwert....
Den Falschen zitiert? ^^
 
mibbio schrieb:
Von daher hat die Erkenntnis einen recht geringen Mehrwert, denn warum sollte jemand mit einer RTX 4000 FSR oder XeSS (mit Frame Generation) nutzen, wenn er auch direkt DLSS nehmen kann?
Ganz einfach, was ist wenn ein Spiel FSR aber kein DLSS unterstützt? (Unwahrscheinlich, aber möglich)
 
SavageSkull schrieb:
Man stelle sich vor AMD hätte große Marktanteile und egal was sie machen, die Produkte würden gekauft werden. Glaubt jemand ernsthaft, dass die dann weiter die guten Erfindungen als Open Source verschenken?
Wer würde denken, dass Google irgendwas verschenken würde? Chrome und Android existieren nichtsdestotrotz. Und auch AMD zeigt regelmäßig, dass man Technologien frei zugänglich machen kann.

.Sentinel. schrieb:
Also was gerade nVidia in Sachen AI, Raytracing usw. an Forschung frei zugänglich gestellt hat, ist mehr als beachtlich.

Diese immer wieder so gerne hervorgeholte Behauptung ist schlichtweg falsch:
https://developer.nvidia.com/open-source
Schlichtweg falsch nennst du das? Alleine die Kachel mit "CUDA Templates" ist zum Lachen, weil CUDA als proprietäre Technologie ein massives Hindernis ist, um mit nicht-nvidia GPUs produktiv zu arbeiten, ganz explizit in AI-Themen.

Allgemein fallen in der Liste hauptsächlich PyTorch und TensorFlow ins Auge, und dass NV ein Contributer ist, ist nicht verwunderlich: Am Ende muss Software auf ihren GPUs ja schließlich laufen. Deren Bier ist es aber nicht.

Nichts von dem "coolen" Kram macht Nvidia öffentlich oder frei zugänglich. Aber ja, in der Liste ist mittlerweile auch PhysiX, 2008 lässt grüßen.
 
loco28 schrieb:
Ganz einfach, was ist wenn ein Spiel FSR aber kein DLSS unterstützt? (Unwahrscheinlich, aber möglich)
Weil es praktisch nicht vorkommen wird, dass ein Entwickler Support fĂĽr Frame Generation ins Spiel einbaut, aber kein DLSS.
 
loco28 schrieb:
Ganz einfach, was ist wenn ein Spiel FSR aber kein DLSS unterstützt? (Unwahrscheinlich, aber möglich)
Dann nĂĽtzt es dir auch nichts dass du die Frame Generation auch mit FSR aktivieren kannst, weil es dann auch keine Frame Generation im Spiel gibt
 
.Sentinel. schrieb:
Mach mal bei Bright Memory:Infinite den Framecap auf 30 und stell die FG an.
Dann werden mit FG dann 60 FPS ausgegeben. Funktioniert erstaunlicher Weise einwandfrei und ohne spĂĽrbare Fehler.
Ich glaub hier redet niemand von Fehler.
Aber der Input-Lag ist bei 30FPS schon bescheiden und noch weniger sollte man eigentlich nicht haben wollen
 
Bright0001 schrieb:
Schlichtweg falsch nennst du das? Alleine die Kachel mit "CUDA Templates" ist zum Lachen, weil CUDA als proprietäre Technologie ein massives Hindernis ist, um mit nicht-nvidia GPUs produktiv zu arbeiten, ganz explizit in AI-Themen.
Du bezeichnest open source in diese Richtung als "lächerlich"?
Bright0001 schrieb:
Allgemein fallen in der Liste hauptsächlich PyTorch und TensorFlow ins Auge, und dass NV ein Contributer ist, ist nicht verwunderlich: Am Ende muss Software auf ihren GPUs ja schließlich laufen. Deren Bier ist es aber nicht.
Sondern wessen dann?
Bright0001 schrieb:
Nichts von dem "coolen" Kram macht Nvidia öffentlich oder frei zugänglich. Aber ja, in der Liste ist mittlerweile auch PhysiX, 2008 lässt grüßen.
Wie verbohrt muss man sein?
https://github.com/NVIDIA/Q2RTX

DrFreaK666 schrieb:
Ich glaub hier redet niemand von Fehler.
Aber der Input-Lag ist bei 30FPS schon bescheiden und noch weniger sollte man eigentlich nicht haben wollen
Also ein Großteil der Konsolenspieler haben seit Jahrzenhnten nur beschieden Spaß haben können....?
Ein wenig runterkommen vom hohen Ross währe inzwischen wohl durchaus angebracht,
Man wäre dort über viele Jahre durchaus froh um "Fake 60 FPS". Abgesehen von verbessertern Frametimes durch DLSS 3....

Offenbar wird hier nicht verstanden, dass die Zwischenbildberechnung eines FG oder des neuen AMD Features wenig mit interpolation eines 08/15 Fernseher zu tun hat.

Durch DLSS und FG fĂĽhlt man sich hier betrogen und um die brute- force fps gebracht.
Was fĂĽr eine Bigotterie in den heutigen Zeiten...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Coeckchen
.Sentinel. schrieb:
Du bezeichnest open source in diese Richtung als "lächerlich"?
Wann und wie hab ich das gesagt? Wo hab ich das Wort "lächerlich" benutzt? Lass die Vogelscheuchen (aka Strohmänner) dort bleiben, wo sie hingehören; Aufs Feld, und nicht ins Forum.

CUDA ist eine essenzielle Sache, ohne die man häufig halt nicht auskommt. Schön, dass es das gibt, aber panne, weil es proprietär ist. Nvidia behält seine Karten in der Hand, und "CUDA Templates" auf dem Open-Source Reel ist ein fetter Mittelfinger an alle anderen.

.Sentinel. schrieb:
Sondern wessen dann?
Facebook und Google? Oder legst du uns nahe, dass beides aus Nvidias Feder stammt?

.Sentinel. schrieb:
Hach ja! Gib uns ein Open-Source Projekt von einem 25 Jahre altem Spiel, als Beweis, dass Nvidia ihre aktuellen Technologien mit allen teilt. Wie verbohrt muss man sein, damit man sowas ĂĽberhaupt posten kann?
 
Bright0001 schrieb:
Wann und wie hab ich das gesagt? Wo hab ich das Wort "lächerlich" benutzt? Lass die Vogelscheuchen (aka Strohmänner) dort bleiben, wo sie hingehören; Aufs Feld, und nicht ins Forum.
Alleine die Kachel mit "CUDA Templates" ist zum Lachen -> O- Ton
CUDA ist eine essenzielle Sache, ohne die man häufig halt nicht auskommt. Schön, dass es das gibt, aber panne, weil es proprietär ist.
Aha- Was gibts Du der Open Source Community im Konkreten zurück, wenn es nich proprietär wäre?
Wo ist Dein akuter Vorteil um die Entwicklung voranzutreiben, wenn sie es offen stellen?
Darfst Du das je nach Modell ĂĽberhaupt?
Bright0001 schrieb:
und "CUDA Templates" auf dem Open-Source Reel ist ein fetter Mittelfinger an alle anderen.
Lies die CUDA Templates. Was ist Dein Problem?
Bright0001 schrieb:
Facebook und Google? Oder legst du uns nahe, dass beides aus Nvidias Feder stammt?
PhyxsX, TensorFlow&Co wurde also von Google entwickelt und open source gestellt?
Bright0001 schrieb:
Hach ja! Gib uns ein Open-Source Projekt von einem 25 Jahre altem Spiel, als Beweis, dass Nvidia ihre aktuellen Technologien mit allen teilt. Wie verbohrt muss man sein, damit man sowas ĂĽberhaupt posten kann?
Hach ja! Sind ja nur solche "Kleinigkeiten" an modernsten Techniken und Beschleunigungsalgorithmen offen lesbar drin, so dass jeder Affe daraus seinen realtime- Pathtracer auch mit komplexeren Szenen draus bauen kann?
Offener kann man es halt nicht mehr gestalten...

Da muss man halt auch mal feststellen. Es ist völlig egal, was nVidia macht.
Sie können es nur falsch machen und es wird immer durch die absurdesten Konstrukte zu ihrem Nachteil gedreht.
Psychologisch leider nachvollziehbar.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Also ein Großteil der Konsolenspieler haben seit Jahrzenhnten nur beschieden Spaß haben können....?
Wie wäre es mit einem Blick in die Gegenwart? Viele wählen den Performance-Modus, wenn es diesen gibt. Nur Switch-Spieler haben keine Wahl und müssen mit Geruckel leben
 
Aha- Wenns ums Anfeinden geht, ist plötzlich jedes Mittel recht? Da nutzt man dann auch mal das Anfangs verschriene und verhasste DLSS als Schein- Argument, damit man eine neue Technik noch mit Schmutz behaften kann?
Ausgangspunkt bleibt und ist "nativ". Da kann man sich jetzt noch so sehr winden....

Die selektive Wahrnehmung nimmt inzwischen wirklich ĂĽberhand. DLSS3+FG ist nicht umsonst ein Bundle.
Wer aus höheren Frameraten und niedrigerer Latenz als Nativ wirklich noch etwas Negatives ziehen will, hat halt einfach wirklich den Schuss nicht gehört....

Ich versteh hier wirklich langsam die von der Realtität komplett entkoppelte Forenwelt nicht mehr.
 
Zuletzt bearbeitet:
Wer aus höheren Frameraten und niedrigerer Latenz als Nativ wirklich noch etwas Negatives ziehen will, hat halt einfach wirklich den Schuss nicht gehört....

Ich wiederhole mich. Und beleidigen will ich niemanden.

Schalt einfach alles aus, was Raytracing ist oder die Render- Effizienz steigert. Kauf kein nVidia.
Mach was auch immer Dir beliebt. Es steht Dir frei.
Es ist Dein gutes Recht. Aber kritisiere nicht eine Firma dafĂĽr, dass sie mit Nachdruck neue und vor allem sinnvolle Techniken etabliert, die das Fortbestehen und den weiteren Performancezuwachs in Sachen Visualisierung forciert, nur weil sie der MarktfĂĽhrer ist und Geld einspielen muss.
Nebst dem dass jeder Gamer und Entwickler in Zukunft davon profitiert, weil weit weniger Ressourcen in das Scene- Editing flieĂźen mĂĽssen und nervige Grenzen im Game- Design aufgehoben werden.

Anstatt zu jubeln, wird nur gemeckert und kritisiert.
Sind wir hier noch in einem Computer- Enthusiasten- Forum?
 
Zuletzt bearbeitet:
ZurĂĽck
Oben