Bericht Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions

Ich frage mich ja, ob und wie weit DLSS3 der Interpolation bei TVs entspricht. Dort sieht man ja auch Klötzchenbildung und Bildfehler. Umso höher man dies einstellt, umso höher auch die Fehler.
 
leonM schrieb:
Naja, das Dumme ist halt, wenn man jetzt 30 Frames hat, so sind es dann 60 in DLSS3 mit einem Inputlag von 33,33ms. Sprich, der Inputlag und somit das Spielgefühl bestimmen die realen Frames. Jetzt z.B bei Shottern bzw. MP-Shootern hab ich kein Mehrwert und bei NextGen-Shootern dann noch weniger und dabei geht es halt um die schnelle Reaktion.
Der Effekt ist nur visueller Natur, und das hat ja auch einen Wert. Aber klar, einen Gameplay-Vorteil hast du dadurch nicht, aber den bekommst du durch die meisten anderen Grafikfeatures auch nicht.
 
MeisterOek schrieb:
Ich frage mich ja, ob und wie weit DLSS3 der Interpolation bei TVs entspricht. Dort sieht man ja auch Klötzchenbildung und Bildfehler. Umso höher man dies einstellt, umso höher auch die Fehler.
Streng genommen scheint es ja keine Interpolation zu sein sondern eher eine Extrapolation rein aus vorhergehenden Frames. Dass Eingaben oder Engineinput (Physik, etc.) vernünftig extrapoliert werden können, sehe ich aber eher skeptisch. Für Shooter, generell Multiplayer wahrscheinlich eher abzustellen, um lange auf seine Aufbaustrategiesiedlung oder die Szenerie in seinem SingleplayerRPG zu schauen aber ja vielleicht ok. Die Frage ist, ob man in eher ruhigen Szenarien die hohen (Fake) fps überhaupt braucht…

Edit: der erhöhte Inputlag als Nachteil mal ganz außen vor ( Ja, Reflex, natürlich. Aber das geht auch heute schon, womit der Lag-Nachteil objektiv wohl bleibt.)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McTheRipper und MeisterOek
whyme schrieb:
Also könnte AMD hingehen und 4x das gleiche Frame ausgeben und behaupten man hätte die vierfache Leistung? Wer die FPS liefert hat ja schließlich recht.
Und bonus gibts noch oben drauf, wenn man 4x das gleiche Frame liefert, leidet auch nicht die Qualität darunter.
Nein, man kann meine Aussage auch zwanghaft falsch verstehen wollen. Im Endeffekt wirds Ende des Jahres ne Menge Tests geben um diese Fragen im Detail zu klären.

Ich freu mich jetzt schon darauf mit ner schönen Kanne Kaffee die Tests und Kommentare zu lesen.
 
  • Gefällt mir
Reaktionen: hurcos, fullnewb und Sun-Berg
fortunes schrieb:
Und dann der Stromverbrauch in der aktuellen Zeit... hui.

Für mich dürften höchsten 4060/4070 interessant sein.

Den 4k-Hype habe ich wohlweislich ignoriert, und bleibe bei WQHD/144Hz. Das Seasonic Fanless 600 Watt bleibt ebenfalls, deshalb ist der Verbrauch meiner RTX2070S das Maximum, das ich akzeptiere.
 
  • Gefällt mir
Reaktionen: Czk666
wern001 schrieb:
was bringt das schnellere encodieren von h.256 wenn die Qualität weiterhin schlecht ist.
ein 8 bit cpu codiert sieht genauso aus wie 10 bit nvidia gpu codiert. bei sonst gleichen parametern.
extrem sieht man das bei feinen farbverläufen wie nebel. Bei nvidia/amd GPU gibt es oft so unschöne tonwertabrisse
Hab kein Plan von encodieren aber Nvidia hat ein Video gezeigt in welchen die Qualität deutlich besser ist. Auch bei whqdund dann streaming auf Twitch auch auf 1440 sah das Bild sehr viel besser aus.
 
Garack schrieb:
Hab kein Plan von encodieren aber Nvidia hat ein Video gezeigt in welchen die Qualität deutlich besser ist. Auch bei whqdund dann streaming auf Twitch auch auf 1440 sah das Bild sehr viel besser aus.
Nicht immer alles für bare Münze nehmen. Das betrifft ALLE Firmen.

Wolfgang, Sven, Jan, Volker und das ganze CB Team werden noch SEHR VIEL zu testen und vergleichen bekommen! 💕
 
  • Gefällt mir
Reaktionen: dideldei, AntiPriester und Jan
MeisterOek schrieb:
Ich frage mich ja, ob und wie weit DLSS3 der Interpolation bei TVs entspricht. Dort sieht man ja auch Klötzchenbildung und Bildfehler. Umso höher man dies einstellt, umso höher auch die Fehler.
Scaler im TV arbeiten mit lokaler Rechenleistung, da wurde nichts mit AI/DL "trainiert".
 
Weiß man eigentlich schon ob BeQuiet einen 16-Pin Adapter anbieten wird? Irgendwie finde ich von denen gar nichts darüber, weder über neue Netzteile noch über einen Adapter der direkt am Netzteil angeschlossen werden kann. Letzteres wäre ja eigentlich wünschenswert.
 
Daddi89 schrieb:
So kann man nicht argumentieren.
Doch, kann man. Ich möchte, dass meine Spiele bestmöglich aussehen. Wenn ich mir die jetzt mit Softwaretricks schneller machen muss, dabei aber dann Bildqualität flöten geht, dann kann ich auch einfach RT abschalten ohne dass mir das wirklich negativ auffällt. Dafür brauche ich keine AI.
Daddi89 schrieb:
Winzige Bildfehler die dann möglicherweise mal kurz aufflickern stören mich dann weit weniger...
Ja, dich. Andere sehe das anders.
 
  • Gefällt mir
Reaktionen: konkretor, kurfuerst1982, Lindar und eine weitere Person
@Capthowdy

Die Adapter werden wie im Artikel beschrieben (gelesen?) den Karten beiliegen.
 
Humbertus schrieb:
Nein, man kann meine Aussage auch zwanghaft falsch verstehen wollen.
Natürlich, aber wenn dir egal ist, woher die FPS kommen und wie die Qualität ist, dann ist das nur einen Schritt weiter gedacht. Und damit werden die Balken eben auch länger.

Ja bei der interpolation passiert mehr als nur doppelt frames ausgeben, aber die Qualität wird darunter zwangweise leiden. Also bleibt auch eine Frage, wieviel diese Frames dann wert sind, oder ob sie nur dazu da sind um die Balknen zu verdoppeln um sich von der alten Generation abzuheben.
 
  • Gefällt mir
Reaktionen: AntiPriester, Lindar, McTheRipper und eine weitere Person
RogueSix schrieb:
@Capthowdy

Die Adapter werden wie im Artikel beschrieben (gelesen?) den Karten beiliegen.
Ja, hab ich gelesen und nein, nVidia legt mir sicher keinen Adapter bei den ich direkt an mein vollmodulares Netzteil anschließen kann. Meinen Beitrag überhaupt gelesen?
 
HerrRossi schrieb:
Ja, dich. Andere sehe das anders.

Ist doch super. Ich mach dann DLSS 3 an und du RT aus und wir sind beide glücklich. DLSS 3 wird einem ja nicht aufgezwungen.
 
Zuletzt bearbeitet:
Capthowdy schrieb:
Ja, hab ich gelesen und nein, nVidia legt mir sicher keinen Adapter bei den ich direkt an mein vollmodulares Netzteil anschließen kann. Meinen Beitrag überhaupt gelesen?

Einen Adapter wie Du ihn Dir vorstellst, wird es da auch nicht geben, sondern nur in die andere Richtung. Wenn ein Netzteil intern keinen PCIe 5.0 Krempel drin hat, wie soll dann ein Adapter in die Netzteilrichtung funktionieren?
Du wirst mit "altem" Netzteil ohne nativen 12VHPWR Ausgang die normalen PCIe Ausgänge nutzen müssen und zwar je nach Karte/OC drei bis vier PCIe 8-pin Kabel, die in einen 12VHPWR Adapater mit 16-pin Ausgang münden, der dann in die Grafikkarte gesteckt wird. Diese Adapter liegen den Karten bei.
 
  • Gefällt mir
Reaktionen: AntiPriester und FeelsGoodManJPG
der Moment, wenn du realisierst, dass DLSS 3.0 nicht vielmehr ist als die TrueMotion Zwischenbildberechnung der neueren TVs ;)
Hoffen wir dass es besser funktioniert.
 
  • Gefällt mir
Reaktionen: lence23, Coeckchen, Romanow363 und 4 andere
Onkel Föhn schrieb:
"beschränkt sich DLSS 3 ausschließlich auf die GeForce-RTX-4000-Produkte."

War ja klar ! Weshalb ist meiner einer nur NICHT überrascht ... :freak:

MfG Föhn.
Mich hat es zumindest etwas überrascht, da Nvidia somit einen großen Flickenteppich in diesem Bereich schafft und somit indirekt noch stärker FSR und auch Intels XeSS pushed. Wenn das auf Dauer mal nicht nach hinten los geht und evtl. das gleiche Schicksal wie GSync erleidet.
 
  • Gefällt mir
Reaktionen: lence23, karl_laschnikow, AntiPriester und 3 andere
RogueSix schrieb:
Einen Adapter wie Du ihn Dir vorstellst, wird es da auch nicht geben, sondern nur in die andere Richtung. Wenn ein Netzteil intern keinen PCIe 5.0 Krempel drin hat, wie soll dann ein Adapter in die Netzteilrichtung funktionieren?
Du wirst mit "altem" Netzteil ohne nativen 12VHPWR Ausgang die normalen PCIe Ausgänge nutzen müssen und zwar je nach Karte/OC drei bis vier PCIe 8-pin Kabel, die in einen 12VHPWR Adapater mit 16-pin Ausgang münden, der dann in die Grafikkarte gesteckt wird. Diese Adapter liegen den Karten bei.
Mein Netzteil hat mehrere 12-Pin Ausgänge an die Adapterkabel mit je 2x8-Pin PCIe angeschlossen werden. Wieso soll ich da nicht zwei 2x8 Pin-Adapterkabel gegen eines tauschen können, das aus 2x12-Pin Netzteil 1x16-Pin PCIe macht?
 
Wenn DLSS3 jetzt die FPS verdoppelt, die Latenz aber in etwa gleichbleibt, heißt das nicht, dass ich zwar einen langen FPS-Balken in Benches bekomme, das Spielgefühl aber nicht besser / flüssiger wird? Wenn die generierten Frames in unregelmäßigen Abstand mit den echten gemischt werden könnte es sogar hakeliger werden. Somit wäre DLSS3 nutzlos?
Mit DLSS2 bekommt man nur „echte“ zusätzliche Frames dazu, welche die Benutzereingaben berücksichtigen.

Wenn man bedenkt, dass man Reflex auch ohne DLSS3 nutzen kann, siehts noch schlimmer aus im Vergleich, mehr FPS, aber schlechteres Spielgefühl.
Ich bin hier sehr skeptisch, bin auf Tests gespannt, am besten mit E-Sportlern in einem AB Blindtest.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: up.whatever, PulsarS, AntiPriester und 2 andere
Krautmaster schrieb:
der Moment, wenn du realisierst, dass DLSS 3.0 nicht vielmehr ist als die TrueMotion Zwischenbildberechnung der neueren TVs

Das wäre sehr sinnlos und würde dafür sorgen, dass man mindestens einen Frame extra Latenz hat. Wurde im DLSS 3 Thread aber auch schon passend besprochen.

In Kurzfassung: DLSS hat Zugriff auf die Engine, kann also wie Ansel möglicherweise die Kamera mit verschieben. So oder so werden aber neue Frames generiert auf Basis der letzten Beiden, nicht aus dem jetzigen Bild und dem nächsten. Welche Effekte das haben kann, zeigen seit Jahren die VR-Hersteller. Oculus/Meta mit Asynchonous Timewarp, Steam mit Motion Smoothing.
Ergänzung ()

ragnarok666 schrieb:
Ich bin hier sehr skeptisch, bin auf Tests gespannt, am besten mit E-Sportlern in einem AB Blindtest.

Ich glaube nicht, dass es für solche Anwendungsfälle geeignet ist. Aber Strategiespiele und andere Spiele bei denen es nicht auf schnelle Reaktionszeiten ankommt, könnten damit auf 4k/8k in den höchsten Einstellungen noch immer mit akzeptabler oder gar guter Bildwiederholrate glänzen.
 
  • Gefällt mir
Reaktionen: BGnom und fullnewb
Zurück
Oben