News FSR 4: Auch Frame Generation läuft auf RDNA 3

Apocalypse schrieb:
, nein viel wichtiger die Kommunikation zu FSR 4 hat sich in ein PR Alptraum für AMD verwandelt.
Bin mir garnicht so sicher, ob das so ist. Es ist schon eine sehr begrenzte Gruppe, die sich damit auseinander setzt. Auch hier im Forum und auf Youtube.
 
  • Gefällt mir
Reaktionen: LETNI77 und Andre83hro
OpenSystemFan schrieb:
Wenn man jetzt vor der Kaufentscheidung steht, dann interessiert nur die aktuelle Generation und deren P/L Verhältnis.
Stimmt schei* auf die 1k Eur 79xtx käufer, sollen sich gefälligst ein vram downgrade kaufen :D
 
OpenSystemFan schrieb:
Bin mir garnicht so sicher, ob das so ist. Es ist schon eine sehr begrenzte Gruppe, die sich damit auseinander setzt.
Stimme ich Dir zu. Der Mediamarkt Kunde hatte damals keine Ahnung und daran hat sich in der Regel nichts geändert. Nichtmal hier im Forum hat jeder verstanden wie Super Sampling funktioniert und es wird zuhauf mit FG verwechselt, oder gleichgesetzt und prinzipiell verteufelt. Native Warrior findet man z.B. noch in jedem Spieletest, auch wenn das schon seit DLSS3 und teilweise auch schon DLSS2 keinen Sinn gemacht hat.
 
  • Gefällt mir
Reaktionen: Grestorn
OpenSystemFan schrieb:
Bin mir garnicht so sicher, ob das so ist. Es ist schon eine sehr begrenzte Gruppe, die sich damit auseinander setzt. Auch hier im Forum und auf Youtube.
Tja dann frag ich mich was das rote Lager hier immer für einen Aufstand um die einzelfälle des 12vhpwr anschlusses macht, da ist die Gruppe ja noch viel viel begrenzter :freak:
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Grestorn
OpenSystemFan schrieb:
Das stimmt leider. Auch wenn AMD immer gleichauf ist und auch jetzt mit der 9070 Reihe gut positioniert ist, fehlt natürlich der längste Balken.
Der Punkt ist eben, dass nicht nur der längste Balken fehlt. In zu vielen Generationen der vergangenen 15 Jahre war AMD nicht nur leicht hintendran, etwas zu spät oder sonst etwas in der Art. Vielmehr war man häufig komplett weg vom High-End-Fenster (Radeon HD 2000 und 3000), sah gegen die Konkurrenz nicht gut aus und musste dann (sehr) spät nachziehen (R9 290X gegen Titan, Fury X gegen Titan X), nur um dann im Zweifel weiterhin schlecht auszusehen (Vega 64) oder legte gleich ganze "Pausegenerationen" ein, um in der Entwicklung hinterherzuziehen (RX 480, RDNA, mit RDNA4 schon wieder, die vorgenannten HD-Radeons sind ebenso Beispiele für dieses Vorgehen).
Oft war AMD von einer Generation auf die andere wieder aus dem Rennen, griff nur bis zur Mittelklasse an oder verrechnete sich gleich ganz (unter anderem auch HD 7970, gegen die Nvidia seine GTX 660 kurzerhand zur 680 umwandelte). Solches Gestolper wirft ein mieses Bild auf das angebotene Produkt im Gesamten und führt zu kollektivem Marktmisstrauen, selbst wenn die Folgegeneration tatsächlich besser wird. Es war eben zu oft nicht der Fall.
OpenSystemFan schrieb:
So traurig und am Ende irrelevant es sein mag. Das ist das Problem. Für mich hat das keinerlei Relevanz, da ich das nicht brauche und aktuell AMD halt die P/L Krone hat.
Auch das war häufig nur in bestimmten Klassen der Fall und ebenso mehr Notwendigkeit als Tugend, wenn man überhaupt Karten zu verkaufen gedachte.
OpenSystemFan schrieb:
Aber der gemeine Kunde, der sich im Mindestmaß informiert, der wird nur die Leistungskrone sehen. Aber ehrlich gesagt, sind es eher die Hersteller von PCs, die wahrscheinlich aus eben diesen Gründen zu NV greifen. So, wie sie eben sehr lange zu Intel gegriffen haben. Es kommt alleinig darauf an, was die Zielgruppe denken mag. Nicht, was besser oder schlechter ist.
Und da liegt der Hase am Ende im Pfeffer: Zu bestreiten, dass Nvidia häufig auch einfach besser war, ist das reinste Copium. Insofern kann man schon sagen, dass es lange auf Qualität ankam - und diesen Kampf hat Nvidia für sich entschieden. Im Laufe der Zeit festigte sich die Marke dann folglich auch und AMD hing mehr und mehr der Ruf des Sparkurses an. Aber mit Uninformiertheit hat das an einem bestimmten Punkt leider nur bedingt noch zu tun. Vielmehr ist der Ruf wohlverdient, so schade ich das auch finde.
OpenSystemFan schrieb:
Ich denke, es gibt zwei Denkprinzipien hier. Die eine ist, dass man durch FSR4 mehr Leistung bekommt, da man einen Gang runter- oder hochschalten kann. Die andere ist, dass man ja FSR3 hat und das halt das Gesamtpaket der RDNA3 Generation ist. Alles andere wäre ein Geschenk.
Mit Verlaub, aber letztere Denkweise existiert meiner Meinung nach nicht wirklich. Reines Copium. Und ein Geschenk? Ich muss doch bitten:
Feature-Parität in Software bei entsprechenden Hardwarefähigkeiten über mehrere Generationen hinweg ist vielmehr absoluter Standard und war es auch schon immer, weswegen Nvidia für seine Politik mit FG und MFG auch entsprechende berechtigte Kritik fressen musste, weil das nach künstlicher Segmentierung stinkt. Im Sportuhrensegment käme sofort der Name Garmin auf.
Nochmal, etwas anderes wäre das nur, wenn wir über legitime Hardwarelimitierungen sprächen. Diese bestehen auch in einem gewissen Maße, können aber über Softwarelösungen kompensiert werden, mit Leistungsnachteilen. Im guten Glauben sollte AMD diese Lösung daher anbieten.
OpenSystemFan schrieb:
Da bei mir das Upscaling noch relativ wenig genutzt wird und ich zudem RDNA2 noch habe, egal. Kann aber beide Seiten verstehen. Würde auch jedem seine Sichtweise lassen. Aber das alberne gebashe der NV Fanboys ist natürlich das, was hier bewegt. Und ehrlich? In einem halben Jahr interessiert es keinen Arsch mehr. Wenn man jetzt vor der Kaufentscheidung steht, dann interessiert nur die aktuelle Generation und deren P/L Verhältnis.
Nunja ... Vertrauen wird langsam erworben und sehr schnell zerstört. Im Großen und Ganzen wird es langfristig vielleicht keine große Rolle spielen, die Art und Weise wie es ins Bild AMDs als Grafikchiphersteller passt, sollte die Verantwortlichen dort aber durchaus interessieren. Es ist schlicht unglaublich schlechtes Marketing. Dann wiederum ist genau das ja AMDs Spezialität :(
OpenSystemFan schrieb:
Bin mir garnicht so sicher, ob das so ist. Es ist schon eine sehr begrenzte Gruppe, die sich damit auseinander setzt. Auch hier im Forum und auf Youtube.
Im Großen und Ganzen: Ja. Aber: AMDs Marktanteil schrumpft sowieso seit Jahren immer weiter. Man ist auf den guten Willen der Tech-Community schon ein Stück weit angewiesen. Dieser good will hat nicht unwesentlich dazu beigetragen, die ersten zwei Ryzen-Generationen zu tragen, die alles in allem doch ziemlich frickelige Geschichten waren, bevor es mit Zen 2 dann deutlich besser und mit Zen 3 schließlich richtig gut wurde.
Stattdessen fischt man quasi gezielt nach dem Unmut dieser Community. Das ist ein nachhaltig dämliches Vorgehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: OpenSystemFan, KuroSamurai117, NguyenV3 und 4 andere
Quidproquo77 schrieb:
Sehr gute Einstellung.
Ich habe damals mit meiner RTX 3080, wegen NV FG - keine einzige Träne vergossen.
 
Cool Master schrieb:
Weil die 9000er Karten verkaufen wollen und die alten User sollen doch auch wieder Geld ausgeben
4 Worte haben sich grundlegend geändert:
Aus ' der Kunde ist König' wurde ' Dollar Dollar Dollar Dollar'
 
  • Gefällt mir
Reaktionen: Cool Master
  • Gefällt mir
Reaktionen: Cool Master und Apocalypse
Lan_Party94 schrieb:
Schon und gut das AMD Karten unter Linux so gut laufen, weil AMD mit "offenen" Karten spielt, aber die eigene Arbeit "für lau" outsourcen wird auf Dauer den Ruf schädigen und der ist durch diverse Aktionen schon ordentlich ins schwanken gekommen.

Ich für meinen Teil werde nun drei mal überlegen mir eine AMD Karte zu kaufen.
Da wird gar nichts outgesourced. Das Feature ist aus technischen Gründen nicht offiziell unterstützt, gleichzeitig legt man der Community keine Steine in den Weg, falls sie auf eigene Faust basteln wollen. Ist in meinen Augen der deutlich bessere Ansatz als bei Nvidia, bei denen du entweder die neueste Generation kaufen oder halt leise jammern darfst.

Verstehe also nicht, inwiefern das hier ein Negativpunkt für AMD sein soll.

Quidproquo77 schrieb:
Das pauschale Gerede zur UE5, angeblich noch nie so schlechter Spieleoptimierung, DLSS/FG usw., überall derselbe undifferenzierte Quark und Lobhudelei auf vergangene Zeiten. Social Media fast nur noch als Werkzeug zur Desinformation.
Ne, in diesem Fall ist das nicht nur Nostalgie. Ob nun AAA wie Borderlands 4 oder AA wie Outer Worlds 2; Bei nur "guter" Grafik ist selbst eine 5090 deutlich zu wenig, um ohne Schnickschnack wie FG ein rundes Ergebnis zu haben - in meinen Augen eine technische Katastrophe. Outer Worlds 2 läuft mit maximalen Einstellungen buchstäblich schlechter als CP2077 mit RT Overdrive, und du kannst mir nicht erzählen, dass die Optik da irgendwas rechtfertigt.

Und bezüglich Optimierung: Eine Engine.ini von Nexusmod bringt einem allein 10% mehr FPS, ohne sichtbare Einbußen - da läuft eindeutig irgendwas gewaltig schief, ob nun auf Dev- oder Engine-Seite.
 
  • Gefällt mir
Reaktionen: eXe777, metoer und Kuristina
Bright0001 schrieb:
Und bezüglich Optimierung: Eine Engine.ini von Nexusmod bringt einem allein 10% mehr FPS, ohne sichtbare Einbußen - da läuft eindeutig irgendwas gewaltig schief, ob nun auf Dev- oder Engine-Seite.
Aber woran liegt das wirklich? Ich bezweifle, dass man die Spiele "gewollt" schlecht bzw. nicht gut genug optimiert. Optimierungen finden ja in der Regel am Ende der Entwicklung statt. Darauf zu verzichten, spart Entwicklungskosten. Der Druck kann hier von den Publishern kommen die Entwicklung schnell zu beenden. Also verzichtet man darauf uns spart Geld? Bei der Menge an Personal bei Entwicklerteams die in den letzten Jahren aufgelöst oder stark vermindert wurden, wäre ein Indiz. Alles muss schnell gehen und möglichst günstig.
Oder sind die Entwickler zu doof zu optimieren? Fehlt es an Kompetenz? Die Lust?

Ich finde es auch erstaunlich welche Spiele Hardware zum Frühstück essen und gar nicht so gut aussehen. Und damit meine ich nicht, dass mal eine Textur nicht so hübsch ist, oder andere Kleinigkeiten über die sich viele Aufregen. Aber Outer Worlds 2 und Cyberpunkt zu vergleichen finde ich hier richtig gut. Outer Worlds sieht ja nicht schlecht aus. Aber für das Gebotene sind die Hardwareanforderungen richtig übel.
 
DiePalme schrieb:
Oder sind die Entwickler zu doof zu optimieren? Fehlt es an Kompetenz? Die Lust?

Meine Vermutung (ich arbeite nicht in der Branche aber ich entwickle hobbymäßig ZenRen):

Publisher haben über die Jahre gelernt dass Grafik konsequent Spiele verkauft. Fette Trailer mit fetter, als "In-Game" vermarkteter Grafik, generieren auch heute noch mehr Aufmerksamkeit und Hype als ein ehrlicher Blick auf Gameplay oder Performance. Grafik Sells.

Engines wie UE5 vermarkten sich als "hier bekommst du als Studio genau diese geile Grafik ohne selbst investieren zu müssen". Das ist natürlich mehr oder weniger eine Marketing-Lüge, es wird aber scheinbar von vielen Studios geglaubt, und wenn dann die Performance-Probleme an die Tür klopfen hat man vlt. seinen Grafikentwickler bereits entlassen.

Nehmen wir aber mal an ein Studio hat noch Grafikentwickler und nutzt nicht die UE5. Es ermutigt also seine Grafikentwickler (die natürlich die schnellste auf dem Markt erhältliche Grafikkarte besitzt und keinen Steam Durchschnitt) dazu, ein bestmöglich aussehendes "In-Engine" Bild zusammen zu programmieren.

Dem Grafikentwickler macht das dann sicher auch Spaß sich mal so richtig mit Raytracing und Meshlets und Global Illumination auseinanderzusetzen. Aber damit explodiert die Gesamtkomplexität deiner Grafikpipeline noch heftiger als vorher schon. Denn die klassiche Rasterisierungspipeline ist ja weiterhin vorhaden und auch selbst bereits kompliziert genug. Evtl. musst/willst du heutzutage dann auch noch mehrere APIs unterstützen (DX11 vs DX12 o.ä.).

Und die neuen APIs (DX12 & Vulkan) sind teilweise auch noch extrem kompliziert aufgrund von Altlasten bzw. für Kompatibilität mit Hardware aus den Anfangszeiten dieser APIs (siehe https://www.sebastianaaltonen.com/blog/no-graphics-api ). Die Gesamtkomplexität ist halt dann insgesamt irgendwann außer Rand und Band. Und in einer UE5 steckt genauso viel wenn nicht mehr Komplexität drin.

Und je komplexer etwas wird desto mehr ist der Code auch bloatet und desto weniger ist es möglich den Code (und seine Performance-Charakteristik) wirklich zu verstehen. Das gilt eigentlich für jede Art von Software, nicht nur im Bereich Grafik.

Und dann merkt man gegen Ende der Entwicklung vlt. erst dass man jetzt zwar die meisten Artefakte gefixt hat, die Performance aber immer noch im Keller ist und man vltl. sogar manche Features eigentlich zurückfahren müsste um die Performance einigermaßen zu retten. Da hat aber weder der Grafikentwickler (der da ja viel Mühe reingesteckt hat) noch die Marketingabteilung Bock drauf. Und dann wird eben trotzdem released.
 
  • Gefällt mir
Reaktionen: DiePalme
Corpus Delicti schrieb:
Aus ' der Kunde ist König' wurde ' Dollar Dollar Dollar Dollar'
Der Kunde war nie König - leider gibt es jedoch zu viele Kunden, die genau das denken wegen diesem Sprichwort.

Man sollte den Kunden wie einen König behandeln, das hat allerdings auch Grenzen. Schon immer! Ein Kunde gehört mit Respekt behandelt, darüber hinaus? Alles im Rahmen der Wirtschaftlichkeit und maximal noch des guten Willens. Die Beziehung zwischen Kunden und Dienstleister sollte immer auf Augenhöhe verlaufen und vom gegenseitigen Respekt und Verständnis geprägt sein.

Ich hab mir da für so manche Nutzenden einen bösen Erwiderungsspruch überlegt, wenn die damit kommen: "Sie sollten daran denken, dass der Kunde König ist."
Pandi darauf nur noch trocken: "Und der Kunde sollte bedenken, dass er seine Unternanen mit Respekt behandeln sollte, macht er es nicht, kann es passieren das es zur Revolution kommt und die Guillotine ausgepackt wird."

DiePalme schrieb:
Aber woran liegt das wirklich? Ich bezweifle, dass man die Spiele "gewollt" schlecht bzw. nicht gut genug optimiert.
Das Thema ist an der Stelle deutlich komplexer und es hat verscheidene Ursachen, die in der Form zum Teil miteinander zutun haben.

Da wären zum Teil "wirtschaftliche" Gründe: Zeit ist Geld und viele Spiele werden mit festen Release-Zeiträumen geplant. Es bleibt dann oft keine "Reserve" mehr für weitere Optimierungen. Es gibt nur wenige Studios, die so handeln können.

Dann gibt es sowas wie unrealistische Zeitpläne - wirtschaftlich und organisatorische Gründe. Für Fehlerbehebungen und Optimierung wird zu wenig Zeit eingeplant oder für andere Aufgaben wurde zu wenig Zeit veranschlagt und das greift dann ineinander.

Ebenso gibt es heute auch technische Gründe. So war es früher zum Teil auch "einfacher" ein Spiel zu optimieren, weil ein Teil der Optimierung darin bestand, dass man Berechnungen vereinfacht und damit auch grafische Qualität geopfert hat. Du kannst dich ja mal mit der Entwicklung der Spielegrafik Mitte der 90er befassen und dir ansehen, wie weit runter man für die ersten 3D-Engines gegangen ist und was seit dem alles heute dargestellt werden kann.

Auch eine Rolle spielt die Komplexität, die bei heutigen Spielen deutlich höher ist als früher und in der deutlich mehr Systeme ineinander greifen.

Es ist ein echt komplexes Thema, ich hab dazu ja schon viele Beiträge verfasst. Vielleicht müsste man das mal aufgreifen.
 
  • Gefällt mir
Reaktionen: Grestorn und DiePalme
MalWiederIch schrieb:
Evtl. wenn auch die Spiele, die die Masse spielt (Multiplayer, Anti-Cheat) laufen … schreibe ich selbst als Linux-Nutzer …
Ergänzung ()


:lol: Wäre schön wenn das für Spiele aus diesem Jahrzehnt auch der Fall wäre …
Ergänzung ()


Aber echt :rolleyes:
Ergänzung ()


Das ist aber ziemlich - wie schreibst du:

Ergänzung ()


:p
Ergänzung ()


Rhetorische Frage: Gilt beides auch für FSR4? Das bekommen ja selbst Grafikkarten die hier letztes Jahr erschienen sind (bspw. 7900 GRE) offiziell nicht mehr …
Ergänzung ()


:lol: :stacheln:

Wenn das dein Maßstab für Grafikpracht ist wundert mich deine vorherige Aussage auch wenig …
Ergänzung ()


Eine GTX (noch nicht einmal RTX) 1070 ist von 2016 - geht also darauf zu 10 Jahre, ein Jahrzehnt, alt zu werden …

Eine RTX 2000 von 2018 - und jede Grafikkarte die danach erschienen ist - läuft auf der anderen Seite mit dem neuesten DLSS …

Eine 7900 GRE dagegen ist hier 2024 erschienen - gerade einmal ein Jahr alt und muss sich mit dem qualitativ minderwertigen FSR 3 rumschlagen …

Manche Leute versuchen wirklich entgegen jeder Logik zu argumentieren :p
Und nun ;-) sollen wir Heulen.
 
Lan_Party94 schrieb:
. Meine alte GTX 1070 läuft bei einem Freund heute ....
Ich habe hier noch ne RX590 im Rechner meines Sohnes in Betrieb. Die läuft auch noch hervorragend. Das ist nicht nur bei Nvidia so... ;)
 
  • Gefällt mir
Reaktionen: Andre83hro
heroesgaming schrieb:
Hast du dafür auch eine Begründung?
Mit der RTX 3080 habe ich wegen FG damals auch nicht geweint.

Aber mit der RTX 2060 im Drittrechner ist schon nicht schlecht zu wissen, dass es DLSS4 unterstützt.

Mehr aber auch nicht, weil fast ausschließlich ältere Games drauf gespielt werden.
 
Bright0001 schrieb:
Ist in meinen Augen der deutlich bessere Ansatz als bei Nvidia, bei denen du entweder die neueste Generation kaufen oder halt leise jammern darfst.
Stimmt eine 2018 Grafikkarte die Dlss4 unterstützt ist ja so neu :freak:
 
LETNI77 schrieb:
Mit der RTX 3080 habe ich wegen FG damals auch nicht geweint.

Aber mit der RTX 2060 im Drittrechner ist schon nicht schlecht zu wissen, dass es DLSS4 unterstützt.

Mehr aber auch nicht, weil fast ausschließlich ältere Games drauf gespielt werden.
Und das beantwortet meine Frage nach einer Begründung für deine These, dass AMD mit seinem Vorgehen hier völlig richtig liege, nun inwiefern? Weil du nicht "geweint" hast als Ampere FG nicht erhielt, ist jede Kritik an künstlichen Feature-Limitierungen nicht gerechtfertigt? Muss schön sein, wenn einem die Welt so einfach erscheint ... ^_^
 
DevPandi schrieb:
Der Kunde war nie König - leider gibt es jedoch zu viele Kunden, die genau das denken wegen diesem Sprichwort.

Man sollte den Kunden wie einen König behandeln, das hat allerdings auch Grenzen. Schon immer! Ein Kunde gehört mit Respekt behandelt,

Es sollte allgemein gelten, das man den Gegenüber respektiert, egal in welcher Beziehung man zueinander steht (und auch gegenüber Fremden).

Wenn der eine hochnäsig ist (Kunde) und der andere desinteressiert, weil das Geld schon da ist (Herrsteller) ist keinem damit geholfen.

Leider gibt es da auf beiden Seiten häufig Verständnis/-Verhaltensprobleme, und beide machen sich das Leben schwer.

Noch leiderer scheint es nur seltenst einen Lerneffekt zu geben. Dabei soll der Mensch doch angeblich intelligent und lernfähig sein.
 
TheInvisible schrieb:
Stimmt eine 2018 Grafikkarte die Dlss4 unterstützt ist ja so neu :freak:
Stimmt, eine 4090, der man kein Multi-Frame-Gen erlaubt, ist ja so alt. :rolleyes:
 
  • Gefällt mir
Reaktionen: DevPandi
TheInvisible schrieb:
Stimmt eine 2018 Grafikkarte die Dlss4 unterstützt ist ja so neu :freak:
Das stimmt an der Stelle allerdings auch nur in Teilen und die Begründungen sind bei AMD und Nvidia in dem Fall auch die Gleichen.

DLSS als ganzes funktioniert nicht auf Pascall und Maxwell, als die erste DLSS-Version raus kam, war Pascall 2 Jahre alt und Maxwell 4 Jahre. Die Begründung war damals die fehlenden Tensor-Kerne. Das DLSS auch zumindest auf Pascal läuft, konnte man mit der "Pre-Build" DLSS 1.9 auch sehen, die über die Shader lief und das nicht "langsam".

Neue "Funktionen" hat Nvidia seit dem allerdings auch größten Teils jeweils nur den neuen Generationen ermöglicht - bis auf den DL-Denoiser. FG ist bisher RTX 4000 "exklusiv" MFG ist RTX 5000 exklusiv. DLSS 2, 3 und jetzt 4 bei der Super Resolition ist - das gilt aber auch für FSR - in der Form ein Zwischending aus "neuer" und "bestehender" Funktion.

Für AMD FSR 4 gilt an der Stelle auch das gleiche. Auf der einen Seite ist es keine neue Funktion, weil es ja mit FSR1 - 3 schon Vorgänger gab. Es ist jedoch weitgehend eine neue Entwicklung, weil sich die technische Basis grundlegend geändert hat und in diesem Zusammenhang ist AMDs Begründung, dass RDNA 1 und 2 nicht über die "Hardwarefähigkeiten" verfügen, genauso richtig oder falsch wie damals die Aussage von Nvidia zu den Fähigkeiten zu Pascal. RDNA 3 ist ein Punkt, an dem man echt massiv streiten kann, weil WMMA als "Tensor-Befehle" vorhanden sind, jedoch eben der Datentyp nicht.

Und weil unter Linux per Emulation es möglich ist, sogar das ganze bis hinab zu RDNA laufen zu lassen, ändert das nichts, das die Karten "technisch" gesehen dafür nicht die Hardware haben. Ich kann, wenn ich es will, Tensor-Operationen per CUDA sogar auf Pascall laufen zu lassen, auch wenn es nicht die gleiche Leistung liefert.

Und FSR 4 kann man - von der Entwicklung her - auch nur bedingt mit DLSS 4 vergleichen. FSR 4 ist das erste "AI"-System von AMD. DLSS 4 baut in Teilen eben auf DLSS 2 und 3 auf. Wenn Nvidia seit DLSS 2 bei dem DAtentyp gleich bleibt bei SR, ist es ein leichtes, Turing und Ampere und Ada mit zunehmen.

Aber um eines klar zustellen: Das ändert nichts an der aktuellen Situation und dass es gerade für RDNA 3 käufer mistig ist.
 
  • Gefällt mir
Reaktionen: Andre83hro, Creekground, GOOFY71 und 2 andere
Zurück
Oben