Test Nvidia DLSS 4.5 (SR) im Test: Analysen & Benchmarks auf RTX 5000, 4000, 3000 & 2000

Laphonso schrieb:
Die Hardware ist nur noch das Fundament um den Output der Feauturesets zu bestimmen, die man de facto kauft.
"Ich spiele nur Raster ohne DLSS/FSR", ja, Grüße zurück in das Jahr 2018; aber wir haben 2026 ;-)



Falls ich Dich völlig falsch verstanden habe, @unspektakulaer bitte ich um Verzeihung!
Es geht ja nicht darum das ich MFG nutzlos finde, sicher ist die Bildqualität inzwischen sehr gut und der Zuwachs der Framerates nicht zu verachten. In sinnvollen Szenarien sehe ich keinen Grund es nicht zu nutzen.

Mit geht es hier primär ums testen. So lange nicht alle GPUs der verschiedenen Hersteller mit der selben Softwarebasis verglichen werden können seh ich bei Tests nur noch was der jeweilige Algorithmus im Stande ist zu leisten, nicht mehr was die Hardware nativ auf die Strasse bringt.

Hier wird also primär Software getestet, was für mich persönlich bei einem Hardwaretest keinen Mehrwert bringt.

Danke für den sachlichen Kommentar
Ergänzung ()

TheInvisible schrieb:
Dann bist aber ziemlich allein, es ist nämlich doppelt unfair gegenüber den der die bessere qualität liefert, vor allem weil die Mehrheit nur auf Balken schaut und keinen Text liest
Ergänzung ()


Unsinn, auch Autos und Motoren sind viel viel effizienter geworden als vor 100 Jahren, willst du noch mit Kurbel starten?
Bei einem Auto wird aber auch nicht bergab gemessen weil das schneller geht. Dann weiß ich nämlich schlicht und ergreifend nicht was der Motor leistet.

Nochmal, MFG mag durchaus sinnvoll sein, aber bei einem Hardwaretest erwarte ich einen Test der Hardware, nicht wer den besseren Algorithmus hat. Als Zusatz gerne, aber nicht hauptsächlich, das ist mein Problem.
Ergänzung ()

N0Thing schrieb:
...werden bei CB so getestet, wie es für die meisten Spieler erstrebenswert ist: Möglichkeit gute Bildqualität bei erreichbaren FPS. Dass Leute hier die Spieletests mit Hardware-Tests verwechseln, sieht man in den Kommentaren aber leider immer wieder.
Auch für Spieletests sehe ich das skeptisch. Vorrangig sollte wichtig sein was ein Spiel nativ auf meiner GPU abliefert.

MFG ist durchaus sinnvoll, aber verleitet Spieleentwickler leider auch dazu Optimierung nicht mehr zu priorisieren. Wenn native Leistung im Vordergrund stehen würde, und sich dann plötzlich Spiele als unspielbar herausstellen, sollte das auch so kommuniziert werden.

Wenn MFG dann noch fps und Bildqualität raus holt superklasse, aber das sollte keine Voraussetzung sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
unspektakulaer schrieb:
So lange nicht alle GPUs der verschiedenen Hersteller mit der selben Softwarebasis verglichen werden können seh ich bei Tests nur noch was der jeweilige Algorithmus im Stande ist zu leisten, nicht mehr was die Hardware nativ auf die Strasse bringt.
unspektakulaer schrieb:
Auch für Spieletests sehe ich das skeptisch. Vorrangig sollte wichtig sein was ein Spiel nativ auf meiner GPU abliefert.
Was die Hardware nativ auf die Straße bringt interessiert aber auch nur die, die sie rein nativ nutzen und das sind nur noch wenige, denn auch wenn wie hier im test erwähnt auch DLSS 4.5 hier und da seine Probleme hat, besser als die Alterative TAA ist es immer
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snapuman und ElliotAlderson
Blackfirehawk schrieb:
Krass.. 240P auf 720P hochgerechnet.. und angeschaut auf meinem 4K monitor mit VRS im Browser enabled und für mich siehts aus wie FSR2.0 Quality :P,

schade das der DLSS override nicht für werte unter 33% funktioniert bei mir im Profile inspector
So recht passend empfinde ich die upscaling Bezeichnungen (Q, B, P, UP) für bestimmte Faktoren nicht. Auch die Faktoren an sich nicht.

  • HD - Nativ - 0.9 MP
  • WQHD - Performance - 0.9 MP
  • 4K - Ultra Performance - 0.9 MP
  • 5K - "Extrem Ultra Performance" - 0.9 MP
  • WQHD - Balanced - 1.2 MP
  • WQHD - Quality - 1.6 MP
  • 5K - Ultra Performance - 1.6 MP
  • 4K - Performance - 2.0 MP
  • WQHD - Nativ - 3.7 MP
  • 5K - Performance - 3.7 MP
Besser wäre imho die (Bild-)Qualität in Megapixel der Renderauflösung anzugeben.
Weil stellt sich die Frage, wenn WQHD-P und 4K-UP okay ist, dann bräuchte es für 5K wieder eine neue Qualitätsstufe (?"extrem ultra performance, 25%/4x"?), wobei die tatsächliche Qualität vermutlich recht ähnlich sein wird und die tatsächlich Performance genau gegenteilig zur Bezeichnung sein wird. Weil ich mir denke, dass die Renderauflösung entscheidender für die Qualität sein wird als relative Faktoren. Ein HD Display mit tollem Faktor 1x = nativ, verliert sicher gegen höher aufgelöste Displays, also 4K oder 5K noch besser grundsätzlich.

Vielleicht sinnvoller zukünftig wählt man einfach die Qualität zwischen bspw 0,9 und 2,5 Megapixel und DLSS hebt das auf die Monitorauflösung.
 
unspektakulaer schrieb:
Bei einem Auto wird aber auch nicht bergab gemessen weil das schneller geht. Dann weiß ich nämlich schlicht und ergreifend nicht was der Motor leistet.
Stattdessen wird, wenn nur TAA statt DLSS genutzt wird, der Motor über das Steuergerät künstlich ausgebremst
 
  • Gefällt mir
Reaktionen: Snapuman, ElliotAlderson und Quidproquo77
danyundsahne schrieb:
Bin da absolut bei dir und unterstreiche das.
"Bei meinen 8 Freunden ist das so, also ist das die allgemeine Wahrheit." "Mental Gymnastics" für Anfänger.
danyundsahne schrieb:
Hab meine Freundesgruppe mit denen wir zu acht alle 3-4 Monate mal eine kleine LAN veranstalten. Tatsächliche wieder ab heute nachmittag bis morgen :D (...) Davon kennen 2 ein paar Details zu FSR/DLSS...
Tatsächlich, das ist ja schön, dass es dir Spaß macht. Bin auch alle paar Jahre auf größeren LANs und da nutzt irgendwie jeder DLSS, komisch.
https://www.techradar.com/computing...eneration-are-here-to-stay-sorry-angry-gamers
DLSS use has been steadily on the rise ever since its introduction back in 2019 (in an update to Battlefield V), with Nvidia’s user data now indicating that more than 80% of players with RTX GPUs turn on DLSS in their games - with some individual games sporting even higher percentages.
Es stimmt, zwar dass Casuals seltener in Menüs wühlen.
Genau diese Gruppen nutzen ja oft die Recommended Settings oder Presets, bei denen FSR/DLSS heutzutage standardmäßig aktiviert ist. Oder über die Nvidia App...
danyundsahne schrieb:
Jedenfalls haben die meisten (6) eine AMD GPU und davon 2 eine NV Karte.
Mhm.. in einer zufällig zusammengestellten Gruppe von 8 Gamern müssten - statistisch gesehen - grob 7 Personen eine Nvidia und höchstens eine Person eine AMD GPU oder gar keine besitzen.
Dass in deiner Gruppe 75 % (6 von 8) AMD nutzen, ist das genaue Gegenteil des Gesamtmarktes.
danyundsahne schrieb:
die anderen juckt es nicht und haben auch kein Bock da was einzustellen.
Das klingt nach einer Ausrede um ein offensichtliches Defizit zu verdecken. Wahrscheinlich spielen die längst mit DLSS/FSR ohne es zu wissen.
danyundsahne schrieb:
Das ist mal wieder diese CB Bubble oder generell Menschen, die in Foren angemeldet sind. Wesentlich HW affiner als der Durchschnittszocker.
Meine LAN Freunde sind allesamt NICHT bei CB angemeldet oder sonstigen HW Foren. Juckt die einfach nicht.
Es ist ironisch, dass du von einer Foren Bubble sprichst, während deine Gruppe mit 6 von 8 AMD Karten statistisch gesehen die größte Ausnahme Bubble Deutschlands ist. ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snapuman und Taxxor
Hi@Alle,
hier mal ein Video als Demo zu DLSS 4.5--->Demo
Einstellungen:Video habe ich aufgezeichnet mit UWQHD, RT+FG, DLSS 4.5 M, Ausserdem ist CP2k77 stark gemoded mit speziellen Graphikmods und Alles höchste Einstellungen läuft mit mehr als 100FPS.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Stattdessen wird, wenn nur TAA statt DLSS genutzt wird, der Motor über das Steuergerät künstlich ausgebremst
Ich hatte extra angemerkt das ich doch an sich kein Problem mit MFG habe, an sich eine super Software-basierte Lösung um ohne gravierende Nachteile mehr fps zu generieren.

Aber man testet doch auch diverse GPUs nicht jeweils auf unterschiedlichen Betriebssystemen weil GPU 1 unter Linux besser performt als GPU 2 unter Windows. Vllt besser verständlich als Autovergleiche.

Mir geht es darum das hier schlicht und ergreifend die Vergleichbarkeit der Hardware verschiedener GPUs, teilweise selbst vom gleichen Hersteller, nicht mehr gegeben ist.

DLSS ist aus meiner Sicht in etwa so wie PhysX damals. Super wenn man es hat, aber leider proprietär und wenn eingeschaltet weder Qualitativ noch von der Leistung her in diesem Szenario mit einer damaligen AMD GPU vergleichbar.

Mir ist bewusst das ne Menge Hirnschmalz und sogar extra Funktionseinheiten dahinterstecken. Und zusätzlich zu zeigen was die Technik dahinter leistet ist super, aber grundsätzlich sollten bei einem Vergleich immer gleiche Voraussetzungen herrschen. Und das ist bei den unterschiedlichen Scalern halt schlicht nicht gegeben. Das ist mein einziger Kritikpunkt.

MFG kann und soll (edit: und wird) gerne bleiben.
 
  • Gefällt mir
Reaktionen: Andre83hro und SweetOhm
Quidproquo77 schrieb:
Mhm.. in einer zufällig zusammengestellten Gruppe von 8 Gamern müssten - statistisch gesehen - grob 7 Personen eine Nvidia und höchstens eine Person eine AMD GPU oder gar keine besitzen.
Dass in seiner Gruppe 75 % (6 von 8) AMD nutzen, ist das genaue Gegenteil des Gesamtmarktes.
in meiner gruppe von Gamern... (ebenfalls 8.. manchmal 9) gab es ebenfalls 6 x AMD..
6000er und 7000er..
die sind mittlerweile ALLE wegen massiven Treiber problemen, dauercrashes und Spielinkompatibilität rausgeflogen

da wird einfach DLSS angeschmissen und gut ist...sieht gut aus und gibt mehr fps..

zugegeben.. den override weis ich nicht ob ihn wer nutzt..wahrscheinlich nicht.. aber alle sind zufrieden.
 
Zuletzt bearbeitet:
4.5 ist ja aktuell noch in der Beta phase, kann man davon ausgehen das es mit der finalen performance evtl. bessere performance abliefert?
 
unspektakulaer schrieb:
Nochmal, MFG mag durchaus sinnvoll sein, aber bei einem Hardwaretest erwarte ich einen Test der Hardware, nicht wer den besseren Algorithmus hat.
Ein Test der MFG ignoriert, würde streng genommen einen Teil der physischen Hardware brachliegen lassen, insofern sollte man das schon auch bewerten. Wie verschiedene AI Modelle auf der Hardware laufen werden, wird in Zukunft womöglich eine größere Rolle spielen als die reine Hardware, auch für FG.
unspektakulaer schrieb:
Auch für Spieletests sehe ich das skeptisch. Vorrangig sollte wichtig sein was ein Spiel nativ auf meiner GPU abliefert.
Wozu? Nutzt doch kaum noch jemand.
unspektakulaer schrieb:
MFG ist durchaus sinnvoll, aber verleitet Spieleentwickler leider auch dazu Optimierung nicht mehr zu priorisieren.
Damit werden höchstens grafische Grenzen verschoben die vorher nicht erreichbar waren, sowie mit jeder neuen GPU Generation auch. Außerdem braucht man mindestens eine FPS Basis von 30 inkl. Reflex, darunter lohnt (M)FG nicht.
unspektakulaer schrieb:
Wenn MFG dann noch fps und Bildqualität raus holt superklasse, aber das sollte keine Voraussetzung sein.
Da MFG auf spezialisierter Hardware läuft, ist es auch ein legitimer Teil der Hardware Leistung.
unspektakulaer schrieb:
DLSS ist aus meiner Sicht in etwa so wie PhysX damals.
Der Vergleich ist aber schon hart. DLSS hat ja einen impliziten Nutzen.
DLSS ist kein reiner Software Trick wie GPU Physx, sondern eine echte Hardware Entlastung, realisiert auf zusätzlicher Hardware.
unspektakulaer schrieb:
Super wenn man es hat, aber leider proprietär (...)
Eine offene Lösung müsste ja auch auf dem kleinsten gemeinsamen Nenner laufen und würde eine Weiterentwicklung nur bremsen, sieht man ja bei FSR3.
unspektakulaer schrieb:
und wenn eingeschaltet weder Qualitativ noch von der Leistung her in diesem Szenario mit einer damaligen AMD GPU vergleichbar.
Genau und diese Realitäten muss man ja irgendwie vernünftig abbilden können.
unspektakulaer schrieb:
aber grundsätzlich sollten bei einem Vergleich immer gleiche Voraussetzungen herrschen. Und das ist bei den unterschiedlichen Scalern halt schlicht nicht gegeben. Das ist mein einziger Kritikpunkt.
Du drosselst damit im Endeffekt die GPU auf die Leistung des schwächsten Teilnehmers.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snapuman, GOOFY71, Taxxor und eine weitere Person
Fika schrieb:
Vielleicht sinnvoller zukünftig wählt man einfach die Qualität zwischen bspw 0,9 und 2,5 Megapixel und DLSS hebt das auf die Monitorauflösung.
Grundsätzlich Faktoren auszuwählen finde ich schon sinnvoll. Aber wenn ich mir das aussuchen könnte würde das nicht über einen magischen Namen sondern stattdessen einfach über einen Resolution Slider erfolgen. Dann kann man frei zwischen 33% und 100% wählen und gut ist.

Andymiral schrieb:
4.5 ist ja aktuell noch in der Beta phase, kann man davon ausgehen das es mit der finalen performance evtl. bessere performance abliefert?
Ich fürchte die Chance geht gegen 0%. Ich denke die Modelle bleiben wie sie sind, man wird nur ggf. etwas an der Kompatibilität schrauben und vielleicht noch Ray Reconstruction nachliefern.
 
unspektakulaer schrieb:
an sich eine super Software-basierte Lösung um ohne gravierende Nachteile mehr fps zu generieren.
Software-gesteuert, Hardware-beschleunigt. Jahrzehnte alte Funktionen arbeiten auf ähnliche Weise, wie etwa Anti-Aliasing, Anisotropic Filtering, Tesellation. Naja im Prinzip fast alle Grafikfeatures^^

unspektakulaer schrieb:
Und zusätzlich zu zeigen was die Technik dahinter leistet ist super, aber grundsätzlich sollten bei einem Vergleich immer gleiche Voraussetzungen herrschen. Und das ist bei den unterschiedlichen Scalern halt schlicht nicht gegeben. Das ist mein einziger Kritikpunkt.
Da hast du recht. Die gemeinsame Basis ist wichtig, doch was machst du, wenn es diese Basis nicht mehr geben kann? Du musst Kompromisse eingehen.

unspektakulaer schrieb:
Hier wird also primär Software getestet, was für mich persönlich bei einem Hardwaretest keinen Mehrwert bringt.
Siehe oben. Es ist immer ein Paket, so wie es vor der FSR/DLSS Ära auch der Fall war, nur das "früher" deine als "Software" betitelte Funktionen von allen Modellen beherrscht wurden, aber das kam auch nicht von heute auf morgen. Erinnert sich hier noch irgendjemand an die DX11-Tessellation Benchmarks?

Du darfst die Hardware nicht wie ein Stück Mechanik betrachten. Das Softwarepaket ist immer fester Bestandteil davon. Es aktiviert und nutzt verbaute Hardware auf eine ganz bestimmte Weise, um gewisse Resultate zu erzielen. Wenn du nur wegen der Vergleichbarkeit jede dieser Innovationen deaktivierst, nur weil andere Modelle es nicht oder nicht gleichermaßen beherrschen, dann degradierst du künstlich und schließlich schießt man sich auch damit ins eigene Bein. Bei Autovergleichen (ja wir lieben es alle) wäre das in etwa so, dass du bei Modell A alle Assistenzsysteme ausschaltest und erst dann den "Comfort" zu Modell B vergleichst, weil dessen Assistenzsysteme entweder schrott oder sie vielleicht gar nicht vorhanden sind. Brächte dir dieser Vergleich einen Mehrwert hinsichtlich Bewertung des Comforts?
 
  • Gefällt mir
Reaktionen: Snapuman, unspektakulaer, Taxxor und 2 andere
GERmaximus schrieb:
Und ich staune das man sich heutzutage nicht mit UV beschäftigen mag,
Ich erwarte von einer Hardware für die ich 3000€ bezahle, dass sie OOTB störungsfrei funktioniert und ich nicht erst rumfummeln muss und Stabilität riskiere um dann am Ende 10€im Jahr zu sparen. Wenn ich Strom sparen wollen würde, kann ich einfach FG aktivieren und fertig.
 
unspektakulaer schrieb:
Nochmal, MFG mag durchaus sinnvoll sein, aber bei einem Hardwaretest erwarte ich einen Test der Hardware, nicht wer den besseren Algorithmus hat. Als Zusatz gerne, aber nicht hauptsächlich, das ist mein Problem.
Wo wird hier mit MFG gebencht? Upscaling ist ganz was anderes. Und ein Motor ohne Karosserie fährt auch nicht.
 
  • Gefällt mir
Reaktionen: Snapuman
Ich finde die ganze Diskussion etwas schwierig...also abgesehen davon, das es schwierig ist, auf 26 Seiten noch einen Überblick zu behalten.

Nativ ist für mich zu 80% tot. Die meisten Spiele bieten mittlerweile DLSS/FSR/XESS insofern muss man hier einen Vergleich suchen.
Ältere Generationen von AMD und Nvidia jetzt von den Tests auszunehmen, weil sie die neuste Upscaler Generation nicht unterstützen, halte ich auch nicht für sinnvoll.
Wenn demnächst kaum noch Karten zum Verkauf angeboten werden, werden wir viele Spieler haben, die wissen wollen, ob ihre alten Karten die neuen Spiele überhaupt sinnvoll auf den Bildschirm bringen können.
Da würde ich immer mit dem besten verfügbaren Upscaler bzw. Einstellungen testen und ein fettes Hinweisschild platzieren, das es hier zu massiven Unterschieden bei der Bildqualität kommen kann.

Meineserachtens versucht ja jeder erstmal das Spiel über die Einstellungen flüssig zu bekommen und sucht anschließend den besten Kompromiss zwischen Optik und Geschwindigkeit. Insofern sind die FPS erstmal der entscheidende Faktor.

Bei DLSS4.5 haben wir im Grunde jetzt auch erstmal eine Vorschau. Das es noch Probleme gibt, hat der ein oder Andere hier auch festgestellt und handelt sich ja auch ganz offensichtlich um eine Beta, bei der Nvidia sicher noch nachoptimieren wird. Insofern sind die Betaergebnisse auch nicht zwingend vergleichbar mit einem finalen Release.

Ich muss aber auch ganz ehrlich sagen, das ich froh bin, selber nicht so in eine Pixelmanie zu verfallen, wie sie hier einige betreiben. Ich fand DLSS3 mit der RTX3070 schon echt hübsch und auf der 9070 XT mit FSR 4 steh ich bei vielen Spielen am Anfang auch einfach nur rum und schau mir an, wie schön die Grafik mittlerweile aussieht. Artefakte und Ghosting sind mir beim zocken eigentlich nie so wirklich aufgefallen, die Unterschiede zwischen einem DLSS4 und 4.5 würden mir überhaupt nicht auffallen und ich genieße einfach nur die Grafikpracht die sich uns heutzutage bietet.

Meine Hoffnung ist, da wir bis Q2 2027 vermutlich eh keine neuen Karten sehen werden, das wir alle(sowohl AMD und Nvidia Nutzer) jetzt ein Jahr der Optimierungen sehen und am Ende davon profitieren.
 
  • Gefällt mir
Reaktionen: MariaDocks, Izaya27, Creekground und 3 andere
Taxxor schrieb:
Man kann diese Auto Analogien auch einfach mal so akzeptieren wie sie offensichtlich gemeint sind, anstatt sich jetzt schon zum zweiten Mal daran aufzuhängen dass es technisch nicht 100% passt(was hier sogar vom Poster selbst bereits gesagt wurde).
Also Gedanken raten und Gefühle statt Fakten und echter Analogien ? Ist das jetzt Feelbase ? Come on. Warum überhaupt irgendwas testen ? Reicht doch mal kurz reinzufühlen, nicht ? Muss ja technisch alles auch nicht 100% passen. :)

Was häng ich mich auch an solchen Details auf. Läuft das Game irgendwie oder nicht, mehr zählt doch am Ende gar nicht.😂
 
ThirdLife schrieb:
Also Gedanken raten und Gefühle statt Fakten und echter Analogien ? Ist das jetzt Feelbase ? Come on. Warum überhaupt irgendwas testen ?
Du und jeder andere hier weiß genau, worum es geht: Dass eben mehr als die reinen HW Einheiten zur Performance einer GPU zählen.

Wenn nun jemand eine nicht ganz passende Auto Analogie dazu bringt, muss man nicht drauf rumreiten, dass das Teil, was er in der Analogie genannt hat, eher auch Hardware statt Software ist, sondern kann sich auch einfach mit dem Argument befassen, das der User damit ganz offensichtlich machen möchte und, wenn man selbst mehr von Autos versteht, auch selbst einen beliebigen Software Part im Auto aussuchen, der die Leistung beeinflusst(z.B. das die Programmierung des Steuergeräts)
Ergänzung ()

Return2Burn schrieb:
Da würde ich immer mit dem besten verfügbaren Upscaler bzw. Einstellungen testen und ein fettes Hinweisschild platzieren, das es hier zu massiven Unterschieden bei der Bildqualität kommen kann.
Nur wie fett willst du den machen? Die meisten schauen nur auf die Balken, die Balken sind auch meist das einzige was im Netz geteilt wird
 
  • Gefällt mir
Reaktionen: Snapuman
@Taxxor Doppelte Schriftgröße in Pink auf neongrünem Grund mit neongelbem blinkenden Rahmen? 😅

Ich weiß, was du meinst, es erscheint mir aber das einzig Sinnvolle.
Diskutiert wird am Ende dann doch sowieso. Die eine Hälfte regt sich dann drüber auf, das Nvidia dann nur mit Fakeframes vorne liegt die durch Inputlag eh nicht spielbar sind, die anderen zählen dann fleißig Pixel und suchen Artefakte in Standbildern, weil FSR3 Brechreiz auslöst und den Spielern automatisch beim Anblick die Augen explodieren. Dann kommen noch 40 Seiten Diskussion über Features und warum ROT oder Grün besser ist. Oder ob man eher den Werten auf Seite X oder auf Seite Y vertraut alternativ auch Influencer so und so.

Entscheidend ist aus meiner Sicht, das man auf dem ersten Blick sieht, ob man eine spielbare Geschwindigkeit mit der eigenen Hardware erwarten kann mit dem für die Hardware verfügbaren Features...aber halt auch mit einem fetten Hinweis, das Qualitativ Unterschiede zu erwarten sind.
 
  • Gefällt mir
Reaktionen: Creekground und Beschi
Blackfirehawk schrieb:
sind mittlerweile ALLE wegen massiven Treiber problemen, dauercrashes und Spielinkompatibilität rausgeflogen
Ich hatte zahlreiche RDNA2 und 3 Karten, ich hatte seltenst in irgendeiner Form Treiberprobleme. Eigenartig!
 
  • Gefällt mir
Reaktionen: Andre83hro
Ich sehr häufig bei RDNA1 und sporadisch bei RDNA2, bei allem davor und danach liefs bisher immer glatt
 
Zurück
Oben