News Aus der Community: Ein umfassender Vergleich von RX 7900 XTX und RTX 4090

Taurus104 schrieb:
Und miese Treiber. Naja. Nvidia ist nicht besser solltest du dir das erhoffen, alleine 2023 gab es schon zig News zu Treiberprobleme bei Nvidia. Hohe CPU Last, flackernde Monitor mit Gsync usw. Kann man alles nachlesen. Auch in Release Notes stand bei Nvidia noch nie "Nichts" unter Known Issues.
Kann ich teils bestätigen. Erst gestern wollte ich Dead Space Remake weiterspielen und wunderte mich, dass es plötzlich immer innerhalb von 5 min abstürzt. Mal schnell in die Open Issues der aktuellen Treiberversion (536.67) geschaut, die ich zuvor installiert hatte, und siehe da: "[Dead Space (2023)] may crash during gameplay [4140545]".

Auch das NVIDIA erst zu Release der 4090 einen Treiber gebracht hat, der den Treiber-Overhead auch älterer Architekturen unter DX12 signifikant verbessert hat, spricht nicht gerade für besonders ausgereifte Treiber.
 
Zuletzt bearbeitet:
Falls DevPandi mal wieder Zeit hat, würde ich mir wünschen, das ein Game/Demo genommen wird, die eindeutig von AMD selbst programmiert wurde.
Vllt. kann sich ein Programmierer melden der das neue SDK benutzt und ne Empfehlung geben.
(im Idealfall würde man hoffen, das mehr Studios für neue Games das SDK nutzen)

WOW+FF sind vllt. keine Idealfälle, kein Schwerpunkt fürs AMD-Treiberteam.(und Kontakt zum Studio?)
dito
Was ist mit dem Frontendclock?
Was ist mit GPUtakt (effective) vs GPUtakt?
Gibts sowas wie Zylinderanschaltung bei Shadern etc. unter Teilllast?
Spielen DPM-States dann überhaupt ne Rolle oder wird eher die Bandbreite sukzessiv abgeschaltet?

Insgesamt sinds mir derzeit zuviel Vermutungen warum in NV-Games die AMD-Hardware so und so arbeitet.
(NV-Games dahingehend, weil sehr alte Engines, die evtl. nur nachträglich aufgehübscht sind)
 
Zuletzt bearbeitet:
ComputerJunge schrieb:
Das zugrundeliegende Prinzip ist das gleiche - beim Upscaling wird "nur" etwas mehr Vergangenheit benötigt, das ist alles.
Ich weiß wie die Technik funktioniert, aber nochmal darum geht es nicht.

Upscaling ist eine Technik um auf Kosten der Qualität die Performance zu steigern, das ist nichts worauf ein Käufer einer 1600+€ Grafikkarte Wert legt.

Ist glaube ich nicht all zu schwer zu verstehen.
Ergänzung ()

MoinWoll schrieb:
Ich bin übrigens auch ein Gamer mit einer normalen CPU (7800X3D für 439€, nichts teures wie 7950X3D, 13900KS oder Workstation-CPU).
Ein 7800X3D ist in Spielen so ca das beste was es gibt. Die beiden anderen sind nur teuerer und marginal schneller wenn überhaupt.

Das ist mehr als eine "normale" CPU.
 
Kann ich mit meiner 4080 nur bestätigen!

Hab fast die selbe Ausstattung mit dem 5800x3d und wenn man die Frames limitiert ist der Verbrauch sehr gering.

Zum Bespiel bei The Division 2 in 1440p auf Ultrapreset und 120fps limitiert liegt der Verbrauch bei ~155W im Schnitt.

Meine alte 3070 OC ging bis 270W hoch und lag bei ~105fps AVG im TD2 Benchmark, wo die 4080 bei >200fps AVG lag.
 
  • Gefällt mir
Reaktionen: NerdmitHerz
Hate01 schrieb:
Das ist mehr als eine "normale" CPU.
Ich verstehe, dass Du das so siehst. Es ist aber m. E. definitiv eine normalere CPU, als die 4090, mit der sie gepaart ist, eine normale GPU ist. Der Kostenfaktor dazwischen ist ~3,6, die Generation etwa die gleiche und man kann für CPUs eben noch wesentlich mehr Geld raushauen, während es bei der 4090 (derzeit) keine Klasse mehr darüber gibt. Ich bewerte den 7800X3D daher als normal.

Mit einem Ryzen 1XX0 - 5XX0 ohne X3D oder Intel 8XX0 - 11XX0 ist es natürlich kaum zu empfehlen eine 4090 zu kaufen, wenn man nicht in 4K oder höher spielen möchte. Da würde ich dann eher zu 7900 XT(X) oder 4070/80 (Ti) raten. Alle anderen Karten dieser Generation würde ich mangels VRAM und/oder wegen des schlechten P/L-Verhältnisses (4060 Ti 16 GB) gar nicht empfehlen.
 
Zuletzt bearbeitet:
Hate01 schrieb:
Ich weiß wie die Technik funktioniert, aber nochmal darum geht es nicht.

Upscaling ist eine Technik um auf Kosten der Qualität die Performance zu steigern, das ist nichts worauf ein Käufer einer 1600+€ Grafikkarte Wert legt.

Ist glaube ich nicht all zu schwer zu verstehen.
Ergänzung ()


Ein 7800X3D ist in Spielen so ca das beste was es gibt. Die beiden anderen sind nur teuerer und marginal schneller wenn überhaupt.

Das ist mehr als eine "normale" CPU.

Laut zahlreichen Gaming Benchmarks gibt's doch fast keinen Unterschied zischen einem 5800X3D vs 7800X3D im UHD Gaming mit einer RTX 4090!
Deshalb nutze ich den 5800X3D & RTX 4090 absolut sorglos in 4k@120hz bis 115 FPS!
Diese ganzen teueren neuen CPU's sind meiner Meinung nach absoluter Schwachsinn im 4k Gaming bis 120/144 Hz/FPS, WENN man nicht UNBEDINGT ans absolute Limit der GPU gehen will.
Werde höchstwahrscheinlich noch eine RX 8900 XTX /5090 mit dem 5800X3D nutzen 😆😆😆
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Der Wolle P
Serandi schrieb:
Laut zahlreichen Gaming Benchmarks gibt's doch fast keinen Unterschied zischen einem 5800X3D vs 7800X3D im UHD Gaming mit einer RTX 4090!
Deshalb nutze ich den 5800X3D & RTX 4090 absolut sorglos in 4k@120hz bis 115 FPS!
Diese ganzen teueren neuen CPU's sind meiner Meinung nach absoluter Schwachsinn im 4k Gaming bis 120/144 Hz/FPS, WENN man nicht UNBEDINGT ans absolute Limit der GPU gehen will.
Da habe ich etwas andere Erfahrungen gemacht. Da die 4090 in vielen neueren Spielen keine konstanten 115 FPS in 4K schafft, schalte ich hier, wenn es kompetent implementiert wurde, häufig DLSS Quality ein, um die 115 FPS am 4K 120 Hz Fernseher oder 138 FPS am UWQHD 144 Hz Monitor mit 5160x2160 Auflösung mittels DSR die meiste Zeit halten zu können. Hierbei hat der 5800X3D mit -20 UV und 3800CL16 RAM dann schon sehr häufig limitiert. Die neusten Beispiele sind Hogwarts Legacy, The Last of Us Part I und Jedi Survivor.

Mit dem 7800X3D mit -25 UV und 6000CL30 RAM habe ich da weniger Probleme, auch wenn, vor allem in Titeln, die die CPU schlecht auslasten, immernoch CPU-Limits vorliegen können.
 
Zuletzt bearbeitet:
@MoinWoll
Bist dir sicher, dass diese Spiele noch nicht gut genug optimiert sind und deshalb nicht vernünftig per CPU und vor allem auch GPU geschubst werden?
Nutze TLOU P1 spiele ich ebenfalls mit DLSS on, da es per se ebenso gut aussieht wie ohne und ich hab meist durchgehend über 90 FPS mit meiner undervoled 4090 auf 875mV/2500Mhz.
Sicher holen die neusten CPU's mehr raus aber lohnt es sich denn um den Aufpreis zu rechtfertigen?

5160x2160? Das ist doch eine noch höhere Auflösung wie 4k/UHD also 3840 x 2160p...
Da kommt die 4090 noch eher an ihre Grenzen oder nicht 🤔
 
Zuletzt bearbeitet:
Serandi schrieb:
@MoinWoll
Bist dir sicher, dass diese Spiele noch nicht gut genug optimiert sind und deshalb nicht vernünftig per CPU und vor allem auch GPU geschubst werden?
Die CPU-Limits haben häufig zweifelsohne auch mit der Optimierung zu tun, ja. Aber gerade wenn nur wenige Threads genutzt werden, schafft der 7800X3D ja trotzdem ca. 25% mehr FPS, da die Single-Core Leistung um etwa diesen Prozentsatz höher ist. Mit besserer Optimierung wäre evtl. auch der 5800X3D in der Lage die 4090 in 4K (ggf. mit DLSS Quality) im GPU-Limit bzw. am Frame-Limit zu halten. Die Realität, wenn man diese Spiele eben tatsächlich spielen möchte, ist aber leider eine andere.

Serandi schrieb:
Nutze TLOU P1 spiele ich ebenfalls mit DLSS on, da es per se ebenso gut aussieht wie ohne und ich hab meist durchgehend über 90 FPS mit meiner undervoled 4090 auf 875mV/2500Mhz.
Sicher holen die neusten CPU's mehr raus aber lohnt es sich denn um den Aufpreis zu rechtfertigen?
TLOU P1 habe ich auf 80 FPS limitiert, da mehr selbst mit DLSS Quality in 5160x2160 nicht drin waren. Wenn es unter 80 FPS gefallen ist, und das war durchaus häufig so, war es aber in der überwiegenden Anzahl der Fälle der 5800X3D der diese Drops erzeugt hat.

Serandi schrieb:
5160x2160? Das ist dich eine noch höhere Auflösung wie 4k/UHD also sprich 2160p...
Da kommt die 4090 noch eher an ihre Grenzen oder nicht 🤔
Ja, 5160x2160 braucht nochmal etwa 30% mehr GPU-Leistung als 4K für die gleiche Framerate, allerdings spiele ich auch wo es geht mit DLSS Quality oder, im Falle von Cyberpunk mit Pathtracing, DLSS Performance, da die 4090 sonst meist nichtmal 100 FPS in neuen Spielen bzw. 60 FPS in Cyberpunk schafft. Und da kommt dann wieder die CPU mehr zum Tragen als in regulärem, nativem 4K.
 
Zuletzt bearbeitet:
Danke für dein Leserartikel.

TIL DevPandi ist eine sie :D
Kannte dich nur als sehr eine Person mit sehr sachliche Argumente.
 
@MoinWoll
Gut, wenn man unbedingt mehr Performance benötigt, damit man zufrieden ist, dann kommt man eben an einer neuen Plattform und CPU nicht vorbei. Finde der Aufpreis lohnt sich nur, wenn man seine alte Plattform samt CPU noch gut zu verkaufen schafft.
Hab an sich echt gute Teile, also Board, RAM und CPU. Um das auf demselben Niveau auf AM5 zu bringen würde ich wohl das doppelte zahlen müssen und das lohnt sich für mich in keinster Weise. Für mich persönlich reicht das noch lange aus in 4k bis 115FPS. Man Bedenke der 5800X3D ist oft selbst besser als eine 12900k. Und das war und ist immer noch eine echt ernstzunehmende vorzeige CPU.
Erkläre mal einem der den 12900k, er hätte eine naja geht so CPU 😁

Spiele grundsätzlich gerne bei 80-115 FPS in 4k nicht mehr nicht weniger, da auf 65 Zoll LG OLED C1. Meistens mit Controller vom Sofa aus.

Diese Auflösung ist mir fremd...also nutzt du wohl ebenfalls einen ziemlich großes ultra wide Screen mit über 144Hz?
 
Serandi schrieb:
@MoinWoll
Gut, wenn man unbedingt mehr Performance benötigt, damit man zufrieden ist, dann kommt man eben an einer neuen Plattform und CPU nicht vorbei.
Genau. Es ist jetzt nicht so, dass es mit dem 5800X3D furchtbar gewesen wäre, aber wenn ich schon 1600€ für eine Grafikkarte bezahle, möchte ich persönlich, dass so viel Leistung wie möglich davon ankommt. Das hat der 5800X3D häufig leider nicht mehr leisten können. Da setzt denke ich jeder seine Prioritäten anders.

Serandi schrieb:
Finde der Aufpreis lohnt sich nur, wenn man seine alte Plattform samt CPU noch gut zu verkaufen schafft.
Das stimmt. Ich habe für die neue Kombination aus CPU, Mainboard und RAM insgesamt 870€ bezahlt und meinen 5800X3D und den alten RAM für insgesamt 390€ bei eBay verkauft. Das alte Mainboard liegt noch hier, da hatte ich bisher nicht die Muße es noch reinzustellen und zu verpacken. Die 480€ Differenz waren es mir im Vergleich zum Kaufpreis der 4090 wert, zumal beim 7800X3D auch noch Jedi Survivor (bei dem der 7800X3D übrigens immernoch stark limitiert xD) dabei war. Hätte ich keine alte Hardware mehr zum Verkaufen gehabt, hätte ich mir das evtl. auch anders überlegt.

Dazu kam noch, dass es bis Zen 5 noch relativ lange dauern wird und Zen 5 mit 3D V-Cache, welcher dann auch wirklich schneller sein sollte als Zen 4 mit 3D V-Cache, nochmal länger auf sich warten lassen wird. Intel wird dieses Jahr auch nur einen Refresh bringen, der dann vermutlich auch nur zu Zen 4 mit 3D V-Cache aufschließen wird, sodass ein wirklicher Sprung bei Intel auch noch recht weit entfernt ist. Dann ist zur Zeit auch noch extreme Flaute was die Nachfrage nach neuer Hardware angeht. Insgesamt ist gerade also ein relativ günstiger Zeitpunkt für den Kauf einer neuen Plattform. Weihnachten oder nächtes Jahr kann das schon wieder ganz anders aussehen.

Serandi schrieb:
Spiele grundsätzlich gerne bei 80-115 FPS in 4k nicht mehr nicht weniger, da auf 65 Zoll LG OLED C1. Meistens mit Controller vom Sofa aus.
Mache ich auch gerne, wenn es mal kein Shooter ist. Bei mir auf einem 55 Zoll LG OLED CX an dem auch die PS5 für Exklusivtitel hängt.

Serandi schrieb:
Diese Auflösung ist mir fremd...also nutzt du wohl ebenfalls einen ziemlich großes ultra wide Screen mit über 144Hz?
Ich habe einen UWQHD (3440x1440) 144Hz 34" Monitor und lasse das Bild in Spielen (außer BF2042) von 5160x2160 mittels DLDSR 2,25x im NVIDIA Treiber auf 3440x1440 downsamplen. Ich hätte gerne einen 38" OLED mit nativer Auflösung von 5160x2160 und mindestens 120 Hz, aber ich denke das wird leider noch etwa 2 Jahre auf sich warten lassen. Den wird voraussichtlich dann auch schon eine 5090 oder 8900 XTX (sollte AMD komplett aufschließen können) mit Bildern versorgen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Serandi
MoinWoll schrieb:
Genau. Es ist jetzt nicht so, dass es mit dem 5800X3D furchtbar gewesen wäre, aber wenn ich schon 1600€ für eine Grafikkarte bezahle, möchte ich persönlich, dass so viel Leistung wie möglich davon ankommt. Das hat der 5800X3D häufig leider nicht mehr leisten können. Da setzt denke ich jeder seine Prioritäten anders.

Ja, vor allem, wenn man die volle Leistung der 4090 abrufen möchte bzw auch eher im High FPS Bereich in 1440p unterwegs ist, dann benötigt man die dementsprechende CPU, das verstehe ich.


Finde ebenfalls, dass es der beste Weg ist neue Hardware zu kaufen, wenn man die alte verkauft.
Vor der RTX 4090 Gaming OC hatte ich die schöne Asus Rog Strix RX 6900 XT LC Top Edition, die ich noch recht gut verkaufen konnte, so hat der Preis der 4090 selbst zu Release nicht so herbe wehgetan wie es ohne der alten GPU getan hätte.

Bin gespannt wie lange es bis Zen 5 noch dauern wird. Denke aber dass die 2024 loslegen werden und gegen Ende des Jahres kommen auch schon die RX 8000er, wobei ich gelesen habe, dass es sich dieses Mal auf 2025 verschieben könnte, was ich sogar gut finde, da ich den Zyklus zu kurz finde.

Ja, ist echt spannend, was sich technisch noch so alles noch tun wird vor allem bei den OLED.

Bei den neuen GPU's, denke ich sogar, dass ich wieder zu AMD wechseln werde, sollte eine RX 8900 XTX deutlich stärker werden und ähnlich effizient sein wie eine 4090.
Da ich sowieso kein großartiger Verfechter von Raytracing und Upscaling bin und auch sonst die native Auflösung bevorzuge. Wobei ich DLSS selbst hier und da gerne nutze, wenn es vernünftig im Spiel eingearbeitet ist und seinen Zweck bestens erfüllt und wie nativ oder gar besser aussieht und dabei noch viel sparsamer ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll
Serandi schrieb:
Vor der RTX 4090 Gaming OC hatte ich die schöne Asus Rog Strix RX 6900 XT LC Top Edition, die ich noch recht gut verkaufen konnte, so hat der Preis der 4090 selbst zu Release nicht so herbe wehgetan wie es ohne der alten GPU getan hätte.
Jopp, meine alte 3080 Ti ging auch noch für 800€ weg. Anfang 2025 werde ich das genauso machen. 4090 auf eBay und direkt 5090 oder 8900 XTX kaufen. So kann man sich dauerhaft absolutes High-End recht gut leisten. Auch die ständigen Preissteigerungen sind dann nicht mehr so relevant, da der Wiederverkaufswert ja jedes Mal mitsteigt.

Serandi schrieb:
gegen Ende des Jahres kommen auch schon die RX 8000er, wobei ich gelesen habe, dass es sich dieses Mal auf 2025 verschieben könnte, was ich sogar gut finde, da ich den Zyklus zu kurz finde.
Schnelleren Fortschritt würde ich eigentlich schon besser finden, aber die Fortschritte bei den Fertigungsverfahren geben das leider nicht mehr her. Ich hoffe, dass hier irgendwann eine grundlegend neue Technologie kommt, die wieder eine exponentielle Verbesserung ermöglicht.

Serandi schrieb:
Ja, ist echt spannend, was sich technisch noch so alles noch tun wird vor allem bei den OLED.
Leider geht es in dem Bereich auch sehr schleppend voran. Der x-te 1440p 240 Hz OLED mit leicht anderem Feature-Set kann mich leider gar nicht begeistern. Und Microsoft schafft es leider bis heute nicht Cleartype an die verbreiteten OLED Pixellayouts anzupassen, sodass Schriftschärfe und Lesbarkeit unter Windows leider immernoch nicht so toll sind.

Serandi schrieb:
Da ich sowieso kein großartiger Verfechter von Raytracing und Upscaling bin und auch sonst die native Auflösung bevorzuge. Wobei ich DLSS selbst hier und da gerne nutze, wenn es vernünftig im Spiel eingearbeitet ist und seinen Zweck bestens erfüllt und wie nativ oder gar besser aussieht und dabei noch viel sparsamer ist.
RT und DLSS finde ich grundsätzlich sehr gute Technologien und nutze sie auch überall wo es Sinn macht. Aber es gibt leider auch viele Probleme.

Bei DLSS, wie auch bei FSR und normalem TAA wird das Bild bei Bewegung leicht bis deutlich unscharf, je nach Implementierung, und Schärfefilter helfen hier leider nur begrenzt. Die Alternative, Anti-Aliasing komplett abzuschalten, sofern das Spiel das überhaupt zulässt, ist aber leider noch schlechter, da die Assets in aktuellen Spielen mittlerweile so detailliert und kleinteilig sind, dass es ohne AA dauerhaft stark flimmert, selbst in 4K oder höher. Dazu kommt noch, dass DLSS und FSR die RT-Auflösung nicht mitskalieren, sodass die folgenden Probleme, die ich mit RT habe, noch verstärkt werden.

Bei RT ist mein Problem, dass es bisher immernoch, auf Grund der mangelnden Rechenleistung, selbst bei der 4090 und in den höchsten Einstellungen, noch so stark zurückgeschraubt ist, dass viele Artefakte auftreten. Ganz besonders stört mich das in Cyberpunk mit Pathtracing. Die Schatten von Autos und Menschen hinterlassen auffällige, dunkle Schmierspuren auf dem Boden für mehrere Meter. Das tritt bei Raster-Schatten nicht auf. Auch die Reflektionen finde ich sehr grisselig mit Pathtracing, vor allem wenn DLSS zum Einsatz kommt. Die Lichtberechnung braucht teilweise mehrere Sekunden um bei Änderungen in der Beleuchtung hinterherzukommen. Insgesamt sieht das Bild (in Cyberpunk) mit Pathtracing zwar wesentlich realistischer aus als komplett ohne RT, allerdings leidet m. E. die Bildqualität insgesamt sehr stark und die Artefaktdichte vermittelt fast schon den Eindruck von Grafikfehlern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Serandi
ComputerJunge schrieb:
Aber nur mit der Experience-Version des Treibers, oder?
Ja, nur in dieser Version. Aber in der regel reicht das auch erst mal.
Hate01 schrieb:
Zum Thema DLSS/FSR sollte bei Grafikkarten der Leistungs- bzw. Preisklasse irrelevant sein. Wer sich so eine Grafikkarte kauft will mit nativer Auflösung spielen.
Das ist an dieser Stelle erst mal deine Meinung. Es gibt mit neueren Versionen von DLSS und ebenso auf FSR immer mehr Spiele, die auch sichtbar von Upscaleing profitieren und ein besseres Bild auf den Schirm zaubern können.

Nein, sie müssen es nicht und es gibt genug Beispiele, bei denen es auch mit Nachteilen verbunden ist, aber so pauschal, wie du hier meinst, dass keiner in der Preisklasse DLSS in Erwägung zieht, ist es nun mal nicht.
Hate01 schrieb:
Zum noch eine kleine Anmerkung: die Radeon hat keine "RT Kerne" das ist einfach der Teil der CU.
Nach dieser Sichtweise haben die Radeons dann auch keine Shader, weil sie Teile der CU sind und ebenso haben sie keine TMU, weil sie Teile der CU sind und ebenso haben RDNA3-GPUs auch keine "AI-Kerne", da sie ein Teil der Vec32 sind.

Ebenso hätte NVIDIA keine Tensor-Kerne weil sie Teil der SM sind und auch keine RT-Kerne, weil sie Teil der SM sind oder TMU, weil sie Teil der SM sind und ebenso hätten beide keine ROP, weil sie Teile der GPC des Shader-Arrays sind.

Natürlich hat RDNA 3 RT-Kerne, nur dass AMD diese Kerne nicht RT-Kerne nennt, sondern Ray-Accelator - also Strahlen-Beschleuniger.
7-2160.bf31b516.png

Davon einen pro CU, dazu kommen 4 TMU sowie 2 Scalar-Units und zwei Vec-Units. Die Vec-Unit hat als Bestandteil einen Matrix-Accelator (Matix-Beschleuniger), der entsprechend die Daten passend sortiert.

Jede einzelne dieser Komponenten, also die TMU, der RT-Kern, die Scalar-ALU und die Vec-ALU bilden dann eine CU. 2 Davon eine WGP und 6 WGP bilden ein Shader-Array mit 16 ROPs.

Nur weil man die Gruppen in logischen Einheiten zusammenfasst, heißt das nicht plötzlich, dass es keine RT-Kerne gäbe.

Manchmal sollte man lieber einfach mal nichts schreiben.
LencoX2 schrieb:
Du musst Nostalgiker sein, wenn du Nvidias Treiberpanel aus Win95 Zeiten besser findest.
Ich muss dazu schreiben, dass das alte "Controllpanel" von NVIDIA durchaus auch seinen Charme hat. Aber wenn es um das eigentliche Treiber-Controll-Panel geht, muss ich sagen, dass NVIDIA und AMD sich da nicht so viel geben. Bei beiden kannst du dir einen Ast absuchen.

AMDs Ansatz ist "moderner" von der UI, aber nicht unbedingt besser, was das UX angeht. Gleiches mit NVIDIA. Wenn es nach gutem UX angeht, bekleckern sich beide leider nicht mit Ruhm. Eine moderne UI macht noch keine gute UI.

Aber über gute UI und gutes UX kann man lange diskutieren.
Hate01 schrieb:
Upscaling ist eine Technik um auf Kosten der Qualität die Performance zu steigern, das ist nichts worauf ein Käufer einer 1600+€ Grafikkarte Wert legt.
Du kannst das ganze auch noch 10 mal wiederholen und würdest dennoch nicht recht haben. Ich hab in bestimmten Spielen DLSS aktiviert, weil es den oft hauseigenen kantenglättungen überlegen ist und man gleichzeitig auch noch "Energiesparen" kann.
MoinWoll schrieb:
Die CPU-Limits haben häufig zweifelsohne auch mit der Optimierung zu tun, ja.
Na, vielleicht wird es dieses Jahr noch was mit einem 7800X3D um den CPU-Limit zu entkommen. :) Aber, ja es gibt auch genug Spiele, die unsinnigerweise in einen CPU-Limit hängen. Engine-Entwicklung ist ein schweres Feld.
MoinWoll schrieb:
RT und DLSS finde ich grundsätzlich sehr gute Technologien und nutze sie auch überall wo es Sinn macht. Aber es gibt leider auch viele Probleme.
Das fällt mir aktuell mit Cyberpunk 2077 sogar verstärkt auf. Einer der Gründe, warum ich noch einen Lesertest vorbereite, auch wegen des Vergleiches DLSS/FSR.
MoinWoll schrieb:
mit Pathtracing zwar wesentlich realistischer aus als komplett ohne RT, allerdings leidet m. E. die Bildqualität insgesamt sehr stark und die Artefaktdichte vermittelt fast schon den Eindruck von Grafikfehlern.
Das Interessante ist, dass ich mit RT bestimmte Fehler in Verbindung mit DLSS habe, dann aber nicht mit FSR und umgekehrt. Wieder andere Fehler sind mit PathTracing weg, dafür kommen andere zum Vorschein.

Cyberpunk ist gutes Beispiel um die Stärken von RT und PT zu zeigen, aber auch deren aktuellen Schwächen. ebenso Metro Exodus. Man merkt an diesen Spielen auch, wie gut die Entwickler DLSS/FSR implementiert haben und wie gut sie mit Denoisern arbeiten.

Ich mag RT aber und gerade Cyberpunk ist es eine Sache, auf die ich nicht mehr verzichten möchte.
 
  • Gefällt mir
Reaktionen: Cyberbernd
DevPandi schrieb:
Nach dieser Sichtweise haben die Radeons dann auch keine Shader, weil sie Teile der CU sind und ebenso haben sie keine TMU, weil sie Teile der CU sind und ebenso haben RDNA3-GPUs auch keine "AI-Kerne", da sie ein Teil der Vec32 sind.
Nach der Argumentation könnte man die FPU Einheiten einer CPU als Kern bezeichnen, das macht aber niemand. Die sind deutlich komplexer als die "RT Kerne", bei RDNA2 kann die genau eine Instruktion.
 
Benötige Argumente für die RX 7900 XTX vs RTX 4090, da ich mir immer sicherer werde die wieder verkaufen zu wollen.
Meine Argumente bisher:
  • benötige einfach absolut kein Raytracing
  • spiele überwiegend Games, die 2 Jahre oder viel älter sind oder gar Emulator Games, wo ich absolut keine starke GPU benötige
  • möchte keine Upscaling Methoden verwenden
  • spiele außer Tekken online absolut nichts online und bin reiner Single Player Gamer.
  • benötige unbedingt gute 4k Leistung bis maximal 120Hz und 115 FPS!
 
Zuletzt bearbeitet:
Hallo @DevPandi, vielen dank für dein Vergleich der RX 7900 XTX gegen RTX 4090, bin gerade selber am überlegen zu welcher Grafikkarte ich greifen soll.

Aktuell habe ich eine GTX 970 4G von MSI, ja die hat schon einige Jahre auf dem Buckel, mein gesamtes System stammt von 2016, MSI X99A XPower AC mit einem I7-5930K, das ganze ist in einem EATX Tower Gehäuse verbaut, als Netzteil kommt ein Be Quiet 850 Watt Netzteil.

Bin kein Typischer Zocker, folgende Spiele nutze ich am Meisten, Cities-Skylines Deluxe-Edition, Cities Skylines 2 Ultimate-Edition, Planet Zoo, Planet Coaster, Per Aspera, Surviving Mars, Infraspace, Transport Fever 2, Portal 1 & 2

In der Reihenfolge wie sie aktuell oben stehen, wobei Cities-Skylines 2 natürlich ab den 24.10.2023 dazu kommt.

Was ich aber auch sehr gerne mache, 3D-Renderings mit der 3D-Software Blender in der Version 4.1 Alpha, als damals die GTX 1xxx Serie erschien, war ich schon am überlegen, genau so bei RTX 2xxx Serie und RTX 3xxx Serie, auf eine bessere Grafikkarte aufzurüsten, dort dann mit entsprechend viel VRam, 16 GByte, die Preise haben mich bisher abgeschreckt.

Dann kam die RTX 4xxx Serie, das Top-Model mit 24 GByte VRam, aber einen sehr heftigen Preis, da aber nun auch Cities-Skylines 2 raus kommt, und das schon 11 GByte VRam als Optimal empfiehlt, überlege ich nun wieder vermehrt, soll ich sie mir gönnen?

Wenn ich mir dir Blender Benchmarks anschaue, liegt die RTX 4090 bei rund 13084 Score und die RX 7900 XTX bei gerade mal 3946, was einer Renderleistung zwischen einer RTX 4060 und RTX 4070 liegen würde und gegenüber einer RX 7900 XTX, währe die RTX 4090 nochmals 3,3 mal schneller.

Dazu kommt noch die Stabel-Diffiussion Anbindung, was ja hier auch schon erwähnt worden ist.

Würdest Du bei Rendering und Gaming eher zur RTX 4090 tendieren, vom Preis ganz abgesehen, denn bis es Spiele geben wird, die mehr als 24 GByte VRam benötigen, wird es noch eine ganze weile dauern.

Würde mich über eine Antwort sehr freuen
 
Samson1971 schrieb:
Würdest Du bei Rendering und Gaming eher zur RTX 4090 tendieren, vom Preis ganz abgesehen, denn bis es Spiele geben wird, die mehr als 24 GByte VRam benötigen, wird es noch eine ganze weile dauern.
Halli Hallo,

entschuldigte die etwas verspätete Antwort. Erst mal danke für den netten Beitrag und nun zu den ganzen Themen, die du anbringst für eine neue Grafikkarte - ich hab ja jetzt auch gut 3 - 4 Monate Erfahrung sammeln können.

Samson1971 schrieb:
Was ich aber auch sehr gerne mache, 3D-Renderings mit der 3D-Software Blender in der Version 4.1 Alpha
Wenn du viel mit Blender arbeites und verwendest, dann kann der Griff zu einer GeForce-Karte aktuell die bessere Wahl sein. Die Zahlen sprechen aktuell für sich. Es macht halt schon einen Unterschied, je nach Einstellungen, ob man nur 5 Minuten oder 15 Minuten auf das Resultat wartet.

Man muss aber im Hinterkopf behalten, dass AMD ROCm für Windows auch veröffentlichen wird und AMD auch daran arbeitet, dass Blender die RT-Einheiten nutzen wird. Wenn AMD hier ihre Versprechen hält, dann kann die 7900 XT und die 7900 XTX eine Alternative werden. Aktuell ist die RTX 4090 hier eine Nummer, die nicht so einfach geschlagen werden kann.

Solltest du auch noch Auftragsarbeiten machen, dann ist der Griff zur 4090 bei ca. 600 € mehr die bessere Wahl zum jetzigen Zeitpunkt.

Samson1971 schrieb:
Bin kein Typischer Zocker, folgende Spiele nutze ich am Meisten, Cities-Skylines Deluxe-Edition, Cities Skylines 2 Ultimate-Edition, Planet Zoo, Planet Coaster, Per Aspera, Surviving Mars, Infraspace, Transport Fever 2, Portal 1 & 2
Wenn du primär Aufbauspiele spielst, solltest du auf jeden Fall auch über ein CPU-Upgrade nachdenken. Ob du hier zu AMD oder Intel greifst, ist am Ende jedoch vollkommen egal. Ich hab gerade den 7800X3D im "Test" und fang an zu schreiben. War auch versucht einen 13700K zu kaufen, am Ende war der 7800X3D aktuell das "günstigere" Angebot.

Spiele wie Cities Skyline 2, Planet Zoo und Co haben auch einen hohen Simulationsanteil, der auf die CPU geht. Ich liebe ja Anno 1800, aber Cities Skyline 2 wird auch mich wieder Tage beschäftigen. Wenn du es "einfacher" haben willst, empfehle ich dir an der Stelle aber eine Intel-Plattform - Schaut dabei ganz böse zum PC. Nicht das AM5 schlecht ist und Zen 4, jetzt wo das System rennt, bin ich begeistert, aber so einfach war das nicht. Es gibt Eigenheiten, die man kennen muss.

Samson1971 schrieb:
Dazu kommt noch die Stabel-Diffiussion Anbindung, was ja hier auch schon erwähnt worden ist.
Hier wird man auch erst mal abwarten müssen, was ROCm bringt. AMD hat hier schon einiges verbessert, sollte AMD hier noch was machen, dann könnte sich das Bild noch mal etwas ändern.

Stand heute: Geht es dir um Rendern und KI: GeForce. Bei Spielen ist die höhere Effizient toll, aber nicht das KO Kriterium.
 
Hallo zusammen!! 👋🏻
Ich möchte demnächst von der 4090 auf die RX 7900 XTX umsteigen und da ich die Gaming OC nutze und das RGB sehr gut finde, kommt für mich nur die Gigabyte XTX Aorus Elite in Frage.
Was mir besonders wichtig ist, ist Gaming bei 80-115 FPS in 4k, da ich auf dem LG OLED C1 mit 120Hz spiele und dabei möglichst wenig Verbrauch haben mochte. Ich spiele unglaublich gerne ältere Spiele und sowieso ohne Raytracing auch mit der 4090, weshalb der Kauf eh unnötig war aber ich wollte es halt wissen, hat mich aber mit Raytracing & Co null umgehauen und den Mehrverbrauch absolut nicht wert, lediglich DLSS und vor allem die Effizienz dabei waren sehr gut. Hatte eine RX 6900 XT LC vorher, und war damit zufrieden!

Kurz und knapp noch mal: würde ich bei den meisten betagten Games in etwa bis maximal 250 Watt bei 100-115 FPS also FPS limit Macht mir absolut nichts aus und ist bei meiner 4090 sowieso immer auf 115 FPS abgeregelt! Würde ich damit auskommen? Dann ist die Karte der Wahl.

Und wie sieht es denn derzeit mit dem Idle Verbrauch aus? Ich bin so gerne auch mal länger am surfen mit YouTube & Co.

Danke schon mal im Voraus!
 
Zurück
Oben