News Aus der Community: Ein umfassender Vergleich von RX 7900 XTX und RTX 4090

RX 7900 XT ist eigentlich die beste Wahl aktuell aus der P/L Perspektive.

Max. Leistung ist klar die 4090 - Aber auch 1600+ Euro.
Die XTX/4080 geben sich nicht viel, die 4080 mit ihren 16gb immer noch zu teuer, ansonsten wäre das ne Top GPU. Die XTX um ca. 900 ist für mich besser.

Und dann gibt es die XT hier und da um unter 800eur.. Einfach top.
Da kann NV mit ihren 12GB Pendants leider nicht mithalten, außer man zockt in max. 1440p und weiß die Regler zu bedienen und selbst dann hätte ich lieber 20GB Vram^^
 
  • Gefällt mir
Reaktionen: shortex, LukS, tömu und 3 andere
Ich finde die Zusammenfassung von dem Newsartikel und dem Test der Testerin sehr strange, für mich stellt sich das so dar wie wenn hier AMD massiv gesiegt hat, unerwartet. Man zieht nicht nur ungefähr gleich in der Spieleleistung sondern bei Minframes die meines erachtens ja wichtiger sind zieht man an der fast doppelt so teuren Karte vorbei...
NVIDIA hat mit Ada Lovelace in dieser Generation das rundere und bessere Produkt. Rational betrachtet, spricht in dieser Generation nichts für AMD, es können nur – wie bei mir im Dezember – persönliche Vorlieben sein oder die Neugierde auf neue Technologie.
Es spricht also nichts für die Grafikkarte? Letztlich widerspricht sich die Testerin im nächsten Absatz in dem sie sagt das es die 4080 Preis, Leistung und Preis-Leistung "vernichtet" aber auch zur 4090 ist die wenn man nicht extrem viel Geld über hat das bessere Produkt.

Man muss also irgendwas mit K.I. oder Blender oder so machen, damit die 4090 sich lohnt, ich finde es geradezu verrückt das hier Nebenbei erwähnt wird das die Karte mit der 4090 in Spielespeed gleich zieht. Das ist einmalig eine 700 Euro billigere Karte die Gleich Schnelle Spielekarte ist wie von der Konkurrenz?

Auf Undervolting sollte ich beim Querlesen nicht irgend nen Schwächeanfall gehabt haben wird hier leider nicht ein gegangen, es ist aber schon krass das trotz hier in Deutschland künstlich erhöhten Strompreisen der Preisunterschied so riesig ist das es für Gamer wohl immer noch besser ist auf die 7900XTX zu setzen, zumal FSR 3.0 ja auch noch irgendwann kommen wird.

Was auch krass ist, das die Gen ja diesen Defekt hat und trotzdem im Gaming so extrem Konkurrenzfähig ist, hätte sie die 20-30% mehr Speed und bisschen weniger verbrauch wäre bei der Entwicklung also alles nach Plan gelaufen, wäre das ein komplettes Massaker für Nvidia, ja für (reine) Arbeiter die Anwendungen drauf benutzen mag das anders sein, allerdings sind die Speedprobleme in Blender und Co ja reine Treiber/Softwareprobleme hätte AMD hier die bessere Hardware würde es mich auch nicht wundern wenn 3. am teils unter Linux zumindest Opensource Treiber auch investieren würden um die Hardwareleistung auch für den Bereich besser zu nutzen.

Das beste Argument das mir persönlich noch einfällt als Gamer gegen die 7900 XTX ist die Abwärme, da ich in ner kleinen Wohnung lebe, aber da würde auch die 4090 mir zu viel Wärme erzeugen, wäre diese Probleme hat für den sind die ganzen Karten nichts.

Das einzige Argument das man bringen könnte ist das niemand eine >800 euro Grafikkarte kauft nur um zu spielen? Aber das halte ich auch ne gewagte These.

Und noch etwas die 4090 ist mit Abstand die beste Karte von Nvidia und rede nicht nur vom Leistungssieg absolut, aber vom Leistung/Euro von genuegend VRam etc. jede Karte darunter wird tendenziell schlechter, das selbe ist nicht wahr fuer AMD die 7900XT ist fair bepreist inzwischen und ist Stromsparender und hat genug VRAM für alle Games. Die 4080 dagegen ist viel zu teuer wie der Artikel schon sagt und ab 4070ti gehts schon mit VRAM Problemen los. Also selbst die beste Karte wird von AMD als Spielekarte aus meiner Sicht vernichtet außer man stellt sich dumm und tut so als gäbe es den Preisunterschied nicht.
 
  • Gefällt mir
Reaktionen: shortex und MiroPoch
Ich hab' die 7900 XTX tatsächlich gerade in einem PC für einen sehr guten Freund verbaut ( 3DMark Run ) - und konnte sie mir anschauen. Normalerweise eine GPU weit über meiner Preisklasse, ich selbst hab' nur einen 5700X und eine ROG TUF 4070 - neuerdings. 12 GB VRAM waren meine Karotte auf dem Stick.

Es ist so wie man denkt - ein brachiales raster-monster mit endlosem VRAM! Die Brechstange, quasi. Sobald man aber Spaß an Compute gefunden hat, also sprich Stable Diffusion (was gerade so geht via DirectML) oder eben LLMs in form von OgggaBooga (um die models zu laden) mit dem SillyTavern UI (um es aktiv zu nutzen) ... ist dieses Ding ernsthaft borderline wertlos. Das heißt also für Gaming, und Gaming allein, ist diese GPU wirklich krass.

Da ich persönlich aber RTX und DLSS (upscaling, ohne frame gen) enorm gerne nutze, gerne auch in anderen Compute Bereichen was machen möchte - muss ich leider sagen das dieser Vergleich einfach absolut keiner ist. Die 4090 ist aus gutem Grund teurer, das weiß NVIDIA und tchja, that's the current state of things. Compute is lächerlich auf RDNA3, was wohl auch so Absicht ist, gell AMD? Ist das schade? Yo, absolut. Ich hätte gerne mehr mit ihr gemacht - so ist und bleibt sie halt eine Gaming Karte die derzeit auch in Raytracing recht gut mitkommt.

Schade - meine letzte eigene AMD Karte waren übrigends die beiden Twins 9700 Pro und 9800 Pro - gut, das ist jetzt schon ein Weilchen her ^-^' Aber das CUDA mal so wichtig und wertvoll wird, hätte ich selbst auch nicht wirklich gedacht. Nya, das sind meine 2 Cents hierzu.

Schönen Start in die Woche allen CB Lesern!

Edit: Ach ja, DLSS Frame Generation is ja auch noch dabei. Ich war ernsthaft skeptisch - hab' natürlich alle passenden Digital Foundry Videos dazu verschlungen und im echten Test - hier auf meinem Screen mit meinem Setup - sind die Synth-Frames zu erkennen, wenn man genau weiß wie die visuellen Charakteristika ausshehen - aber im normalen Gameplay flow ist das nahezu unmöglich, für mich. Ein weiteres Innovatives Feature - was jetzt nur noch vsync lernen muss damit ich es dauerhaft aktiviere =)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ben12345, Bhaal3010 und DevPandi
Ich habe mir meine 4090 wegen der bekannten Vorteile gekauft. Dass sich der Preisunterschied zu einer 7900XTX mit jedem Jahr der Nutzung im Nachhinein ein Stück verringert, war dabei nicht kaufentscheidend, ist aber natürlich ein netter Bonus. Und da ich die Karte erstens undervoltet habe und da bei mir zweitens bislang noch jede Karte zehn Jahre halten musste (und am Ende auch gehalten hat), kommt da während der Nutzungsdauer schon ein hübsches Sümmchen zusammen.
 
peakyblinder schrieb:
Leider hinterlässt AMD nach wie vor beim Lesen solcher Tests den Eindruck, dass die Grafiktreiber auf Beta Status sind. Das nervt.
Die Treiber dürften hier weniger Schuld sein. Eher Probleme mit der Hardware, für die man teils Seitens des Treibers mit der Zeit noch bessere Workarounds finden könnte.

Soweit ich weiß verfügt selbst RDNA 2 nicht/weniger über das Problem und hat entsprechend geringere Verbräuche bei Teillast. RDNA 3 profitiert hier wirklich kaum, sodass auch bei (höherer) Teillast noch annähernd das Powerlimit ausgeschöpft wird. Da Nvidia mit Ada gerade bei Teillast brilliert, fällt der Umstand umso mehr auf.

Wie man das in einer Kaufentscheidung berücksichtigt ist wieder subjektiv, aber der Bericht zeigt halt eine weitere Ungereimtheit an RDNA 3 auf.

Für mich persönlich ein großer Kritikpunkt an RDNA 3 ist derzeit, dass sich der maximale Stromverbrauch einfach nicht sinnvoll deckeln lässt. Selbst wenn man die Spannung der GPU händisch auf 700mv deckelt (weniger ist leider nicht möglich) und den maximalen Takt auf die dann möglichen 2200-2300 MHz reduziert, sieht man häufig noch Verbrauche um die 300 Watt, obwohl man bereits einen relevanten Leistungsverlust in Kauf nimmt. Gerade im Sommer, wenn man um jedes Grad in der Wohnung kämpft, irgendwie eine lästige Entscheidung seitens AMD.
 
  • Gefällt mir
Reaktionen: peakyblinder
Für mich ist nach wie vor die 4090 von der Leistung her gesehen einfach unfassbar. Nvidia hat hier wirklich abgeliefert und die Effizienz sucht seinesgleichen. Kosten muss man natürlich auch sehen aber wem es das wert ist der hat wirklich das Beste im PC was es momentan gibt
 
  • Gefällt mir
Reaktionen: peakyblinder und shaboo
Macht einen nur depri wenn man sieht was die XTX doch für eine Leistungshungrige Karte ist.

Hoffe AMD bekommt das mit einem Refresh oder neuen Gen in den Griff, allerdings kann ich mich nicht beschweren die Treiber sind top bisher keine Probleme bei meinen Games.
 
  • Gefällt mir
Reaktionen: NMA, MiroPoch, peakyblinder und 4 andere
Caramelito schrieb:
Die XTX um ca. 900 ist für mich besser.
Kommt immer darauf an, wie man die Betrachtung zieht und was man bei Spielen am Ende auch aktivieren möchte.

Ich hätte in meinem Tests auch die Spiele so wählen können, dass die 7900 XTX kein wirkliches Land mehr gesehen hätte gegen die 4090, was aber nicht fair wäre.


blackiwid schrieb:
Es spricht also nichts für die Grafikkarte? Letztlich widerspricht sich die Testerin im nächsten Absatz in dem sie sagt das es die 4080 Preis, Leistung und Preis-Leistung "vernichtet" aber auch zur 4090 ist die wenn man nicht extrem viel Geld über hat das bessere Produkt.
Ja und Nein, ich weiß worauf du hinaus willst und muss dir zustimmen, dass ich mir da im ersten Moment selbst widerspreche. Gleichzeitig mach ich es aber auch nicht.

Es hat einen Grund, warum ich auf den Preis erst nach dieser Aussage eingehe und dann den Punkt anspreche, der für AMD in dieser Generation spricht. So etwas nennt man gerne eiune dramatische Wendung.

Bis zum Zeitpunkt, bis man den Preis mit einbezieht, bietet NVIDIA in dieser Generation das rundere Produkt, dass mit weniger Problemen behaftet ist. Alle rationalen Gründe sprechen also für NVIDIA. Erst wenn man den Preispunkt mit hinzu zieht, dreht sich das Bild zu gunsten von AMD und in dem Fall aber auch nur, weil die 4080 vollkommen im Preis daneben liegt. Würde die 4080 für 999 € UVP angeboten werden, würde die Luft für AMD in dieser Generation engwerden.


blackiwid schrieb:
Man muss also irgendwas mit K.I. oder Blender oder so machen, damit die 4090 sich lohnt, ich finde es geradezu verrückt das hier Nebenbei erwähnt wird das die Karte mit der 4090 in Spielespeed gleich zieht. Das ist einmalig eine 700 Euro billigere Karte die Gleich Schnelle Spielekarte ist wie von der Konkurrenz?
Die 7900 XTX kann in diesem Fall primär nur bei den 99,9% mithalten und leicht überholen - die 7900 XTX ist ca. 2 % schneller, so etwas kann man in diesem Fall auch als Messungenauigkeit abtun. Ansonsten liegt die 7900 XTX ca. 29 % zurück. Das deckt sich in diesem Fall relativ gut auch mit den Zahlen von Computerbase und anderen Zeitschriften, wobei ich hier RT und Rasterizer gemittelt habe.

Am Ende deckt sich hier meine Erkenntnis aber auch mit der von CB, dass RDNA3 bei den 99.9 % durchaus Stärke hat. Wenn ich die "Ausreißer" heraus nehme - sowohl für die 7900 XTX als auch die 4090, dann schneidet die 4090 auch in den 99.9 % besser ab. Ich hab sie aber drin gelassen.

Dazu kommt, dass sich der Großteil des Artikels damit befasst, was bei der 7900 XTX schiefläuft.
blackiwid schrieb:
Auf Undervolting sollte ich beim Querlesen nicht irgend nen Schwächeanfall gehabt haben wird hier leider nicht ein gegangen, es ist aber schon krass das trotz hier in Deutschland künstlich erhöhten Strompreisen der Preisunterschied so riesig ist das es für Gamer wohl immer noch besser ist auf die 7900XTX zu setzen, zumal FSR 3.0 ja auch noch irgendwann kommen wird.
Ich habe beide Karten "Stock" verglichen - also so wie sie aus dem Karton kommen. Klar, ich hätte auch noch UV-Tests machen können. Nur dafür hatte ich nicht die Zeit. Ich muss in der Woche 40 Stunden arbeiten gehen und kann solche Tests nur am Wochenende oder Abends machen.

Da sich auch relativ schnell heraus kristallisierte, dass es ein P-State-Problem bei RDNA3 gibt, habe ich mich auf dieses Problem gestürzt und auf das Hardware-Problem. Bei beiden kann UV die Symptome nur Lindern, aber nicht die Ursachen beheben. Daher sind diese für den Test vollkommen irrelevant gewesen.

Du kannst mir natürlich gerne ca. 50 € pro Arbeitstunde zzgl. MwSt. zahlen, dann können wir gerne darübger reden, dass ich auch noch UV-Tests mit einbeziehe. Zahlung im Voraus und ich kann dir jetzt schon sagen, dass ich dafür ca. 60 Stunden - also zwei Arbeitswochen - veranschlage, weil ich dann erst mal die stabilen Settings finden muss und dann die ganzen Tests noch mal machen muss und du kannst selbst bei der "geringen" Auswahl an spielen, die ich hatte, schon von 10 - 15 Stunden für die Ermittlung der Werte pro Karte rechnen. Die Aufbereitung in Excel, das Gegenprüfen und Co dauert auch noch mal 4 - 5 Stunden. Und da nehme ich den Text nicht mit rein.
blackiwid schrieb:
Was auch krass ist, das die Gen ja diesen Defekt hat und trotzdem im Gaming so extrem Konkurrenzfähig ist, hätte sie die 20-30% mehr Speed und bisschen weniger verbrauch wäre bei der Entwicklung also alles nach Plan gelaufen, wäre das ein komplettes Massaker für Nvidia, ja für (reine) Arbeiter die Anwendungen drauf benutzen mag das anders sein, allerdings sind die Speedprobleme in Blender und Co ja reine Treiber/Softwareprobleme hätte AMD hier die bessere Hardware würde es mich auch nicht wundern wenn 3. am teils unter Linux zumindest Opensource Treiber auch investieren würden um die Hardwareleistung auch für den Bereich besser zu nutzen.
Die 7900 XTX ist im Bereich "Rasterizer" - ebenso wie RDNA2 - durchaus auf Augenhöhe mit Ada. Sobald man RT mit dazunimmt - fällt AMD zurück und ja, man kann nun über RT streiten, gleichzeitig zeigt aber gerade Cyberpunk als auch Portal RTX und andere Spiele, was möglich ist und wie viel stimmungsvoller Spiele sein können mit einem Path Tracer.

AMD ist beim RT ca. 1 - 1,5 Generationen zurück, je nach Last der Strahlen und das muss AMD auch aufholen. Im Bereich KI hängt AMD auch gut zurück und das auch deutlicher als bei RT. Der Faktor 3 ist durchaus beachtlich in Stable Diffussiuon, wenn man den DirectML-Stack gegen den CUDA-Stack stellt. ROCm aktuell unter Linux ist nur mit Liebe zu überreden mit der 7900 XTX zusammen zu arbeiten und benötigt einiges an Know-How und Frusttolleranz.

Und ja, wenn es keine Probleme in der Hardware gäbe - ich hab die ROPs im Verdacht, und genau darum ging es im Artikel zum Ende hin - wäre RDNA3 durchaus - abseits von RT und KI - eine gute Alternative zu Ada. So kann AMD aktuell nur über den Preis punkten.

Man kann gespannt sein, was AMD mit RDNA4 bringt und abschreiben sollte man AMD auf keinen Fall, nur weil diese Generation "versemmelt" wurde:

"AMD hat für RDNA 4 einige Hausaufgaben zu erledigen und sie werden die Probleme von RDNA 3 angehen müssen. Probleme in den ROPs sind lösbar und wenn AMD weitere Verbesserungen in die CU einfließen lässt und an ihrer RT-Struktur arbeitet, kann AMD mit RDNA 4 NVIDIA wieder gefährlicher werden, so reicht es einfach nur für eine Alternative, die ihre Schwachpunkte hat."

Die Probleme von RDNA 3 liegen nicht in der Architektur, sondern vermutlich im Chipdesign und das ist auf jeden Fall behebbar. Man sollte AMD also auf keinen Fall abschreiben!
 
  • Gefällt mir
Reaktionen: eastcoast_pete, Dgini, NMA und 6 andere
DevPandi schrieb:
Und ja, wenn es keine Probleme in der Hardware gäbe - ich hab die ROPs im Verdacht, und genau darum ging es im Artikel zum Ende hin - wäre RDNA3 durchaus - abseits von RT und KI - eine gute Alternative zu Ada. So kann AMD aktuell nur über den Preis punkten.

Was macht denn da so sicher, dass es wirklich ein Problem ist?


Wenn man mal weg davon geht, dass da ein Problem da sein muss - mal eine etwas andere Theorie dazu:
Was ist denn wenn das einfach nur Natur der Sache bei MCM ist? Es war schon immer so, das große, breite Datenverbindungen Energiehungrig sind. Und beim MCM muss man halt zwei Teile über so ein großes Interface miteinander verbinden.

Die MCM Ryzen bestätigen das auch im CPU Umfeld - wie man sehr schön an den X3D Modellen mit Single CCD sehen kann. Sicher, bisschen anderes Ausführungsfeld, aber am Ende ähnliches Prinzip. Auch im GPU Umfeld bei Gaming wird der quasi gleiche Workload x-fach strikt sequenziell wiederholt. Das heißt, dass Latenzen Leistungsnachteile nach sich ziehen ohne dass dabei wirklich Energie gespart wird. Denn man misst die Anzahl der Frames in einer Zeiteinheit im Bench - und jede Latenz die da drin vor kommt, schmälert das Resultat.
Auch warten kostet Energie. Dazu kommt, dass um so niedriger die Last ausfällt, trotzdem quasi das ganze System damit belastet wird. Da geht meines Wissens nach nicht einfach ein Chip aus, wenn die Last zu gering ist. -> die Nachteile beim Verbrauch durch das Interface in der Mitte bleiben also immer in der Rechnung.


Und weiterhin sehe ich bei dem bisschen an Taktdifferenz zwischen Compute und Gaming jetzt auch kein wirkliches Problem? Ich mein, wir reden da über ne Hand voll bis vielleicht 10% in Summe.
Auch hier kann man wieder ne Analogie im CPU Bereich finden -> unterschiedliche Workloads erzeugen unterschiedliche Lasten und damit unterschiedliche Verbräuche und Temperaturen. Am Ende auch unterschiedliche Taktraten. Verglichen mit der Annahme, dass der MCM Interconnect Energiehungrig ist, ergibt das eben auch nen tendenziell stärkeren Taktanstieg bei Workloads, wo der Interconnect weniger stark belastet ist.

Mit OC ansich ist es doch genau so möglich, die XTX um diese Taktdifferenzen zu bereinigen? Nur geht halt dann der Verbrauch durch die Decke für die letzten paar MHz. Sieht man ja schon von XT zu XTX. Für mich sieht das nicht auffällig nach irgendwelchen Hardware Probleme aus. Sondern nach ganz normalem Verhalten bei einem MCM Konstrukt, was durch den Workload halt Energie beim Interconnect aufwenden muss, wo die Konkurrenz das nicht in der Höhe notwendig hat.
 
blackiwid schrieb:
Ich finde die Zusammenfassung von dem Newsartikel und dem Test der Testerin sehr strange, für mich stellt sich das so dar wie wenn hier AMD massiv gesiegt hat, unerwartet. Man zieht nicht nur ungefähr gleich in der Spieleleistung sondern bei Minframes die meines erachtens ja wichtiger sind zieht man an der fast doppelt so teuren Karte vorbei...
Das ist wirklich nicht unerwartet, da die Benchmarks in WQHD sind -> CPU-Limit, vor allem bei der 4090. In solchen Fällen ist dann der Verbrauch deutlich interessanter, da die Karten eben nicht unter Volllast laufen. Und wenn letzteres nicht der Fall ist, fällt RDNA3 deutlich ab. Das sieht man auch in diesem Fall. RDNA3 ist eigentlich nur halbwegs okay, wenn man die GPU auch wirklich die meiste Zeit auslasten kann. Da säuft man zwar immer noch deutlich mehr als eine 4080, aber das ist längst nicht so schlimm wie wenn man Ada und RDNA3 bei Teillast vergleicht.
 
peakyblinder schrieb:
Leider hinterlässt AMD nach wie vor beim Lesen solcher Tests den Eindruck, dass die Grafiktreiber auf Beta Status sind. Das nervt.
Nicht ganz aber so ganz zu Unrecht ist das.
Zu Release sind die AMD weit davon optimiert auf die neue Hardware zu sein, AMD braucht da immer etwas und das bleibt hängen.

Dazu kommt halt dass die AMD Karten in Spielen zu Release gern mal zicken (gibt es bei Nvidia genau so), dann der Verbrauch und natürlich traditionell schlechte Presse zu Release, woran AMD meist selbst schuld ist, entweder mit schlechten Kühldesign und lauten Lüfter oder wie eben bei der 7900 XTX mit unzureichend befüllter Vapor Chamber.
Und das bleibt dann hängen, Nvidia ist einfach im Marketing viel besser, das merkt man.

Kaum ein Reviewer lobt die Treiberoberfläche von AMD, die einfach viel moderner und übersichtlicher ist als die schon seit ewigkeiten gleiche Oberfläche von Nvidia.
 
DevPandi schrieb:
Kommt immer darauf an, wie man die Betrachtung zieht und was man bei Spielen am Ende auch aktivieren möchte.

Ich hätte in meinem Tests auch die Spiele so wählen können, dass die 7900 XTX kein wirkliches Land mehr gesehen hätte gegen die 4090, was aber nicht fair wäre.
Es ging aber auch in die andere Richtung, wenn man RT ausspart die 1-2 Games würde es für AMD noch besser aussehen richtig? Raster scheint AMD dann selbst schneller als 4090 zu sein oder gleich schnell Average und minimal vorne?

DevPandi schrieb:
Ja und Nein, ich weiß worauf du hinaus willst und muss dir zustimmen, dass ich mir da im ersten Moment selbst widerspreche. Gleichzeitig mach ich es aber auch nicht.
Naja es warst nicht nur du, sondern auch die News dazu klang ein bisschen so. Ich glaub mich störte am meisten das du meintest das Nvidia außer für komische Szenarien das bessere Produkt ist, aber ich halte einen reinen Gamer für ein sehr typisches Szenario, dagegen Spricht nur der Stromverbrauch (gut RT aber das floss in dein Speedvergleich ja auch mit ein), und Stromverbrauch ist in meinem Kopf nur Geld... daher ignorierst du Geld nicht wirklich auf beiden Seiten du sagst die AMD ist schlechter weil sie mehr Stromkosten verursacht für Gamer aber ignorierst die Geldersparnis beim Einkauf, das ist in meiner Sicht unfair (oder ein Framing ob absichtlich oder nicht).

DevPandi schrieb:
Bis zum Zeitpunkt, bis man den Preis mit einbezieht, bietet NVIDIA in dieser Generation das rundere Produkt, dass mit weniger Problemen behaftet ist. Alle rationalen Gründe sprechen also für NVIDIA. Erst wenn man den Preispunkt mit hinzu zieht, dreht sich das Bild zu gunsten von AMD und in dem Fall aber auch nur, weil die 4080 vollkommen im Preis daneben liegt.
Nein die 4090 ist ja auch schlecht für Gamer aus Preis/Leistung es ist also nicht nur die 4080, aber klar bei der 4090 kann man sagen für bisschen mehr Leistung in RT und besseren Stromverbrauch zahlt man als Gamer halt nen Premiumaufschlag:)


DevPandi schrieb:
Würde die 4080 für 999 € UVP angeboten werden, würde die Luft für AMD in dieser Generation engwerden.
Ja würde aber selbst dann wäre die 7900xtx schneller für geichen Preis. Interessant wäre wie die Herstellungskosten auf beider Seite sind und Margen, für so nen Theoretischen Vergleich. Ist Nvidia nur absolute Wucherfirma mit gigantischer Marge die Quartalszahlen deuten in die Richtung, oder verkauft AMD unter Herstellungskosten, vermutlich nicht, wer könnte weiter runter gehen bei gleicher Marge?

Aber ich glaube was die 4080 selbst bei dem Preis fuer mich killen wuerde waeren neben dem geringeren Speed die 16GB ram. Ja das reicht heute, aber ist halt die Frage wie lange man ne 1000 Euro Karte benutzen will. Momentan laeuft damit alles ausser man besorgt vielleicht irgendwo andere Texturen oder macht irgendwas extremes, aber Hogwards ein Spiel mit geringem RT braucht heute schon mindestens 16gb um ohne Probleme maximale Settings zu fahren. Wenn der 4080 irgendwann auch der VRAM aus gehen wird, dann zieht AMD auch mit RT an der Vorbei (oder in Benchmarks nicht aber man hat halt wieder Matchtexturen). Klar das sind gute Betriebswirtschaftliche Entscheidungen zumindest fuer die Kunden, das man entschied grosszuegig beim VRAM zu sein, nicht die Ingenieurskunst ob man nen guten Chip designed hat, aber Betriebswirtschaftliche Entscheidungen sind in dieser Generation aus meiner Sicht der entscheidende Unterschied.
DevPandi schrieb:
Die 7900 XTX kann in diesem Fall primär nur bei den 99,9% mithalten und leicht überholen - die 7900 XTX ist ca. 2 % schneller, so etwas kann man in diesem Fall auch als Messungenauigkeit abtun. Ansonsten liegt die 7900 XTX ca. 29 % zurück. Das deckt sich in diesem Fall relativ gut auch mit den Zahlen von Computerbase und anderen Zeitschriften, wobei ich hier RT und Rasterizer gemittelt habe.
Nur halte ich durchschnittswerte fuer weitgehend irrelavant vielleicht ein Bias von mir, aber wenns ruckelt und das Spielerlebnis dadurch drastisch verschlechtert wird sind es die min frames nicht die avg.


DevPandi schrieb:
Dazu kommt, dass sich der Großteil des Artikels damit befasst, was bei der 7900 XTX schiefläuft.
Ja ich hab ja auch erst in den Artikel geschaut der meiner Ansicht nach bisschen versteckt verlinkt ist musste schon auf ein paar links in dem Newsartikel schauen bis ich wusste welcher zu deinem Artikel führt ein "der Artikel" link oder "der Test" wäre besser imho. Weil die Zusammenfassung auch kein positives Wort zur 7900 XTX steht du kommst ja immerhin noch irgendwann auf den Preis zu sprechen, in dem Newsartikel steht aber kein gutes Wort, und nur weil manche schon in Tests wussten das die 7900XTX ja im Raster/gaming fast 1:1 mithalten kann bzw sogar vorbei zieht und im mixed Betrieb ungefaehr gleich zieht, ist das keine Selbstverständlichkeit sondern fuer mich immer noch absurd gutes Preis/Leistung für Gamer (zumindest im Vergleich). Und kratzt auch sehr an der Vorstellung das die 4090 die absolute Wunderkarte ist, fuer Gaming nicht ausser man cherrypickt ausschließlich RT.


DevPandi schrieb:
Du kannst mir natürlich gerne ca. 50 € pro Arbeitstunde zzgl. MwSt. zahlen, dann können wir gerne darübger reden, dass ich auch noch UV-Tests mit einbeziehe.
Das sollte keine Kritik an deinem Artikel oder dir sein, ich wollte nur sagen das dies eben interessant waere bei so nem Vergleich, ich habe auch schon solche pseudorechnungen in Diskussionen aufgestellt, oder Forderungen, aber da gings um Argumentieren, wo jemand nach dem Motto meinte er hat Recht weil ich ihm nicht 50 Studien zitieren kann. Hier hab ich aber gar nicht behauptet das du mit irgendwas unrecht hast, ich fand nur das Fazit das Framing sehr merkwürdig und fast noch schlimmer diese News die die positive Sicht auf die 7900XTX (Preis, Spieleleistung) komplett unerwähnt lässt.

Die UV Werte wären nur interessante Zusatzinformation nichts was deine Aussagen widerlegt, bestenfalls leicht relativiert.

DevPandi schrieb:
Zahlung im Voraus und ich kann dir jetzt schon sagen, dass ich dafür ca. 60 Stunden - also zwei Arbeitswochen - veranschlage, weil ich dann erst mal die stabilen Settings finden muss und dann die ganzen Tests noch mal machen muss und du kannst selbst bei der "geringen" Auswahl an spielen, die ich hatte, schon von 10 - 15 Stunden für die Ermittlung der Werte pro Karte rechnen. Die Aufbereitung in Excel, das Gegenprüfen und Co dauert auch noch mal 4 - 5 Stunden. Und da nehme ich den Text nicht mit rein.
Theoretisch könnte CB das machen, ob die Tests allerdings 3000 Euro wert sind halte ich für Zweifelhaft hab schon für ne Zeitschrift 2 Artikel geschrieben und die Wurde verkauft für Geld und da ist Werbung drin und die haben mir nicht so viel gezahlt.
DevPandi schrieb:
Die 7900 XTX ist im Bereich "Rasterizer" - ebenso wie RDNA2 - durchaus auf Augenhöhe mit Ada. Sobald man RT mit dazunimmt - fällt AMD zurück und ja, man kann nun über RT streiten, gleichzeitig zeigt aber gerade Cyberpunk als auch Portal RTX und andere Spiele, was möglich ist und wie viel stimmungsvoller Spiele sein können mit einem Path Tracer.
Ja das ist aber weitgehend nur fuer die teure 4090 interressant spaetestens der 4070ti geht der VRAM aus und vermutlich wird das auch fuer die 4080 gelten, bzw selbst wenn nicht koennen Preislich vergleichbare Karten von AMD meist auch mit RT fast mit halten die 4070ti muss sich eben mit der 7900XT messen da sie ihr Preis-equivalent ist.
DevPandi schrieb:
AMD ist beim RT ca. 1 - 1,5 Generationen zurück,
Wieder das gilt nur wenn du den Preis igonierst und massiv teurere Nvidia Karten mit denen von AMD vergleichst vergleichst gleich teure sind sie fast auf Augenhöhe.


DevPandi schrieb:
So kann AMD aktuell nur über den Preis punkten.
Der Unterschied ist folgender, als AMD bei CPUs ueber den Preis Punkten musste bei Bulldozer, waren die einfach zu lahm und die Preiseinsparung zu minimal zu Intel das es lohnte, die wenigsten hatten Probleme vielleicht 300 Euro fuer ne Intel i5 oder sowas zu blechen. Daher war es "nur" der Preis. Hier ist es so das selbst 600 Euro fuer die meisten Gamer schon zu viel ist und wenn dann eben das Maximum daher ist es nicht "nur" der Preis. Der Preis wird hier fuer die meisten zum alles entscheidenden Faktor, daher hat AMD mit Bulldozer trotz guten Preisen Marktanteile verloren und hier gewinnt AMD grad Marktanteile zurück. Das "nur" beschreibt hier halt das es "nur" 1 Faktor ist statt >1, aber es beschreibt nicht die Relevanz des Faktors, denn der Preis ist so gut das es fuer viele/die meisten Gamer eben (wenn nicht Fanboyismus / Markentreue das ueberschreibt) der entscheidende Faktor ist.

DevPandi schrieb:
Man kann gespannt sein, was AMD mit RDNA4 bringt und abschreiben sollte man AMD auf keinen Fall, nur weil diese Generation "versemmelt" wurde:
Der Chip wurde vielleicht "versemmelt" wobei auch das nur halb, immerhin hat man eben bei RT auch deutlich aufgeholt, die 6xxx Karten verkaufen sich ja grad wie heisse semmeln obwohl die vom RT her deutlich schlechter sind wie 7xxx, zeigt nochmal wie unwichtig RT für die meisten ist, gerade da alle Karten und 700 weitgehend zu schlecht dafür sind, das es mehr als hier und da nen Gimmick ist, aber "Karten" wegen dem besseren VRAM Ausstattung hat AMD nicht versemmelt.

DevPandi schrieb:
Die Probleme von RDNA 3 liegen nicht in der Architektur, sondern vermutlich im Chipdesign und das ist auf jeden Fall behebbar. Man sollte AMD also auf keinen Fall abschreiben!
Ja am Chipdesign ist noch Luft nach oben, als Architektur/Chipvergleich macht dein Artikel viel Sinn aber als Produktvergleich weniger imho.
Aber das halt schon recht nerdiges Thema, und die meisten interessiert der Schlagabtausch der Produkte mehr wie Theorien über Chipdesign inklusive mir.

Sorry sollte das irgend nen negativen Ton haben ist nicht beabsichtigt, schreib halt direkt was ich denke und finde abgesehen von der News "Zusammenfassung" und der Formulierung im Fazit ja auch alles gut und das was ich kritisiere ich in der Sache aus meiner Sicht nicht als Kritik an deiner Person, danke für den Bericht.
 
fdsonne schrieb:
Was ist denn wenn das einfach nur Natur der Sache bei MCM ist? Es war schon immer so, das große, breite Datenverbindungen Energiehungrig sind. Und beim MCM muss man halt zwei Teile über so ein großes Interface miteinander verbinden.
Es gibt ein paar Gründe, die gegen das MCM als Hauptproblem sprechen und die auf die ROPs hindeuten. Die habe ich auch aufgeführt. Du hast natürlich recht, dass das MCM durchaus auch eine naheliegende Fehlerquelle ist - genauso wie die hohe Packdichte. Für mich wären - bis zu meinem Tests - daher durchaus hier die naheliegendsten Quellen gewesen für ein Problem. Aber es spricht einiges gegen Probleme mit dem MCM, dann schon eher für die Packdichte. Wobei iuch mir das an der Stelle nicht so einfach mache als Antwort.

Fangen wir erst mal an, was gegen deine Vermutung des MCM spricht und was für meine Vermutung die ROP spricht und fangen mit den externen Gerüchten an:

1. (Gerücht) AMD muss Navi31 niedriger Takten lassen und es benötigt mehr Spannung. Das Gerücht spricht erst mal nicht für ein Hardwarebug (also wirklich ein Fehler), sondern eher für eine zu hohe Packdichte.
2. (Gerücht) Es gibt einen Fehler in der Renderpipeline, der zu Artefakten führt bei der Darstellung, deswegen muss mehr Spannung gegeben werden. Auch das spricht erst mal für eine zuhohe Packdichte - Leckströme usw. und deutet noch nicht auf einen Hardwarebug ist.

Nehmen wir nun meine Erkenntnisse hinzu - die aber auch CB und andere schon gemacht haben:

1. In Compute taktet RDNA3 höher. Wir reden hier -Blender ist das Extrem - von gut 15 % (grob jetzt, bitte nicht genau darauf festnageln). Computerbase und andere Stellen ähnliches fest.
2. In Blender benötigt RDNA3 ca. 365 W, in spielen 390 W. - also ca. 6 % weniger Energie.
3. Direct2D/GDI+: Sobald in Programmen für Bildbearbeitung diese Belastet werden, bricht der Takt von RDNA zusammen: 2,2 GHz bei 175 W. Sobald man die Arbeitslast von den ROP vollständig wegnimmt und nur auf die CU geht, steigt der Takt bei 165 W auf 3,0 GHz.

Das sind jetzt erst mal nur Indizien dafür, dass es einen Hardwarebug gibt, es kann auch immer noch sein, dass die Packdichte in dem Bereich zu hoch ist und da etwas beim Chip-Design daher falsch gelaufen ist, es ist aber eben auffällig.

Das ist im übrigen ein Problem, das P-State-Problem ist davon erst mal vollkommen unabhängig, aber auch das P-State-Problem liefert Indizien dafür - ich fasse das erst mal als ganzes Zusammen, ein Punkt spricht auch wieder für die ROP, aber es kommt jetzt mit dazu:

Die Probleme der P-States erkennt man daran, dass der Chip nur sehr schwer bei Spielen unter 1 GHz zu treiben ist und quasi selbst mit einem 18 fps Limit denoch 100 W benötigt. Geht man auf 36 als auch 72 fps, steigt die Leistungsaufnahme kaum an, dafür aber die Effizienz brachial. Daraus lässt sich der 4 Punkt für die ROPs sichtbar machen. Ich konnte die Leistungsaufnahme in dem Fall nur noch Senken, in dem ich die Auflösung veringert habe. Ich hab es mit 1080p gegengeprüft in den Spielen, aber nur um zu wissen, ob mein Verdacht möglich ist, da hab ich keine genauen Zahlen mehr Ermittelt.

Gleichzeitig sehe ich an der Stelle aber auch, dass dein Einwurf mit dem MCM durchaus auch möglich ist - auch hier kann man Arugmente aus meinem "Effizienz-Test" ableiten, nur ist das P-State-Problem noch ein "zusätzliches" Problem. Es kann durchaus sein, dass das MCM entsprechende Auswirkungen hat, gerade was das P-State-Problem angeht und daher die Chips höher gezwungen werden.

Es gibt in dem Fall aber erneut eine Sache, die dagegen spricht und wieder die ROPs in den Mittelpunkt führt: Wenn ich den Monitor mit 1440p mit 165 Hz laufen lasse, erreiche ich 8 W im Idle, mit 144 Hz ebenso. Das hat sich nicht viel gegeben. Die Leistungsaufnahme im Idle steigt bei Navi31 mit der Auflösung und dazu mit der HZ-Zahl und dann dem zweiten Monitor und dreimal darfst du raten, welche Einheiten für die Darstellung des Desktops wieder benötigt werden. ROP.

Natürlich ist das von mir nur ein Verdacht, nur deckt sich dieser Verdacht relativ gut mit den Gerüchten, die über RDNA 3 aktuell kursieren. Das schließt natürlich gewisse Probleme mit dem MCM aber nicht aus.
 
blackiwid schrieb:
und nur weil manche schon in Tests wussten das die 7900XTX ja im Raster/gaming fast 1:1 mithalten kann bzw sogar vorbei zieht und im mixed Betrieb ungefaehr gleich zieht, ist das keine Selbstverständlichkeit sondern fuer mich immer noch absurd gutes Preis/Leistung für Gamer (zumindest im Vergleich)
Das entspricht doch überhaupt nicht der Realität. Aus dem CB Test* der 7900 XTX:

4K Raster AVG: 4090 34% schneller als 7900 XTX
4K Raster 1%: 4090 37% schneller als 7900 XTX
4K RT AVG: 4090 74% schneller als 7900 XTX
4K RT 1%: 4090 77% schneller als 7900 XTX

Klar kann es mit neueren Treibern noch ein paar wenige Prozentpunkte Verschiebung im Spiele-Durchschnitt gegeben haben. Aber hier von einem fast Mithalten oder gar Vorbeiziehen zu sprechen ist sehr merkwürdig.

Der 99,9% Wert von @DevPandi ist nicht aussagekräftig was die Leistung der GPUs zueinander betrifft, da hier in 1440p und mit einem 5800X3D gebencht wurde, der ca. 20% langsamer ist als z. B. ein 7800X3D oder 13900KS. Bei den 0,1% FPS liegt hier einfach ein vollständiges CPU-Limit vor. Letzteres wird auch dadurch bestätigt, dass die Werte beider Karten fast exakt beieinander liegen. Das sagt nur aus, dass man seine CPU aufrüsten sollte, wenn man, in den von DevPandi getesten Spielen, in 1440p, einen Vorteil bei den 0,1% FPS aus der 4090 ziehen möchte und nicht bereits eine der schnellsten CPUs besitzt.

*https://www.computerbase.de/2022-12...nitt_benchmarks_mit_und_ohne_rt_in_3840__2160
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shaboo und Taxxor
Chesterfield schrieb:
verbrauch hin oder her... niemand fragt bei einem Lamborghini am ende nach dem verbrauch wenn er einen gewissen Anspruch befriedigen will. daher ist der verbrauch nur am Rande entscheidungsgrund bei Highend
Ich finde das ist kein sinnvoller Vergleich, denn der Verbrauch ist nicht nur ein Faktor für die Stromrechnung:

Der Verbrauch entscheidet über die notwendige Kühllösung sowie dem möglichen Geräuschpegel, der Verbrauch entscheidet darüber wie ich mein Gehäuse dimensionieren und planen muss Richtung Airflow/Umgebung und der Verbrauch entscheidet auch ob meine bisherige Austattung, also das Netzteil, beibehalten werden kann.

Das alles sind Faktoren die für die ein oder andere Kaufentscheidung sorgen werden, zudem eine 4090 mit nur wenigen Prozentpunkten Leistungsverlust sich bei ~300W Limit sehr gut betreiben lässt und nur selten das auch wirklich ausschöpft.
 
  • Gefällt mir
Reaktionen: shaboo
Chesterfield schrieb:
Frames Pro Euro ( zum teil unter 999€) ist die rx7900xt sicher auf nativer Lösung durchaus echt das Beste für anspruchsvolle Spieler ! Kommt Frame Generator dazu wird die 4090 wiederum interessanter. verbrauch hin oder her... niemand fragt bei einem Lamborghini am ende nach dem verbrauch wenn er einen gewissen Anspruch befriedigen will. daher ist der verbrauch nur am Rande entscheidungsgrund bei Highend

auch wenn die RX7900(xt) er kritikpunkte hat der preis ist super zum gebotenen. wer mehr Geld ausgeben will und kann sollte aber dennoch zur 4090 greifen.
Naja niemand fragt bei einem Lambo nach Verbrauch aber es fragt auch niemand nach Frames pro Euro in der absoluten High end Klasse bei Grafikkarten lol...
 
Die XTX und die rtx4080 sind im Raster gleichschnell.. die 2-3% sind für mich messtoleranz die sich jederzeit mit dem Treiberupdate verändern können.

Der einzige Vorteil den die xtx hat ist der Preis und 8gb mehr Vram..
Bringt halt alles nur nix wenns an der Software massiv hapert
 
blackiwid schrieb:
Es ging aber auch in die andere Richtung, wenn man RT ausspart die 1-2 Games würde es für AMD noch besser aussehen richtig?
Wie gesagt, ich hätte in dem Fall in beide Richtungen gehen können. Für mich war bei dem Test aber eher wichtig, dass ich mit den Spielen teste, die aktuell öfters mal von mir angeworfen werden. Das waren Cyberpunk, Diablo 4, Diablo 2, Final Fantasy 14, Hogwarts Legacy, Jedi Survivor, Total War: WarHammer 3 und Doom: Eternal. Wäre Starfield schon draußen, dann wäre auch das mitgenommen worden.

Und ich muss zu RT dazu schreiben - ich werde das vermutlich mit dem nächsten Leserartikel machen - dass der Mehrwert von RT sehr stark vom Spiel abhängt und RT auch nicht immer glücklich machen kann. Das fällt mir gerade verstärkt auch in Cyberpunk 2077 auf.
blackiwid schrieb:
Raster scheint AMD dann selbst schneller als 4090 zu sein oder gleich schnell Average und minimal vorne?
Ja und Nein, es kommt auf das Spiel an. In diesem Fall zeigt sich eher etwas, was auch wieder CB, aber auch Igorslab und Co fest gestellt haben - und das ist jetzt ein Lob an AMD. Der Treiber von AMD benötigt für seine Arbeit weniger Ressourcen als der von NVIDIA. Es gibt Spiele, in denen die 7900 XTX mit der 4090 mithalten oder sogar leicht überholen kann, weil der NVIDIA-Treiber sich mehr "abzwackt". In so einem Fall läuft das Spiel dann in einem CPU-Limit, was man auch merkt. In so einem Fall ist es dann interessant, wenn man sich die GPU-Auslastung ansieht und dass stellt man dann fest.

Ich kann so schreiben: Der 5800X3D ist in bestimmten Spielen für die GPU eigentlich zulangsam. Hier müsste eher ein 7800X3D oder 13700K/13900K her.
blackiwid schrieb:
Naja es warst nicht nur du, sondern auch die News dazu klang ein bisschen so. Ich glaub mich störte am meisten das du meintest das Nvidia außer für komische Szenarien das bessere Produkt ist, aber ich halte einen reinen Gamer für ein sehr typisches Szenario, dagegen Spricht nur der Stromverbrauch
Ich bin an der Stelle ehrlich: Aktuell sind die NVIDIA-Karten in den meisten Szenarien das bessere Produkt. Egal ob du jetzt arbeitest oder spielst. AMD ist eine Alternative, gerade durch den Preispunkt. RDNA3 hat bestimmte Schwächen, denen man sich bewusstsein muss. Wenn einen diese Punkte nicht stören, kann man zu dieser Karte greifen und auch die 20 GB und 24 GB sind ein entsprechendes Argument.

Aber AMD kann in dieser Generation nur an zwei Stellen für sich einen Sieg verbuchen: VRAM und Preis. An allen anderen relevantne Stellen verbucht - stand jetzt - NVIDIA für sich die Punkte und Ada ist die runderere Generation.

Bei RDNA2 konnte AMD mit der bessere Effizienz in Rasterizer für sich punkten. Dazu kam, dass man in Rasterizer, je nach Spieleauswahl auch schneller als die 3090 war, gerade auch in 1080p und 1440p, während Ampere erst mit 2160p am Ende die Schlagkraft umsetzen konnte.

Dieses mal reicht es nicht, wei AD102 ein Monsterchip ist. Dazu kommt eben ein vermuteter Fehler in der Hardware. Könnte RDNA3 so takten, wie es vermutet wird, dann wäre AMD dichter dran und in der effizienz vermutlich gleich auf, aber das passt dieses mal nicht.

blackiwid schrieb:
und Stromverbrauch ist in meinem Kopf nur Geld... daher ignorierst du Geld nicht wirklich auf beiden Seiten du sagst die AMD ist schlechter weil sie mehr Stromkosten verursacht für Gamer aber ignorierst die Geldersparnis beim Einkauf, das ist in meiner Sicht unfair (oder ein Framing ob absichtlich oder nicht).
Für mich ist der Energiebedarf nicht mit Geld gleichzusetzen. Klar, kann man den kWh Preis auch nehmen, am Ende ist das aber bei solchen Rechnungen zu abhängig vom eigenen Einsatzszenario.

In den entscheidendne Teillast-Szenarien bei mir nimmt sich AMD und NVIDIA auch nicht wirklich etwas. Wirklich auffällig wird es erst, wenn man FF XIV und WoW mit einbezieht als Schwachlast-3D. Da kann NVIDIA richtig punkten. Auf die Unterschiede bin ich aber nicht weiter eingegangen.

Die 600 € wird die 4090 in ihrer Lebenszeit NIEMALs einspielen können. Daher ist das auch irrelevant. Die Effizienz ist an andere Stelle wesentlich interessanter, nämlich bei mir die Arbeitszeit mit KI-Modellen und Co.
blackiwid schrieb:
Nur halte ich durchschnittswerte fuer weitgehend irrelavant vielleicht ein Bias von mir, aber wenns ruckelt und das Spielerlebnis dadurch drastisch verschlechtert wird sind es die min frames nicht die avg.
Auch da kommt es eben auf das Spiel an. Ich hab Spiele gehabt, die mit der RTX 4090 "bessere" 99.9% hatten, während die 7900 XTX so manche ihrer Probleme hatte und umgekehrt.

Interessanter ist es da aher, wie bestimmte Spiele mit einer Karte umgehen und was da im argen liegt. Man merkt dabei erneut, dass hier der Treiber von NVIDIA mehr "Ressourcen" benötigt als der AMD-Treiber und daher entsprechend die 99,9% etwas schlechter ausfallen, als bei AMD. In anderen Spielen ist die 4090 dann in den Min FPS aber auch wieder voraus.
blackiwid schrieb:
Und kratzt auch sehr an der Vorstellung das die 4090 die absolute Wunderkarte ist, fuer Gaming nicht ausser man cherrypickt ausschließlich RT.
Die RTX 4090 ist keine Wunderkarte, sondern ein massiv überzüchteter Chip - 144 SM - der zeigt, was möglich ist. Die 4090 nutzt ihre TDP nicht wirklich aus und benötigt auch eine entsprechende CPU. Die 5800X3D würde ich als absolutes Minimum für die 4090 ansehen.

Wir werden die volle Leistungsfähigkeit der RTX 4090 vermutlich erst in den nächsten Jahren erleben, bisdahin? Wird man abwarten müssen.
blackiwid schrieb:
Theoretisch könnte CB das machen, ob die Tests allerdings 3000 Euro wert sind halte ich für Zweifelhaft hab schon für ne Zeitschrift 2 Artikel geschrieben und die Wurde verkauft für Geld und da ist Werbung drin und die haben mir nicht so viel gezahlt.
Ich lasse mich bei sowas auch nicht unter Wert bezahlen. Vor allem bei der Arbeit. ;) Und hier ist die Hauptarbeit das Testen und Co, nicht der eigentliche Artikel.

MoinWoll schrieb:
Das entspricht doch überhaupt nicht der Realität. Aus dem CB Test* der 7900 XTX:
Natürlich entspricht das, was ich gemessen habe, der Realität, sonst hätte ich das ja nicht messen können. Und die Kombo 5800X3D und RTX 4090 ist jetzt auch nicht "so" selten, wenn man sich einige Signaturen ansieht.

Es gilt aber halt, dass der 5800X3D für die RTX 4090 quasi das Minimum an CPU darstellt, drunter sollte man echt nicht gehen.

Aber ja, ein 7800X3D oder 7950X3D sowie 13700K oder 13900K würde hier das Bild noch mal verschieben. Gleichzeitig ist es aber durchaus interessant, dass in einem CPU-Limit der Treiber von AMD besser aggiert. ;)
MoinWoll schrieb:
Hier liegt einfach ein vollständiges CPU Limit vor, was auch dadurch bestätigt wird, dass die Werte beider Karten fast exakt beieinander liegen.
Bei der 4090 ist es ein absolutes CPU-Limit. In den Spielen, in den die RTX 4090 langsamer ist als die 7900 XTX im 99.9 %, ist auch die GPU-Auslastung relativ gering. Hier liegt das Problem aber nur zum Teil in der CPU, sondern ist auch bei NVIDIA beim Treiber zu suchen, der wesentlich eher eine CPU fordert. Der AMD-Treiber ist effizienter.
 
peakyblinder schrieb:
Leider hinterlässt AMD nach wie vor beim Lesen solcher Tests den Eindruck, dass die Grafiktreiber auf Beta Status sind. Und FSR wirkt auch nie richtig fertig - Vielleicht ist hier aber echt eher Marketing das Problem.
Viel bringen hier aber auch glaub die Entwickler der Spiele mit. Mein Main-Game ist Overwatch 2, es unterstützt FSR 1.0 und FSR 2.2. Ich nutze FSR 1.0 und das funktioniert wirklich super in dem Spiel, aber FSR 2.2 macht seit der Implementierung, vor vielen Monaten, genau garnichts. Es reduziert sogar die Leistung auf allen System bei unglaublich mieser Optik im Vergleich zur nativen Einstellung. Das ganze haben wir auf GTX 1080, RX 6800XT und RTX 4090 probiert.
Wenn sowas natürlich selbst bei einem „kleinen“ Publisher wie Activision/Blizzard nicht richtig implementiert wird, wirft das ein unglaublich schlechtes Licht auf die ganze Technologie dahinter.
 
  • Gefällt mir
Reaktionen: peakyblinder
Zurück
Oben