Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Sehr gut. AMD kommt mit satter und völlig ausreichender Leistung über den Preis. Für Nutzer ist das alle Mal besser, als wenn sie mit reiner Leistung gleichauf wären und damit alle Käufer Mondpreise zahlen müssten.

Die Treiber werden an der Effizienz noch einiges richten. Am Ende bleibt AMD die Wahl für Vernünftige. Enthusiasten greifen zu grün.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oppagolf
Wie kann man bei dem Killerfeature Raytracing nur so verkacken? Da degradiert ja bereits die 4080 AMD völlig.
 
  • Gefällt mir
Reaktionen: CrustiCroc
Gerithos schrieb:
Die gpu wird auf eine völlig neue Weise produziert und liefert dafür ne runde Performance ab.
Also die Performance ist alles andere als "rund", wenn man bedenkt, dass sich der IPC Gewinn im Bereich von
+23% bis -5% bewegt ne nach Spiel und wie gut die stark umgebauten neuen CUs ausgelastet werden können.

Das führt dann auch dazu, dass die Karten quasi Wundertüten sind, von dem Average aus den ganzen Spielen bzw später aus der Meta-Analyse kann man eigentlich keine Kaufentscheidung ableiten, da einfach viele Spiele mit 50%+ skalieren, aber mindestens genau so viele nur mit 20-30%.
Das nenne ich ziemlich unrunde Performance.

Wenn es bei Average +35% zur 6950XT nun mal 30% und mal 40% sind, dann ist das ja noch okay.

Die 7900XTX ist aber je nach Spiel alleine hier im Test oft nur 19-28% schneller(Tiny Tina, Shadow Warrior, Guardians of the Galaxy, Ghostwire Tokyo, F1 2022) und fast genau so oft dann widerum 45-55% schneller(CoD, Spiderman, God of War, Cyberpunk)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh und Zer0Strat
DeltaPee schrieb:
Hatte NVidia bei den 30xx nicht ein ähnliches Problem, das hat glaub auch Monate gebraucht bis das gefixt wurde…

https://www.hardwareluxx.de/communi...080-ftw3-multimonitor-idle-verbrauch.1309131/
Igors Lab. So ein richtiger Nerd-Youtuber meint es sei einfach nur ein Treiberbug, weil der Stromverbrauch immer zwischen 20 und 58W schwankt. Anscheinend taktet sie nicht richtig runter. Ich hoffe der hat Recht.

Hier, falls es interessiert
Ich denke wenn der Stromverbrauch optimiert wird, und der Preis unter 900€ fällt, dann ist die 7900XT spannend.
Bei Raytracing ist spannend, dass RDNA3 ziemlich mit Ada bei nur Far Cry auf Augenhöhe ist. Anscheinend geht es doch. Ich denke bei viele RT Games hat Nvidia ihre FInger im Spiel. Ist doch auch verdächtig, dass die meisten Entwickler für das geschlossene DLSS entwickeln, statt für das offene FSR welches auf jeder kack Grafikkarte Onboard Karte läuft.
Auch bei den Videos, die zeigen wie cool Raytracing ist, ist da imme schön ein NVidia Logo.
 
  • Gefällt mir
Reaktionen: Dittsche
Mr_Cenk schrieb:
Welche hast du dir jetzt geholt?
Nur ne 6800 nitro, kein "guter" Kauf, aber trotzdem zufrieden, aber schon im September als Geburtstagsgeschenk für meine Frau. Mir reicht ihre alte 580 noch ne Weile.
Warten wollten wir nimmer, schon 2 Jahre aufgeschoben gewesen der Kauf.
Und um ehrlich zu sein, die 300€ scheinen es zwar Wert zu sein, aber gleichzeitig auch nicht. RT ist noch recht uninteressant und für das was wir spielen ist selbst die 6800 overkill. 6900 mit UV wäre aber sicher trotzdem schöner gewesen, die war hier bei unseren favorisierten Läden damals nicht so stark im Preis gefallen und irgendwo zieht man auch Grenzen, aber eine neue Karte die mal wieder ein paar Generation überspringen kann war halt schon überfällig.
Mal schauen was die 7000er Karten sonst so bringen, vielleicht haben schaffen sie es ja Preis/Performance im unteren Bereich noch weiter zu verbessern mit einem mini GCD.
 
Matthias80 schrieb:
Seit wann kann man die für bare Münze nehmen?
Seit sie bei Zen1-3 und RDNA1-2 auch bis auf 3-4% Unterschied mit den finalen Reviews übereinstimmten.

Wenn also in der Präsentation 50-70% gezeigt werden, dann kann man mit Blick auf die vorherigen Präsentationen mal mindestens von +45% ausgehen.

So eine große Diskrepanz zwischen Präsentation und Review hat es bei AMD ewig nicht gegeben.
 
  • Gefällt mir
Reaktionen: Piep00, Colindo, Veitograf und 2 andere
DeltaPee schrieb:
Eben nicht, die 4080 liegt wie Blei in den Regalen. Die erste Anpassung bei der UVP gab es schon. Ich denke die Leute die bereit dind 1000+ auszugeben haben sie längst abgeschöpft ->4090
Ein wichtiger Indikator ist die FE. Die ist seit Tagen locker zu kaufen, will nur keiner. Das will schon was heißen. Nvidia müsste mindestens 300 Euro mit dem Preis runter, dann gäbe es für die AMD kein Argument mehr. Das wird man aber vermutlich nicht tun. Eher wird man die Produktion runterfahren und die 4070 günstiger vertickern. Ansonsten müsste man sich ja öffentlich eingestehen, dass man sich verkalkuliert hat.

Ich vermisse die alten Preiskämpfe von damals, wo sich schon nach kurzer Zeit der Markt selbst reguliert hat. Jetzt versuchen die Hersteller mit allen Mitteln die Preise künstlich oben zu halten, komme was wolle.
 
  • Gefällt mir
Reaktionen: simosh und Feuerbiber
crustenscharbap schrieb:
Igors Lab. So ein richtiger Nerd-Youtuber meint es sei einfach nur ein Treiberbug, weil der Stromverbrauch immer zwischen 20 und 58W schwankt. Anscheinend taktet sie nicht richtig runter. Ich hoffe der hat Recht.
Zu dumm kümmert mich das als Konsument wenig, was mal sein wird. Ich bezahle nicht für Hoffnung, sondern für Leistung, trotz aller Sympathien AMD gegenüber.
 
  • Gefällt mir
Reaktionen: simosh und Rambo5018
Naja wenn der Shader Compiler und der Grafikkarten Treiber so eine große Rolle spielt um das Potenzial bei den Karten voll auszuschöpfen trau ich den Braten nicht.


Was ich bei AMD gelernt hab ist, das sie Treiber nicht gut wie NVIDIA können.

Da nutzt mir die massive Rohleistung auch wieder nicht.

Spiegelt sich ja in der Performance von den Games wieder.

Da wo AMD fleißig Hand anlegt und Treiber optimiert da läufts rund.
In anderen Titeln wieder nicht so ganz..

Käse.

Nvidia ist bei Game Ready treibern überlegen
Bei raytracing + DLSS
und auch bei performance pro Watt

Amd kommt halt nicht an die Premium Qualität von Nvidia heran und dafür 1k+ aufzurufen ist immer noch etwas zu viel meiner Meinung nach.

~899€ und ~849€ Wär doch mal was gewesen aber naja
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CrustiCroc und Sappen
Ich weiss gar nicht wie man überhaupt über einen Kauf nachdenken kann, bei 100w Idle Verbrauch - in 4K und 144hz.
Das ist fast doppelt so viel, wie mein ganzer Rechner mit i9 12900k und RTX 3090.
 
  • Gefällt mir
Reaktionen: Uncreative, Mr_Cenk, coral81 und eine weitere Person
In den einzelnen Spielen zeigt sich ein unglaubliches Auf und Ab bei AMDs RDNA 3 gegenüber dem Vorgänger RDNA 2
Da kann ich mir gut vorstellen das es durch das neue Chiplet Design wieder Probleme mit dem Treiber gibt. Kenne ja das schon vom Vorgänger. Bei meiner 6800 lief zum Beispiel Destiny 2 überhaupt nicht gut Anfangs. Sowie eben das ein oder andere Spiel auch Probleme hatte mit AMD GPU´s. Weder CPU noch GPU wurde dabei voll ausgelastet.

Dauerte eine ganze Zeit lang (Monate) bis AMD die Bremse gefunden hatte und dann lief das Ganze aber auf einmal richtig gut. Gab dann auf einmal auch drastische Performancesteigerungen von Treiber zu Treiber.

Bin gespannt ob es hier auch wieder so sein wird dieses Treibergespacke. Ohnehin werde ich mir das erstmal nicht antun und keine Karte kaufen, zudem sind sie mir fürs Gebotene auch zu teuer...
 
Zuletzt bearbeitet:
mospider schrieb:
Ich weiss gar nicht wie man überhaupt über einen Kauf nachdenken kann, bei 100w Idle Verbrauch - in 4K und 144hz.
Das ist fast doppelt so viel, wie mein ganzer Rechner mit i9 12900k und RTX 3090.
So siehts aus. Leider.
 
  • Gefällt mir
Reaktionen: simosh und Mr_Cenk
DeltaPee schrieb:
Eben nicht, die 4080 liegt wie Blei in den Regalen
Ein paar dürften allerdings auch die heutigen Tests abgewartet haben.... Für Nvidia sind die Testergebnisse jetzt jedenfalls verkaufsfördernd und die Karten sind im Gegensatz zu dem was man von AMD erwartet direkt lieferbar.
 
  • Gefällt mir
Reaktionen: Ragnarök88, Mr_Cenk und Convert
cbmik schrieb:
Ich hasse Controllersteuerung (außer bei Jump&Runs u. Beat'em ups), sonst wäre ich schon bei einer XBox Series X.

Falls in der Zukunft die Hölle zufriert und Steam auf Konsole läuft + volle Keyboard/Maus Unterstützung => bye, bye PC Gaming, hallo Konsole.

Verstehe ich nicht ganz, was Du Dir da erhoffst? Ein small form factor PC mit (gebrauchter) RTX 2070 oder RX 5700XT oder neuer RX 6600 für €285, da 5700XT nicht mehr lieferbar, sowie durchschnittlicher CPU wie ein 2700X für €169 = fertig ist die Steam-Konsole.
Das kannst Du doch jetzt schon längst haben und nicht erst, wenn die Hölle zufriert :) .

Ja, das wird mit Billigplatine, Billig-RAM, Billig-SSD, Billig-Gehäuse ~€200 bis €300 teurer als die €499 Xbox Konsole (PS5 ist ja immer noch nicht "normal" verfügbar), aber andererseits kannst Du Maus & Tastatur weiter verwenden und musst keine teuren Controller oder ggf. noch Adapter usw. kaufen.
Die Spiele für PC sind (meistens) günstiger und Du brauchst auch für Basis-Online-Funktionen kein Online-Abo (Xbox Live Gold o.ä.) abschließen. Die etwas höheren Anschaffungskosten für eine "Steam-Konsole" hat man also schnell wieder drin.
 
  • Gefällt mir
Reaktionen: simosh und coral81
crustenscharbap schrieb:
Das kannst du knicken, die RTX4090 ist mit 6-7W ja so im IDLE angegeben was ja auch stimmt und mit 2 Monitore liegst du bei 12-14W in der Praxis.Ne 3090 lag bei 30W rum.
Wenn man dann normal rumsurft und auch arbeitet geht sie im UV(2550Mhz@0,88V) auf 25-26W hoch, ne 3090 ist da schon weit über 100W und das wesentlich öfters.

Ich denke mal da werden die kaum was fixen können, kam beid der RTX3090 ja auch nix.Ich fand das auch echt blöd das die durch den Multimonitor betrieb so oft hochgetaktet hat und ewig viel verbrauch dann hatte.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: voalirus
Taxxor schrieb:
ähnlich wie die 2-4x Angabe von Nvidia bei der 4090 zu +65% geworden ist
Das wurde nach wie vor nur im Zusammenhang mit DLSS 3/Frame Generation so kommuniziert.
 
Pisaro schrieb:
Er hat damit angefangen zu versuchen mit Cherry Picking Vergleiche zu setzen in dem er einen älteren overall Benchmark gegen einen neueren Call of Duty Benchmark gesetzt hat
Hier noch die Tabellen von 1440p:

Markdown (GitHub flavored):
| Title                           | Release Date |  fps diff | 99th Percentile |
|---------------------------------+--------------+-----------+-----------------|
| Assassin's Creed Origins        | 10/2017      |         3 |             -72 |
| Call of Duty: wwii              | 11/2017      |        17 |              12 |
| Destiny 2                       | 10/2017      |         2 |               3 |
| Elex                            | 10/2017      |        23 |              25 |
| Ghost Recon Windlands           | 3/2017       |         5 |               1 |
| Hellblade Senua's Sacrifice     | 10/2017      |         3 |               1 |
| Mittelerde Schatten des Krieges | 10/2017      |        17 |              23 |
| Star Wars: Battlefront 2        | 11/2017      |        23 |              17 |
| Wolfenstein 2                   | 10/2017      |        18 |              19 |
|---------------------------------+--------------+-----------+-----------------|
|                                 |              | 12.333333 |       3.2222222 |


| Title                     | Release Date |  fps diff | 99th Percentile |
|---------------------------+--------------+-----------+-----------------|
| F1 2018                   | 10/2018      |        11 |              12 |
| Far Cry 5                 | 3/2018       |         0 |              28 |
| Jurrassic World           | 6/2018       |        11 |              11 |
| Kingdom Come: Deliverance | 2/2018       |        19 |              18 |
| Monster Hunter World      | 10/2018      |        24 |              25 |
| Shadow of the Tomb Raider | 9/2018       |        18 |              20 |
|---------------------------+--------------+-----------+-----------------|
|                           |              | 13.833333 |              19 |

Wie du sehen kannst sind die 99th Percentile von 3% bei 2017 Spiele auf 19% angewachsen, das ist schon ein beachtlicher Unterschied und zeigt wie neuere Spiele mehr Ram brauchen zumindest an den Spielen, die nicht gecherrypickt sind aber vielleicht sind das 15 Spiele die zufällig das zeigen was ich zeigen wollte. (die 30% oder 20% fps waren bisschen sportlich aber bei den 99th Percentile sind wir fast bei den 20%)
 
  • Gefällt mir
Reaktionen: scheru
Bei den Grundlagen und Abseits des Gamings brachial. Allerdings bleibt der Windows Vista Vibe. Freue mich jetzt richtig auf die nächste Gen (8900). 6950XT gabs kurz für €800 und genau da hab ich vor 2~ Monaten auch zugeschlagen. Der Test beruhigt meine Kaufentscheidung ^^.

Idle Verbrauch ist immer so ein Ding, ich nehm da wegen Lüftern, Festplatten pipapo immer nur den GPU/CPU Wert der bei guten 20/40W liegt. Das kann nur ein Bug sein hoffentlich.
 
  • Gefällt mir
Reaktionen: Kuestennebel79
Shinigami1 schrieb:
Das wurde nach wie vor nur im Zusammenhang mit DLSS 3/Frame Generation so kommuniziert.
Und nach wie vor findet sich kein Hinweis darüber auf der Folie, die die größte Prominenz hat
Screenshot 2022-12-12 224644.jpg


Das suggeriert, selbst wenn man man über DLSS3 FG bescheid weiß:
2x in Spielen ohne Frame Generation und 4x mit Frame Generation(logisch weil FG das ganze ja dealerweise verdopplet)
 
  • Gefällt mir
Reaktionen: Ragnarök88 und Shinigami1
Zurück
Oben