News OC auf 3,4 GHz: Radeon RX 7900 XTX jagt mit 700 Watt die RTX 4090

Per se eine gute Nachricht für die AMD 8000er Gen, wenn man das mit dem Verbrauch in den Griff bekommt.
 
GERmaximus schrieb:
Es sind 600-700€ Unterschied zwischen der 7900xtx und der 4090.
Dass eine 7900 XTX mit annähernd 4090 Rasterleistung den gleichen Preis wie jetzt hätte, kannst du aber nicht wissen. Ich bezweifle es. Vielleicht wären es dann noch 300-400 € und ja: wenn RT nicht die Rolle spielt, könnte man drüber nachdenken. Ich würde trotzdem die 4090 nehmen. 700 W wegzukühlen ist auch für eine Wasserkühlung mit Mo-Ra 420 im Sommer kein Spaß und bei 50°C Wassertemp ist zumindest für die Pumpe laut AC Feierabend. Klar, kann ich mir noch ein Klimagerät danebenstellen, dann werden aus den 400 W eben 2400 W. :D
 
Shinigami1 schrieb:
700W? Bei einer 4090 ist diese Leistung und noch mehr mit ca. 350W möglich. Da muss AMD noch einiges verfeinern wenn sie in der Liga mitspielen wollen.
Ja amd braucht das nicht die Liga der psychogamer haha
Ergänzung ()

Chilisidian schrieb:
Naja die 4090 ist auch bei 300W schon spitze. Ein bisschen UV macht die Karte doch erst richtig interessant. 250W im Schnitt bei 90% Leistung.
Jo statt Strom frisst sie halt Geld haha
 
rg88 schrieb:
Selbst WENN man die 4090 geschlagen hätte: Nvidia darf perverse Verbräuche haben für das Spitzenmodell, AMD nicht. Die würden in der Luft zerrissen werden und damit lediglich den Ruf versauen. Um das durchziehen zu können, braucht man sehr harte Fanboys und das in Masse.

Bist du im gleichen Forum wie ich unterwegs? o.O Also hier bei CB ist es eigentlich eher genau anders herum: Bei Nvidia wird jede Chance genutzt um drauf zu prügeln, während AMD immer Sonderschutzstatus genießt.
Ergänzung ()

fox40phil schrieb:
Kann man die "Chiller" Flüssigkeit auch so in seiner Wakü nutzen und davon profitieren :D?

Ein "Chiller" ist ein Gerät und keine Flüssigkeit: https://de.wikipedia.org/wiki/Kaltwassersatz
 
  • Gefällt mir
Reaktionen: fox40phil
Die Redakteure und Moderatoren müssen wohl alle AMD User sein... Anders kann ich mir nicht erklären warum so viele Kommentare verschoben werden. Sogar solche die mit Fakten untermauert sind. Wahrscheinlich sinds die Emojis welche so Triggern. Naja aber wie dem auch sei - man fährt mit ner aktuellen Nvidia GPU in jeder Hinsicht besser! Effizienz, Performance und Features! Selbst die Preise nähern sich an.
 
Vielleicht werden nur Posts verschoben von Leuten, die den Artikel offensichtlich nicht gelesen haben. Was im Artikel nicht drinsteht:
  • Die 7900XTX ist durch das Übertakten schneller geworden als eine 4090
  • Die Karte ist durch das Übertakten effizienter geworden
  • Das Übertakten ist ein Kaufargument für die 7900XTX
  • Die 700W-Config ist alltagstauglich, empfehlenswert und spiegelt generelle Marktentwicklungen wider

Trotzdem machen sich so einige über die Extrem-OC-Config lustig, weil das Teil immer noch lahmer als ihre 4090 ist und weil ihre 4090 in RT die gleiche Leistung bei 300W schafft und generell AMD ineffizienter ist und dass sie diesen Trend zu mehr Stromverbrauch nicht gut finden. Das hat nur leider mit dem Artikel nichts zu tun. Dort steht sogar drin, dass dies eine Machbarkeitsstudie ist und dass dieses Ergebnis Fragen aufwirft bezüglich der Ausrichtung von N31, warum sie mit so viel OC-Headroom ausgeliefert wurde und warum AMD die Rechenpipeline so lang gemacht hat (=IPC geopfert), wenn sie den Takt eh nicht ausnutzen (können).
 
  • Gefällt mir
Reaktionen: Obvision, Jackson2Face, Midgarder und 8 andere
rico007 schrieb:
Aber was kostet eine 4090 im Vergleich zur XTX? Wenn ich die Sapphire Nitro + gegen eine MSI Suprim X stelle, liegen fast 1000€ zwischen bei den Top Modellen (ich sehe die Suprim X als beste 4090). Dafür leistet die 4090 im Vergleich zu wenig
Das ist aber auch nicht gerade der ideale Vergleich um eine Preisdifferenz zu nennen. Bei einer MSI Gaming Trio liegt der Unterschied dann "nur" bei (1800€ - 1150€ =) 650€ und eben nicht bei "fast 1000€". 650€ sind es übrigens auch, wenn man einfach die beiden billigsten vergleicht. Generisch gesprochen kostet "eine 4090 im Vergleich zur XTX" also 650€ mehr (das kann natürlich im Einzelfall anders aussehen).
30% (RT off) bis 70% (RT on) mehr FPS für circa 50% Aufpreis und dazu noch ein paar zusätzliche Features und das bei geringerem Verbrauch... klingt schon nach einem relativ runden Gesamtpaket.

TenDance schrieb:
Wenn man ein Cluster deaktiviert beim GP102, hat man eine 1080Ti. Die hatte einen release-Preis von 699$.
Der AD104 hat eine UVP von 799$.
Das hat nichts mit Inflation zu tun.
Wieso bitte hat das nichts mit Inflation zu tun? Laut Inflationsrechner entsprechen 699$ im August 2016 im Januar 2023 868$. Und die zusätzlichen Features die eine 40x0 im Vergelich zur 10x0 lässt man sich natürlich auch bezahlen.
 
  • Gefällt mir
Reaktionen: Rockstar85
In jedem Fall erfreuliche Nachrichten, dass aktuelle High-End Grafikkarten, wie die RX 7900XTX und die RTX 4080, anderenorts schon im Preis merklich sinken, und ja insgesamt liegt bei den Preisen AMD/RTG deutlich tiefer als nVidia, welches wohl auch ein Grund fuer die schleppenden Verkaufszahlen bei nVidia sein duerfte.

Allerdings gibt es schon erste Geruechte zu den RTX 5000er Karten, die wieder mit neuer (neuronal-vernetzter schaerfender) Technik daher kommen soll, die dann vermutlich exklusiv fuer die RTX 5000er Serie waere (also so wie DLSS3 bei der aktuellen RTX 4000er Serie und erst zukuenftigen Serien), auch wenn aeltere dGPUs von nVidia das wohl auch koennen duerften (vermutlich wird man das aber mit dem Argument dafuer noetiger neuer Tensorkernen beschwichtigen).

Das ist dann wohl die neue Strategie bei nVidia, um Leute regelmaessig alle 2 Jahre zum dGPU-aufruesten zu deren hohen Preisen bewegen will (portioenchenweise neue Features, die man dann per Game-Sponsoring ggf. bei den Entwicklern im nachhinein/nach Martkstart puscht) und sicherlich wird diese Masche bei vielen Early Adoptern und Markenfans ziehen.

Ob die RTX 5000er Karten wieder vorbildlich effizient ausfallen werden oder die Anforderungen an PC Systeme (Netzteile etwa) steigen werden, wird man abwarten muessen.

Bei RDNA4 gehe ich bei AMD/RTG wieder von eine spuerbaren Effizienzsteigerung aus, wobei solche (Extrem-OC-)Machbarkeitsstudien, wie die im Artikel erwaehnte, sicherlich immer interessant sind.
 
JohnWickzer schrieb:
Naja aber wie dem auch sei - man fährt mit ner aktuellen Nvidia GPU in jeder Hinsicht besser!
Nope. Kommt auf den used case an für mich passt die XTX einfach besser als die 4080. Unglaublich aber wahr.
 
  • Gefällt mir
Reaktionen: Zenx_, Opteron185, Rockstar85 und 2 andere
Nein, nicht unglaublich.
War bei mir ein Kopf an Kopf Rennen und wenn ich nur zocken würde hätte ich mir ebenfalls die XTX gekauft.
Der hohe Stromverbrauch bei Youtube und Konsorten hat die XTX bei mir ins aus gekegelt.
Auf ein eventuelles Treiberupdate daß das Problem möglicherweise löst wollte ich mich nicht verlassen.
 
GERmaximus schrieb:
Zum Glück ist die so nicht gekommen, sonst hätte ich mich zwischen einer 4090 und xtx7900 schwer getan.
Wieso täte man sich da schwer? Die 4090 frisst bei der Leistung nur den halben Strom - und wird entsprechend weniger heiß und laut.
 
cookie_dent schrieb:
Der hohe Stromverbrauch bei Youtube und Konsorten hat die XTX bei mir ins aus gekegelt.
Wie lange am Tag schaust du denn Youtube oder Konsorten, dass das in irgendeiner Weise die Stromrechnung tangiert? Die 50W Unterschied zur 4080FE führen bei 4h solcher Nutzung am Tag zu einem Unterschied von 30€ im Jahr. Beim Spielen mit Framelimiter sparst du dagegen gerne mal 200W mit der 40x0FE im Gegensatz zur 7900XTX, die "nur" 100-150W spart. Das wäre für mich wirklich ein Kriterium in diese Richtung.
 
Boimler schrieb:
Wie lange am Tag schaust du denn Youtube oder Konsorten, dass das in irgendeiner Weise die Stromrechnung tangiert? Die 50W Unterschied zur 4080FE führen bei 4h solcher Nutzung am Tag zu einem Unterschied von 30€ im Jahr.
Sind mehr als 4 Stunden am Tag, ist ein Dual Monitor System. Der 2. Monitor ist für mich Fernsehersatz, auf einem Monitor arbeiten, surfen etc. auf dem 2. läuft Youtube oder Streaminggedöns.
Boimler schrieb:
Beim Spielen mit Framelimiter sparst du dagegen gerne mal 200W mit der 40x0FE im Gegensatz zur 7900XTX, die "nur" 100-150W spart. Das wäre für mich wirklich ein Kriterium in diese Richtung.
Das kommt für mich on Top, ich zocke nur mit UV und Framelimit. Allerdings spiele ich in letzter Zeit recht wenig.
 
  • Gefällt mir
Reaktionen: Boimler
Boimler schrieb:
Wie lange am Tag schaust du denn Youtube oder Konsorten, dass das in irgendeiner Weise die Stromrechnung tangiert?
autsch... Du zahlst deine Rechnungen nicht selbst oder?
Eine Stromflatrate im Studentenwohnheim gilt übrigens nicht als "selbst zahlen"
 
  • Gefällt mir
Reaktionen: Midgarder
Ich fand den Stromverbrauch vom Rechner schon immer recht nebensächlich. Wem die paar Euro im Jahr stören der hat wohl noch ganz andere Sorgen.

Was für mich viel wichtiger ist wäre die Hitzeentwicklung des Systems. Daher bin ich gerade auch sehr am Hadern mir nicht die 4090 zu kaufen und auf 300Watt zu fixieren als die 7900XTX. Auch wenn ich dem Drecksladen keinen cent gönne. Eine extra Klimaanlage wäre die Alternative aber das wäre mir jetzt doch etwas zuviel des guten.


Btt: Ich denke man sieht gut das AMD wohl etwas anderes mit den karten vorhatte. Ich hoffe wirklich sehr das sie mit der nächsten Gen. oder Refresh da sind wo sie mit den CPUs sind. Top Leistung zu absolut vernünftiger Leistungsaufname.

Wenn die 7950XTX 15% schneller wird und dabei aber auch 15% weniger verbraucht wäre ich schon wieder an Board.
 
  • Gefällt mir
Reaktionen: Grundgütiger und Rockstar85
Sunjy Kamikaze schrieb:
Was für mich viel wichtiger ist wäre die Hitzeentwicklung des Systems.
Ähm... die ist einfach direkt gekoppelt an den Verbrauch. Insofern kann ich nicht nachvollziehen, wie du zu so einer Aussage kommst

Sunjy Kamikaze schrieb:
Ich fand den Stromverbrauch vom Rechner schon immer recht nebensächlich.
 
  • Gefällt mir
Reaktionen: Vindoriel
CiX schrieb:
Warum? Warum Das produkt kaufen, das bei gleicher Leistung Hunderte mehr Watt zieht?
Wenn ich da 650€ Preis unterscheid habe, sind mir auch 150W mehr egal. Man darf nicht vergessen, dass die 4090 für 600W spezifiziert war.

Nun ist NV eben besser. RDNA2 war aber runder und ich hoffe RDNA4 wird es ebenfalls. Ich denke nicht, dass AMD einen RDNA3 refresh machen wird, selbst wenn man einen Designfehler hatte.
Es lohnt sich wirtschaftlich nicht
 
@rg88 Klar zahle ich meinen Strom. Was ändert das an meiner Aussage? Die Daten stammen aus dem Test der 7900XTX und die ist eben weniger effizient als eine 4080.
@cookie_dent hat doch erklärt, warum das bei ihm/ihr was ausmacht. Bei mir sind es halt maximal eine Stunde YouTube am Tag, da interessiert mich der Verbrauch der Karte relativ wenig. Hier im Artikel geht es ja explizit um Unterschiede im Bereich 200-400W. Dass AMD die Leistung von RDNA3 eingebremst hat, kann man verstehen, wenn sonst 700W wegzukühlen wären. Das rechnet sich auch über den Preis kaum noch.
 
Zurück
Oben