News OC auf 3,4 GHz: Radeon RX 7900 XTX jagt mit 700 Watt die RTX 4090

HyperSnap schrieb:
Also pustet man dann 700W da rein und erhält die Leistung die eine 4090 mit 350W schon erzielt?^^
300 sogar, die Ergebnisse kommen irgendwo da raus, wo CB die auf 300W Limitierte GPU hatte.
Aber ja Overclocking ist halt so eine Sache, weil der Verbrauch irgendwann exponentiell wächst, das darf man nicht vergleichen.
 
  • Gefällt mir
Reaktionen: JohnWickzer
Oldtimer schrieb:
Was für ein Blödsinn!
Solch hohe Leistungsaufnahme bei DEN Strompreisen, die zurzeit genommen werden...
Bin ich im falschen Film oder so?
Du bist im falschen Land.
 
Ich dachte bei den ersten Leaks auch direkt an 600+ Watt bei der 4090, bei diesen abartig gigantischen Kühllösungen, die ja auch auf den Markt kamen.
Ich halte die Geschichte im letzten Absatz für sehr realistisch!
 
Spannend, was da noch geht und es gibt einen netten Einblick, dass Chipentwicklung immer eine Wette auf die Zukunft ist. Vielleicht erleben wir mit der neuen Generation ja schon die verbesserte Variante von RDNA3, in der die Leistung in (heutzutage) normalen Leistungsbereichen abgerufen werden kann.
 
Supie schrieb:
Also im Moment sind es noch 400-500 Euro Unterschied zwischen der 7900XTX und der RTX 4090
Ja schon, aber deswegen eine 700 W XTX einer 4090 vorziehen? Ich denke dass eine solche XTX auch gar nicht mehr so viel günstiger wäre. Lass es dann noch 200-300 € sein, da würde ich in jedem Fall die 4090 nehmen und mir die nahezu 400 W sparen, bei immer noch 30%+ mehr RT Leistung.
 
Zuletzt bearbeitet:
Capthowdy schrieb:
Ja schon, aber deswegen eine 700 W XTX einer 4090 vorziehen?
Du hast mich falsch verstanden, wenn die Kohle nicht zu stark klemmt, war das mit der 4090 den Vorzug geben eigentlich auch meine Position - sofern es das Maximum sein muss, täte es ansonsten vil. auch die 4080? Diese habe ich als Sonderposten auch schonmal zwischen 1000 und 1100 Euro gesehen......(dachte damals das wäre eine längere Aktion, und habs deswegen verpasst, naja kommt hoffentlich im Sommer wieder, das die Preise tiefer werden).
 
Supie schrieb:
sofern es das Maximum sein muss, täte es ansonsten vil. auch die 4080?

Klar, die 4080 ist eine sehr gute Karte. Ich bezog mich ursprünglich auf diesen Post:
GERmaximus schrieb:
Zum Glück ist die so nicht gekommen, sonst hätte ich mich zwischen einer 4090 und xtx7900 schwer getan.

Da geht es um 700 W XTX vs. 4090 und da sehe ich wirklich keinen guten Grund die XTX zu nehmen, außer die dann vielleicht 200-300 € Preisunterschied. Dafür bekäme man aber immer noch nahezu 400 W weniger Verbrauch und deutlich mehr RT Leistung. Am Ende ist es eh nur theoretischer Natur, da AMD die Karte so nicht gebracht hat.
 
Man setze eine Nitro+ unter Wasser und hat selbst mit 363w in etwa die gleiche Rasterizing-Performance wie ne 4090! RT sind leider-5/10% unreter einer 4080, außer man fährt das Ding komplett aus. Hieiber laufen 3.2g mit 1.035v stable und mehr braucht es auch nicht. Treiber stabil, Karte hängt nicht an der Kotzgrenze und ist mit 363w schneller als eine 4080-easy!
 
C.J. schrieb:
(...) In Compute-Anwendungen haben schon zum Launch einige Leute berichtet, dass die Karte dort bis 3,5Ghz boosten kann und das mit <400W. (...)
Das Phänomen, dass AMD Karten in Compute einen merklich geringeren Verbrauch haben, gibt es schon seit GCN. Ab Vega kam dann dazu, dass in diesen Workloads obendrein ein viel höherer Takt möglich war.

Erst, wenn die Fixed-Function 3D Einheiten (RB, Rasterizer, TMUs, …, und früher: Geometrie - seit RDNA3 wird diese von den Shadern gehandhabt) dazukommen, sinkt der Takt, und der Verbrauch steigt merklich an.

Ich denke, dass auch der Command Prozessor nicht ganz unschuldig am Verbrauch sein wird, und evtl. sogar ein Bottleneck darstellt. Dieser läuft ja nominal mit 2.5GHz bei der 7900XTX, während die Shader mit 2.3GHz angegeben sind - "um die Energieeffizienz der GPU zu erhöhen", laut AMD.

Oder, um dem Ding mal Feuer unterm Hintern zu machen, sodass es mit der gestiegenen Anzahl an Shader Engines klarkommt? Hier war ja seit jeher eigentlich das Limit bei 4 Stück - nun sind es 6, und entsprechend mehr Fixed-Function Einheiten, sowie ein Mehraufwand, die Geometrieberechnungen auf die einzelnen Arrays zu verteilen, und deren Auslastung zu balancen.

Ein komplettes Redesign, so wie alle anderen Bestandteile der GPU, hatte dieser auch noch nicht erhalten. Hier wurde seit GCN nur inkrementell nachgebessert. Weiters wird der Command Prozessor in Compute Workloads ja kaum bis gar nicht ausgelastet, weil dann so gut, wie die gesamte Arbeitsverteilung von den ACEs gehandhabt wird…

@Simariqcocuq RT Performance ist natürlich auch ein bisschen angestiegen, was allerdings nicht ausgleichen kann, dass AMD Grakas bis jetzt keinen Ray-Traversal-Beschleuniger besitzen (läuft via Compute Shader und ist relativ ineffizient, da Traversal aufgrund von Divergenz viele Bubbles/Stalls verursacht). Die Intersection Engine ist auf Turing Niveau - Nvidia hat seitdem schon zweimal den rohen Intersection-Throughput verdoppelt.
 
Zuletzt bearbeitet: (Ergänzung)
  • Gefällt mir
Reaktionen: Ginmarr
gedi schrieb:
Man setze eine Nitro+ unter Wasser und hat selbst mit 363w in etwa die gleiche Rasterizing-Performance wie ne 4090! RT sind leider-5/10% unreter einer 4080, außer man fährt das Ding komplett aus. Hieiber laufen 3.2g mit 1.035v stable und mehr braucht es auch nicht. Treiber stabil, Karte hängt nicht an der Kotzgrenze und ist mit 363w schneller als eine 4080-easy!
Kannst du das etwas näher ausführen? In welchem Szenario hat eine XTX dieselbe Rasterizing-Performance wie eine 4090?
 
  • Gefällt mir
Reaktionen: Recharging
Crifty schrieb:
Gerade nach den guten 6000er Karten, ist das wieder ein Rückschritt im Sinne von "Ein Schritt vorwärts und drei zurück"
naja die 6000er haben dank nvidia so gut abgeschnitten.. wäre rtx3000 auch bei tmsc vom band geloffen, wären die karten wohl gute 20% effizienter gewesen.

aber ist ja nix neues dass Produkte am limit ineffizient laufen... sieht bei einer 4090 ja auch nicht anderst aus😅
 
Auch für di se xtx hatten sich Käufer gefunden. Gibt ja auch Käufer für die 4090, mit 600watt Power Limit. Bliebe dann nur das Problem mit den pcie Anschlüssen, wobei dann der ATX 3.0, eine alternative gewesen wäre. Wie aufwendig könnte es sein, die Stromanschlüsse auf den 3.0 ATX Standart umzumoddeln?
 
Wenn die die so auf den Markt gebracht hätten, hätte ich die trotzdem gekauft. Unter Linux hat man kaum die Wahl und da ich eine gute Wasserkühlung habe und nicht rund um die Uhr spiele, wäre mir das egal. Einziges Problem: meine USV, wo der Rechner dran hängt, würde dicke Backen machen :D
 
Au weia ist das besch*. Beeindruckt uns besser mit Effizienz. Die SFF Karte mit 60W einen Artikel weiter ist wenigstens für den Gebrauch geeignet.
 
McTheRipper schrieb:
Hab nur nen bissl UV, mehr nicht.

Bei einem guten Chip, der nicht so viel Spannung braucht, ist das auch vernünftig. Die Karten sind ja durch die maximale Stromaufnahme begrenzt. Daher Spannung runter, Temperatur runter, Takt hoch und schauen wo man landet.

AGB-Leser schrieb:
und da ich eine gute Wasserkühlung habe

Für solche Dinge brauchst du aber kaltes Wasser. Selbst mit Wasser auf Raumtemperatur wird das nix. Die hier benutzten 10 Grad Celsius sind ein guter Kompromiss. Aber um das auf diese Temperatur runter zu kühlen, wenn man in einem 20 Grad Celsius Raum hockt, kostet ja noch einmal Strom.

Oder man füllt ständig Eiswürfel in die Badewanne. :evillol:

mfg

p.s.

Ich wäre ja mit Arktisforscherausrüstung ins Kühlhaus gegangen und hätte geschaut, wo man bei -30 Grad Celsius Umgebungstemperatur landet. Das geht dann zwar nicht mit Wasser und wenn ich atmen will, wird sich dann auch Kondenswasser an Stellen bilden, wo man es nicht braucht. Aber egal. Alles für den Bench.
 
  • Gefällt mir
Reaktionen: McTheRipper
Vielleicht hat AMD auch einfach für die Zukunft geplant und es war ein Kompromiss um jetzt etwas zu wenig Takt und beim 3nm refresh etwas zu viel Takt zu haben ohne eine neue Architektur entwickeln zu müssen.
 
Qarrr³ schrieb:
Vielleicht hat AMD auch einfach für die Zukunft geplant

Den 3nm Refresh zeigt meine Glaskugel bei aktuellen Verkaufszahlen und genereller Marktlage nicht an.

Fertig kotzen, Mund ab putzen, Krönchen rücken und aus den Fehlern lernen. RDNA 4 ist doch schon in der Pipeline. Die optimiert man.

Und die Brot und Butter Karten. Evtl. haben sie eine "Kleinigkeit" gefunden und daher dauern die 7700 und 7800 so lange.

Die 7600er waren von Anfang an auf Effizienz getrimmt und scheinen nicht schlecht zu sein. Kein Wunderwerk aber nicht so ein Desaster wie die ganz großen Babys.

Man braucht das Ergebnis doch nicht zwangsweise schön reden. Das war ein Griff ins Klo.

mfg
 
  • Gefällt mir
Reaktionen: Rockstar85 und Intruder
Naja zumindest macht es Hoffnung dass die RX7600-RX7700 effizienter sind.
 
Zurück
Oben