News AMD RDNA 3 mit 12.288 Shadern: Die Radeon RX 7900 soll das ikonische „XTX“ zurückbringen

Novasun schrieb:
Das lässt mich hoffen. AMD wird diesen Namen nicht leichtfertig vergeben.
Man wird also ordentlich Leistung bringen.
Sowas ist erst mal Schall und Rauch, bevor man irgendwas weiß.
Die FX-Marke war auch sowas wie der GTI unter den CPUs, die haben sie auch für die lahmen Bulldozer geopfert. Und das sehr leichtfertig und ohne ordentliche Leistung ;)
Aber die Hoffung stirbt bekanntlich zuletzt

Ich bin sehr gespannt, wie sich der Multi-Die-Ansatz hier auswirken wird.

Zum einen wird eine Skalierung oberhalb der 7900XTX theoretisch möglich sein, indem man einfach einen Die dazuhängt (wenn der Verwaltungschip dies technisch zulässt versteht sich).
Damit liese sich bei fortgeschrittener Fertigung eine 7950 oder 7990 anbieten, die nicht nur höheren Takt sondern auch mehr Shader hat und da nur ein Modul mehr, sich hier die 50 statt 100 hochzuzählen wirklich mal richtig anfühlen würde.

Zu anderen ist die Leistung hier total unbekannt, weils ein komplett neuer Ansatz ist. Wieviel günstiger kann man diese vielen Chips fertigen im Vergleich zu einem sehr großen? Wieviel Leistung kostet die Kommunikation zwischen den Dice? Kommt am Ende vielleicht die Leistungskrone mal wieder zu AMD?

Spannend wie lange nicht, finde ich :)
 
Zuletzt bearbeitet: (typo)
  • Gefällt mir
Reaktionen: Cadilac, karl_laschnikow und Sinans2
Ragnarök88 schrieb:
AMD muss 100% Rasterleistung aufschlagen, damit man auf dem Niveau einer potentiellen 4090Ti aufschlagen kann. Das halte ich für sehr unrealistisch.
Ich denke es gut möglich, dass die mit 192 MB IF-Cache bestückte Variante von Navi31 (7900XTX(3D)?, die voraussichtliche RTX4090Ti in rasterization bei >=4k knacken kann.

Auch muss man beachten, dass es sich hier um IF-Cache der zweiten Generation handelt, weshalb der Zugewinn sicherlich deutlich höher ausfallen wird, als es dass extrapolierte Diagramm auf Seite 14 andeutet.

Kleiner Auszug aus dem Link Angstronomics Report, zuzüglich wurde der IF-Cache-Takt sicherlich auch noch angehoben.

Infinity Cache Updates

"The Memory Attached Last Level (MALL) Cache blocks are each halved in size, doubling the number of banks for the same cache amount. There are also changes and additions that increase graphics to MALL bandwidth and reduce the penalty of going out to VRAM."

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
MrWaYne schrieb:
AMD würde nvidia echt eins auswischen, wenn man grob die RTX4090-Leistung für 999€ anbieten würde.
Ich tippe auf max. 1299€ beim Topmodell. Damit würde ich sie kaufen. Voraussetzung ist, dass ungefähr die 4090 erreicht wird.

Von RT rede ich hier gar nicht mal, mir persönlich komplett egal.
Also ich halte das für extrem unwahrscheinlich. AMD hat ja mit den Prozessoren gezeigt wie sie sich bei der Preisgestaltung verhalten sobald sie das gleiche Leistungsniveau bieten können. Es wird dann mindestens genauso teuer.
Wäre natürlich schön wenn ich mich irre, ich glaubs nur nicht :/
 
HighPerf. Gamer schrieb:
Hoffentlich wird das nicht so ein Reinfall wie damals die Wiederbelebung der FX Prozessoren bei Bulldozer. Nur um von der schlechten Leistung abzulenken.

Seit Lisa da die Finger drauf hat gab's bis auf den Totalausfall von Hr. Koduri eigentlich keine zu hoch gestapelte Ankündigung mehr.

Das lässt hoffen. Wäre schön, wenn sich AMD auch mit NV Mal wieder richtig kloppen kann.
 
  • Gefällt mir
Reaktionen: Terminator-800 und Cadilac
ArrakisSand schrieb:
Ich denke die mit 192 MB IF-Cache bestückte Variante von Navi31 (7900XTX(3D)?, wird die voraussichtliche RTX4090Ti in rasterization bei >=4k knacken können.
Wie kommst du darauf, dass es sich hierbei um 3D-Cache handeln würde?
 
rg88 schrieb:
Wie kommst du darauf, dass es sich hierbei um 3D-Cache handeln würde?
Die Info stammt ebenfalls von Angstronomic.

Hier ein kleiner Auszug aus dem TomsHardware Artikel.

"Angstronomics geht davon aus, dass AMD einen 3D-gestapelten MCD (1-hi) vorbereitet, der den Infinity Cache verdoppeln würde. Dennoch ist die Leistungssteigerung angesichts der Kostensteigerung nicht substationär, sodass das Mainstream-Navi 31 bei 96 MB bleiben wird. Tatsächlich war eine aufgepeppte Version mit 288 MB Infinity Cache (2-hi) zuvor in AMDs Plänen"

Ach ja, ich hab mir auch mal so Pi x Daumen die Kosten dafür berechnet, ich komme dabei pro MCD (16MB IF) auf max. 7$ bzw. Total 6 x MCD (16MB) = 96MB, 42$ an zusätzlichen Kosten, klar dass sind nur die reinen Produktionskosten, da kommen noch weitere: Design, Valiadation, packaging etc. dazu, aber so günstig (verglichen mit dem AD102 nur Peanuts), gerade wenn man sich dies in Relation zur Nvidias gigantischer, monolitischen GPU (608mm2!!!) betarchtet wird AMD sobald nicht mehr die Performance-Krone erlangen können.
12 x MCD (16MB) = 192MB 84$ / korr. 63$ (6 x MCD SI + IF-Cache 37.5mm2 + 6 x MCD (1-hi nur IF-Cache 18.75mm2)
18 x MCD (16MB) = 288MB 126$ / korr. 84$ ( 6 x MCD SI + IF-Cache 37.5mm2 + 12 x MCD (2-hi nur IF-Cache 18.75mm2) dass wäre schon signifikant, wenn man es mit dem GCD (308mm2 = 125$? mit defekten, aber für kleinere cutoff Varianten verwendete würde ich sogar eher in Richtung 100$ tendieren) in Relation setzt (TSMC 5nm pro 300mm Wafer 17'000$, Defect density 0.09 square inch, Yield Rate ca. 76%),

Sorry hatte zuvor einen kleinen Fehler in der Berechnung.

Habe mit den ebenfalls erwähnten 37.5mm2 pro 16MB MCD gerechnet (TSMC 6nm pro 300mm Wafer 10'000$, Defect density 0.09 square inch, Yield Rate ca. 97%), aber die 16MB dürften eigentlich nur ca. die hälfte der Fläche des MCD belegen, der Rest ist SI etc. gut möglich das die Kosten daher sogar noch deutlich tiefer liegen (ca. halb so hoch ausfallen) der Rest würde man dann analog wie beim 5800X3D mit Sructural silicon ergänzen.

1666827796676.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign
PegasusHunter schrieb:
AMD muss nicht ebenbürtig sein. Sie müssen nur ein überzeugendes Preis/Leistung-Verhältnis haben und nicht bei Solitär abbrennen. 😇 und wie die Brot- und Butterkarten sein werden, sehen wir nächstes Jahr. Bis dahin ist Geduld eine Tugend. Und vor allem "Planungsvermögen". Und nicht überstürzt tausende Euro ausgeben und dann kein passendes Netzteil/Gehäuse haben und mit Feuerlöscher Wache schieben (lassen). :schluck: :mussweg:
Aber deutlich günstiger. Habe gerade erst die 6900xt zurück geschickt weil nach jedem taben in Spielen der Bildschirm für 3 Sekunden schwarz war bei double Monitor setup. Plus noch andere Probleme wie ruckelndes Youtube und twitch. Die karten sind meiner meinung nach einfach mist.
 
Chismon schrieb:
Solange nicht gesichert ist, dass das Chiplet-Design bei den RDNA3 Navi 31 und 32 dGPUs fluessig laeuft ohne Mikroruckler, etc., solange wuerde ich erst einmal abwarten (sonst koennte man evt. als Kaeufer zum Betatester oder schlimmeres werden).
Wuenschen taete ich mir natuerlich, dass RDNA3 einwandfrei direkt zum Marktstart laufen wird, aber die Vergangenheit lehrt da leider anderes und man wird sehen muessen, wie die unabhaengigen Tests ausfallen.
Im Moment gibt es nichts was zu Microrucklern führen kann. Da nur ein GDC verwendet wird. Also nur ein Chiplet das wirklich rendert. Der Rest ist reiner Speicher/Infinity Cahe...
Nur wenn man eine theoretische NV 4090 TI kontern müsste - wäre es interessant zu wissen ob AMD bereits eine GPU mit zwei GDC bringen könnte...
Dann erst wäre ja in der Funktion echtes MultiChipletDesign erreicht weil eben mehr als ein GDC arbeiten würde. Und ja dann muss man sehen ob Mikroruckler im Griff sind.. Wobei ich davon ausgehe - auf Hardwareebene könnte man - wie es ja schon gemacht wird die Ausgabe mehrere Bilder vorher Cachen und so die Frametimes dahingehend klätten das es zu keinen Mikrorucklern kommt...
 
  • Gefällt mir
Reaktionen: rg88
Onkel Föhn schrieb:
Da nimmst doch lieber ne 600 Watt 4090 für 2500 € !
In Raster Games wird jene zwar nicht schneller sein, aber in dem ach so tollen RT !!

MfG Föhn.
344 Watt bitte. In 4k und 144fps. Ließ den test. Die effizienteste Karte jemals.
 
Novasun schrieb:
Da nur ein GDC verwendet wird. Also nur ein Chiplet das wirklich rendert. Der Rest ist reiner Speicher/Infinity Cahe...
ah, das hab ich bisher missverstanden. Auf GCN scheinen das mehrere Prozessor-Dies zu sein, bei RDNA3 anscheinend bisher nur einer.
 
Adzz schrieb:
Aber deutlich günstiger. Habe gerade erst die 6900xt zurück geschickt weil nach jedem taben in Spielen der Bildschirm für 3 Sekunden schwarz war bei double Monitor setup. Plus noch andere Probleme wie ruckelndes Youtube und twitch. Die karten sind meiner meinung nach einfach mist.
Ich benutze schon seit über 20 Jahren ausschließlich AMD-Karten. Ich hatte noch nie irgend ein Problem mit diesen Karten oder mit Treibern( Die ich nicht selbst verschuldet hatte). Schade , das in Deinem Anwendungsszenario Fehler passieren. Aber deshalb kann man doch nicht verallgemeinern. Es gibt so viele verschiedene Konfigurationen von Hard- und Software. Auch die Kartenmodelle sind vielfältig. Einige haben Spulenfiepen, andere Nicht. Vielleicht brauch man immer ein bissel Glück, was man für ein Modell erwischt. Das blöde ist. man kann nicht so einfach 10 verschiedene Karten des gleichen Typs, unterschiedlicher Hersteller probieren. Dann könnte man viel einfacher den Fehler finden. :schluck:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: w0wka und Verak Drezzt
Bisher war alles monolitisch. Das mit mehreren DIEs kommt erst mit RDNA 3.
Einer davon wird der Prozessor sein, der rest infinity cache.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beitrag
kannsde gerne noch draufrechnen wenn du da Lust zu hast, er wollte den Preis von damals Wissen und ich hab ihn nur rausgesucht gehabt, ganz ruhig brauner
 
  • Gefällt mir
Reaktionen: ThePlayer
ShiftyBro schrieb:
Ich kann mir auch im Moment nicht wirklich vorstellen, dass man mit ~530 mm² und etwas größeren Fertigungsprozessen an die 609 mm² der 4090 herankommt.
Vergiss dabei bitte nicht, dass die Tensor-Kerne bei Nvidia einiges an Platz verbrauchen. Außerdem ist Cache nicht gut skalierbar durch den Fertigungsprozess (daher bei RDNA3 auch auf 6nm ausgelagert).

Rockstar85 schrieb:
7900XT 999 USD (+/- 0) (zwischen 4080/16 und 12)
7800XT 699 USD (+50$) (4080/12 (4070) Gegner und knapp drunter)
7700XT 519 USD (+40$) (4060Ti Gegner und drüber)
7900 XTX dann für 1299 USD als 4090 Gegner knapp unter der 4090 overall
Wie soll die 7900 XTX knapp an der 4090 sein und die leicht beschnittene 7900 XT unterhalb der 4080 liegen?
Bei den Preisen gehe ich mit, aber bei der Leistung (Rasterizing) schätze ich die 7900 XTX leicht (5-10%) über der 4090 und die 7900 XT leicht (10-15%) unter der 4090 ein. Immerhin steht eine Beschneidung um nur 12,5% im Raum, während bei Nvidia der AD103 der 4080 40% weniger Recheneinheiten bringt als der AD102.

GrafikkarteChipLeistung (Rasterizing)Preis
7900 XTXN31 (full)105%1199 $
RTX 4090AD102 (cut light)100%1599 $
7900 XTN31 (cut light)90%999 $
(RTX 4080Ti)AD102 (cut)90%1299 $
7800 XTX
(7900)
N31 (cut strong)75%799 $
7800 XTN32 (full)65%699 $
RTX 4080AD103 (full)60%1199 $

Damit hätte AMD die UVPs der jeweiligen Chip-Klassen deutlich angehoben (N21 full zu N31 full: 999 $ zu 1199 $; N21 cut light zu N31 cut light: 649 $ zu 999 $; N21 cut strong zu N31 cut strong: 579 $ zu 799 $), gleichzeitig ist man aber bedeutend günstiger als die Konkurrenz.

Den stark beschnittenen N31-Chip habe ich so eingeordnet, weil ich denke, dass die Lücke zwischen N31 und N32 zu groß ist. Außerdem gab es so etwas ja auch schon bei RDNA2 mit der RX6800 die nur 75% der Recheneinheiten aktiv hatte.
 
CLWSK schrieb:
Kann mir nicht vorstellen dass die 7900xt billiger wird als die 6900xt.
Wenn die 7900xt bei 1000€ ist wäre ich schon froh. Und eine 7950XT \ 7900XTX für 1500€ wären ok wenn sie an die 4090 rankommt.
Naja im Verhältnis zur Leistung vllt fps/eur
 
Zurück
Oben