News RDNA-3-Gerüchte: Mit AMD Navi 31 stehen ein Umbruch und 15.360 Shader an

ich hoffe nur, dass der Stromhunger nicht auch vervierfacht wird. Kein Bock auf nen extra Grafikkarten Netzteil zusätzlich zum Regulärem der nebst der CPU die ganze RGB befeuern muss 🤪
250Watt bis max 300Watt sind hier wohl reines Wunschdenken 🥴
 
Blekota schrieb:
Hätte ich bloß damals AMD-Aktien gekauft 🤪
Wirst du wahrscheinlich in ein paar Jahren wieder sagen.
 
  • Gefällt mir
Reaktionen: Dittsche und ThePlayer
Wolfgang schrieb:
Dann wirst du schätze ich mal bei der Next Gen ziemliches Pech haben. Ich vermute, dass AMD und Nvidia da völlig All In gehen werden, gerade beim Strom.
Dann wird es keine Mittelklasse in der Generation geben, die weniger verbraucht, als die Highend-Klasse? ;)
 
@DoS007 nur AV1 ist bei AMD derzeit auf 8k30 beim decodieren begrenzt. VP9 und der Rest geht bis 8k60 und drüber.
 
Colindo schrieb:
Nvidia hat zurzeit kein Hochtaktdesign. Damit beide Chips in N5 gleich hoch takten, müsste Nvidia die gleiche geniale Idee bekommen wie AMD sie letztes Mal hatte. Das ist schon unwahrscheinlich. Aber interessant ist es trotzdem, weiß jemand, wann das letzte Mal beide im gleichen Node gefertigt haben?
Hey ja ich meinte nicht dass beide gleich schnell takten sondern dass die ca. auf einem ähnlichen Rasterizing Niveau insgesamt landen.

Mal angenommen AMD verdoppelt die Shader aber das Chiplet Design kostet etwas Leistung im Vergleich zu einem monolithischen. Nvidia erhäht die Shader nur um 70% aber bleibt monolithisch. Hier ist AMD etwas im Vorteil...

- Taktraten steigen bei Nvidia im Gegenzug zu AMD deutlich da Nvidia von Samsung 8LPP zu TSMCs N5 mehr Luft nach oben hat als AMD von N7 zu N5. Sagen wir mal AMD geht Richtung 2,7-2,8 Ghz und Nvidia Richtung 2,4-2,5.

- IPC und Software Support verbessern beide etwas. AMD evtl. etwas mehr.

Dis lässt natürlich Raytracing, DLSS / Direct ML Upscaling / FSR etc. außen vor! Insgesamt ist AMD bei klassischem Rendering etwas vorne aber Nvidia bietet immer noch mehr Features und Performance in diesen.

Mit DG3, RDNA4 und Hopper / AmpereNextNext dürften wir dann nochmals massive Steigerungen sehen und einen relativ interessanten und ausgeglichenen Markt. Da CoViD19 dann auch endlich überstanden ist können wir Kunden uns ab 2022/23 wieder richtig freuen :)
 
  • Gefällt mir
Reaktionen: danyundsahne und Colindo
Linmoum schrieb:
Die Frage wird weniger der Prozess sein, sondern ob Nvidia mit Lovelace auch schon den MCM-Ansatz verfolgt oder das (noch) monolithisch bleibt.
Lovelace ist wohl monolitisch. Hopper wird MCM, angeblich mit der dreifachen Leistung eines GA100 (vermutlich 3080?).

Hopper Leistung

Ob jetzt Lovelace noch kommt oder gleich Hopper, steht ja alles irgendwie auch noch in den Sternen. Auf jeden Fall hatte bekommt Hopper wohl sein Tape Out.

Tape Out 3dcenter
 
Colindo schrieb:
Das Ganze hat den großen Nachteil, das jede Aufgabe gleichzeitig deutlich komplexer werden muss, um die vielen Shader pro WGP auch zu füttern. An dem Problem krankt Nvidia zurzeit.
Gut dann haben das Problem jetzt beide, also AMD und Nvidia. Somit werden die Entwickler ihr neuen Games dahingehend anpassen auf die neuen Gegebenheiten.
 
Wobei Hopper wohl eher für HPC sein wird, also analog zu CDNA bei AMD. Und Lovelace womöglich dann Gaming wie RDNA bei AMD.

MCM bei Hopper halte ich daher auch gar nicht für so abwegig. Aber Desktop ebenfalls glaube ich bei NV und Lovelace irgendwie nicht. Und ich würde sogar stark vermuten, dass das auch NV für AMD so sieht. Vor allem in der Form, wie es gerade die Runde macht. Mit so einem Monster würde wohl kaum jemand rechnen.
 
Naja, diese vielversprechenden Gerüchte und die heute günstigen Techkurse haben mich zum Einstieg bei TSMC und AMD bewegt :D
 
  • Gefällt mir
Reaktionen: Dittsche
Am Ende ist es wie immer eine Frage des Preises. Wenn die Karten doppelt so schnell werden wie die vorgeneration aber auch ungefähr doppelt so teuer ist bewegen wir uns halt bei preis/performance weiterhin in Bereichen, die sich nur wenige leisten wollen/können.

Hab so viele Leute hier, die immernoch bei Pascal oder Maxwell hängen weil, und da haben sie recht, es einfach keine Karten mit lohnender mehr-Performance gibt im Preisbereich um die 100 bis 200 EUR.

Wenn die Karten nicht mehr Performance fürs gleiche Kleingeld bieten wie die aktuelle Generation werd ich die skippen und warten bis GPU-Chiplets in den folgenden Generationen dann keine Kinderkrankheiten mehr haben.
 
Ein paar Sachen/Fragen, die mir dazu einfallen. Wie gut wird AMD die Interchiplet Kommunikation in den Griff bekommen? Selbst Zugriffe auf den L2 Cache sind bei modernen GPUs teuer.

Wer soll den krassen Stuff noch bezahlen?

Wie wird Intel darauf reagieren wenn AMD und Nvidia sich mit solchen Kalibern duellieren?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Colindo
@ZeroStrat wie gut sich die Chiplets machen wird man mit Sicherheit erst zum Release sagen können. Aber ganz furchtbar wird's wohl nicht sonst hätte man es nicht in Betracht gezogen.

Ich denke auch dass die Preise nur bei den großen GPUs verheerend ausfallen werden. Kleine GPUs lassen sich sicherlich günstig produzieren und kommen auch ohne Chiplets aus.

Was Intel betrifft: da passiert wohl erstmal garnichts. Aber sicherlich nicht so schlimm, da hier immer wieder nach 100 Euro GPUs geschrien wird können sie diese Lücke erstmal füllen.

Wenn sie ende des Jahres gerademal 3070er Leitung schaffen und DG3 noch lange hin ist haben die oben erstmal kein Mitspracherecht.

Muss aber nichts schlechtes sein, die holen sicherlich gegen mitte des Jahrzehnts bisschen auf (vielleicht) und der Budgetbereich bleibt immer. Aktuell wird er von den beiden großen ja vernachlässigt aufgrund der Nachfrage
 
ZeroStrat schrieb:
Wie wird Intel darauf reagieren wenn AMD und Nvidia sich mit solchen Kalibern duellieren?
Ich bin mal etwas forsch und behaupte, dass AMD sich hier oben einzig mit sich selbst dueliert, wenn sie mit dem MCM-Approach für die kommende Gen alleine sind. Denn mit einem Monolithen, selbst wenn wir jetzt ins Extreme gehen und 700mm² annehmen, kannst du so eine Shaderpower einfach nicht unterbringen. Mal ganz davon ab, dass das alleine von den Yields her wahrscheinlich extrem bescheiden wäre, zumindest bei den Stückzahlen, die du im Desktop brauchen würdest.

Die Leute kaufen sich auch 3090 für >2000€ und haben sich auch davor Titans für >2000€ gekauft. Der Markt ist da und wenn du ein Halo-Produkt hast, was alleine an der Spitze steht, dann zahlen die Leute noch viel lieber für sowas. Glaub mir. ;)
 
  • Gefällt mir
Reaktionen: Rockstar85
ro///M3o schrieb:
250Watt bis max 300Watt sind hier wohl reines Wunschdenken 🥴

Schön, dass sich noch andere Leute um den Stromverbrauch Gedanken machen, Abwärme, Lautstärke und Folgekosten sind für mich extrem wichtige Punkte, auch bei 2000+€ Produkten.
Vor allem die Abwärme beunruhigt mich, selbst die 3080 FE (@UV) ist bereits ziemlich unangenehm, eine 3090 mit 350+ Watt ist für mich keine Option mehr.

Mag hier jemand eine Schätzung zum Stromverbrauch abgeben? 400 Watt dürften doch konservativ geschätzt sein oder?
 
  • Gefällt mir
Reaktionen: ro///M3o
R4yd3N schrieb:
Na hoffentlich funktionieren Multi-Chiplet Packages besser als Multi-GPU Karten. Ich erinnere mich mit Grausen an SLI- und Crossfirelösungen die alle eines gemeinsam hatten: Mikroruckler.
Technisch haben Chiplets und Multi GPU wenig zu tun.
Ein Chiplet hätte zB nur die Funktionseinheiten, wie GPU Shader. SchaltLogik, und SI könnte man zB auf einen zentralen Interposer auslagern.
Multi GPU sind ja nichts weiter als Single die GPU zusammen geschaltet.

Wenn der IL schnell genug ist, dann kann man hier sehr flexible Designs bauen, und zB nur die Shading Cluster in n5 bauen, um Geld in der Fertigung zu sparen.
Der Rest wird dann eben in N7 oder B12 gebaut.

Also immer der passende Prozess für das Chiplet.
 
Zuletzt bearbeitet:
Rockstar85 schrieb:
Technisch haben Chiplets und Multi GPU wenig zu tun.
Ein Chiplet hätte zB nur die Funktionseinheiten, wie GPU Shader. SchaltLogik, und SI könnte man zB auf einen zentralen Interposer auslagern.
Multi GPU sind ja nichts weiter als Single die GPU zusammen geschaltet.

Wenn der If schnell genug ist, dann kann man hier sehr flexible Designs bauen, und zB nur die Shading Cluster in n5 bauen, um Geld in der Fertigung zu sparen.
Der Rest wird dann eben in N7 oder B12 gebaut.

Also immer der passende Prozess für das Chiplet.

Ich bin da noch skeptisch. Alles was nicht im selben Siliziumblock ist, wird durch irgendeine Art Interconnect angebunden, der gar nicht schnell genug sein kann.

Aber vielleicht mache ich mir da nur unnötig Sorgen. Bei den CPUs hat es AMD ja auch in den Griff bekommen.
 
Schauen wir Mal. Infiniti Link ist sehr leistungsfähig und auch emib bei Intel wird sehr leistungsfähig werden.

Ich bin mit ziemlich sicher, dass es reicht. Feb Rest macht der IF Cache
 
patrickschur schrieb:
Das wüsstest du wohl gerne. 😛
Um ehrlich zu sein ist mir das ziemlich wumpe...
Ich geh aber stark davon aus das die Leute hierzulande, ... Deinen Infos und Aussagen mehr vertrauen als denen von diversen Twitter Nutzern die bisher genannt wurden.

Ich bin mit meiner RX 6800 mehr als zufrieden.

Würde nur gerne sehen das AMD mit der neuen Generation, nVidia mal so richtig den Allerwertesten versohlt. 😂
 
Zurück
Oben