stefan92x schrieb:Nicht unbedingt. Es ist so ein bisschen eine Henne-Ei-Frage: Was war zuerst, der Ausstieg aus High-End oder das Canceln der Dies? Wenn AMD bei Navi 41 bis 43 auf ein Design-Konzept gesetzt hat, dass sich als nicht praktikabel erwiesen hat (was ich nach dem de facto Scheitern von RDNA3 für möglich heute), dann hätte sich der Ausstieg daraus ergeben können, dass man diese Chips canceln musste. Navi 44 hat gerade mal 32 CUs, da halte ich es für gut möglich, dass es drei Dies mit mehr als 32 CUs gegeben haben könnte.
Auf das will ich doch raus, es muss noch einen anderen Grund geben, High End aufzugeben kann nicht der einzige Grund sein. Was es sonst noch war wird AMD nicht erzählen.
stefan92x schrieb:Mehr als 64 wäre ja nur der Fall, wenn Navi 48 von Anfang an geplant war, aber danach sieht es ja eben nicht aus.
Alleine schon der Name ist eine Anspielung darauf das die Navi 48 eine doppelte Navi44 ist.
stefan92x schrieb:Oder zumindest quasi neu gestartet. Was Sinn ergeben würde, wenn AMD wirklich in eine Sackgasse gerannt ist und sich neu aufstellen musste.
Zwei mit einander nicht kompatible GPU Architekturen zu haben war langfristig eine Fehlentscheidung.
Kurzfristig hat CDNA auf GFX9 zu belassen viel Arbeit beim Software Stack gespart, und war eventuell 2015 unumgänglich.
Aber so lange zu warten, ...
stefan92x schrieb:Einerseits ja, andererseits aber auch nur eine logische Folge der Nutzung von Chiplets. Dadurch wird so eine Mischung aus Custom und "Standard" eben auch einfacher.
Es gab Gründe warum AMD es bisher bei Custom eigene Dies gemacht hat. Man kann den Die für den Kunden optimieren, was sich bei den Stückzahlen lohnt und eigentlich unumgänglich ist.
Das Microsoft ein Custom CPU Chiplet aber ein Standard GPU Chiplets verwendet macht mich stutzig.
Ja es gibt viele mögliche Erklärungen.stefan92x schrieb:Yield? Power? Kann mir viele Gründe vorstellen, vor allem wo wir doch so weit vom Release entfernt sind.
Aber ich bin mir sicher, dass da noch einige Überraschungen kommen.
stefan92x schrieb:Ja, aber Einsteiger-GPUs mit DDR gab es aber durchaus auch früher schon (man denke an die GT1030 mit DDR4), und ebenso sind große GPUs mit LPDDR fürs Datacenter schon angekündigt (Intel Crescent Island)
Im Data Center kommt es bei Prefill vor allem auf die Speicherkapazität an und da ist GDDR keine Option.
Die Frage ist doch, kann sich eine dGPU nur durch mehr Power aber mit praktisch derselben Bandbreite wirklich entscheidet von der APU absetzen und wie steht sie dann im Vergleich zu einer dGPU mit GDDR da.
Und vor allem wie sieht eine solche GPU gegenüber den GPUs von Nvidia aus.
stefan92x schrieb:Nicht für Gaming alleine. Aber wenn man eine große GPU hat, die man in genug Instanzen aufteilen kann, dann ist die ideal als Citrix-Host oder so nutzbar. Gibt schon einige Anwendungsfälle für solche Datacenter-GPUs. Ob sich das für AMD lohnt? Kommt sicher drauf an, was AT0 überhaupt wirklich ist (als Dual-AT1 könnte das ja günstig realisierbar sein).
AT0 ist so teuer, dass ausreichend Bedarf da sein muss um den Aufwand zu rechtfertigen. AT0 ist das exakte Gegenteil zu dem was AMD zu RDNA4 erzählt hat.
Und ausgerechnet zu dem Teil den ich AMD bei den Erklärungen glaube. Der Verzicht auf die großen Dies spart AMD bei RDNA4 jede Menge Geld und gibt AMD mehr Spielraum bei der Preisgestaltung der kleinen Dies.
stefan92x schrieb:Wie du selbst geschrieben hast, scheint GFX125 (was vermutlich CDNA5 ist) mehr mit aktuellem RDNA als CDNA gemeinsam zu haben. Ausgehend davon frage ich mich, ob wir hier nicht wirklich schon "UDNA" sehen, wo das eigentlich schon das gleiche ist?
Ich bin mir inzwischen sicher, dass es keine UDNA Architektur geben wird. In wie weit das Konzept UDNA tatsächlich kommt kann man besser abschätzen, wenn mehr über GFX13 bekannt wird und wenn klar wird wie CDNA6 geführt wird.
Es gibt keine andere Erklärung als dass gfx125x CDNA 5 ist. Auch wenn nur zwei GPU gelistet sind und die als APU bezeichnet werden. Das sind Platzhalter. Ebenso wie bei der ersten GPu für GFX13.
GFX125x sieht so aus als sich AMD endgültig vom Erbe GFX9 verabschiedet.
Andererseits gibt es auch einiges was zu GFX125x von GFX12\RDNA5 deutlich unterscheidet.