News AMD Instinct MI300: Die erste Zen-4-plus-CDNA-3-APU nutzt auch HBM(3)

Sternengucker80 schrieb:
Siemens, hätte als großer deutscher Hersteller mitmischen können, aber sie haben einfach alles vergeigt!
Wieso versteifst Du Dich so auf Siemens?
Es hat noch andere Deutsche Elektronik Hersteller. AEG ...

Siemens hatte das Pech dass ihr Standbein Telefontechnik durch das Internet und die zugrunde liegende Technik weggespült wurde. Bei den Halbleiter wollte Siemens unbedingt bei den Speichern mitmischen. aber das hatten wir schon ...

Was ist von der japanischen Dominanz bei den Halbleiter und Elektronik Hersteller übrig geblieben?

Toshiba spielt bei den Flash noch eine gute Rolle. Sony hat sich als großer Elektronik Hersteller gehalten. Canon hält sich in seinen Nischen. Aber der Riese Panasonic hat massiv Federn gelassen. Und viele einstmals große Namen haben mächtig an Glanz verloren.
Sternengucker80 schrieb:
Wir hatten alle Möglichkeiten, aber wie immer alles versammelt.
Welche Möglichkeiten?

Die Halbleiterindustrie war eine amerikanische Angelegenheit. Nachdem die Sache in den Staaten etabliert war, haben sich ein paar große Europäische Firmen drauf gestürzt. Europa hatte immer Spezialisten, aber nie die Massenhersteller.
Sternengucker80 schrieb:
Jetzt sollen Zich Steuergelder verschwendet werden, die.
Da hast Du Recht. Wenn die Blase platzt will niemand die teure Fertigung in Deutschland.
Sternengucker80 schrieb:
Dummheit unserer Industrie wieder gerade zu biegen.
Du heulst herum das sich ein Land, das die Technikfeindlichkeit zelebriert, mit neuer Technik schlecht mithalten kann?

Schau Dir an wer in den Staaten neue Techniken treibt. Es sind Start-ups. Dazu gehört nicht nur Geld sondern auch Risikobereitschaft. Auf die eigene Idee die Zukunft zu verwetten. Das trauen sich in Deutschland nur Verhältnis mäßig wenige. Und einige die es machen, machen es nicht hier.

Außerdem ist Europa viel zu sehr damit beschäftigt Dinge abzuliefern die andere schon gelöst haben anstatt etwas neues zu erfinden.
Sternengucker80 schrieb:
Wir Erfinden (z.B. mp3) andere stoßen sich damit gesund ( Apple) 🤦
Was hat der Erfolg von Apple mit MP3 zu tun? Es ist ein Format, das zufällig hier entstanden ist. Was Apple erfolgreich gemacht hat war das Ganze drumherum. Ein Abspielgerät, die Verteilung über einen Store. Das ganze einfach zu bedienen. Teuer genug um davon die Entwicklung des iPhone bezahlen zu können, billig genug um viele Käufer anzulocken.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Wieso sollte Apple sich das antun?
Sie haben eine Lösung die funktioniert und erheblich billiger ist.
Du hast eine Antwort später selber gegeben:
ETI1120 schrieb:
Der M1 ist als Prozessor für Arbeitsplatz Rechner entworfen worden. Da Apple auf RAM-Slots und Steckplätze verzichtet hat ist der M1 weder als Workstation- noch als Serverprozessor geeignet.

Die spannende Frage ist, lässt Apple den Mac Pro auslaufen oder machen sie dafür einen eigenen Prozessor, der dann auch für Server eingesetzt werden kann. Die Apple Cloud mit Apple Silicon hat was.
Wenn sie in diesen Markt erheblich einsteigen wollen, ist HBM ein gutes Mittel, um dennoch weiterhin damit durchzukommen, auf RAM-Slots und klassische Steckplätze zu verzichten.
ETI1120 schrieb:
Wir sind uns einig, dass Apple für die SoC viel Geld ausgibt. Aber das holen sie wieder rein weil sie das System mit viel weniger Komponente bauen können. Dass das System erheblich kompakter ist, trägt auch noch ein bisschen zur Effizienz bei.
Eine weitere ist, dass Apples Ansatz an ein Limit stößt. Eine höhere Kapazität oder ein breiteres Interface bei gleichen physischen Dimensionen zu erreichen ist nun einmal mit HBM leichter. Das ist für die teureren MacBookPros interessanter als für die Einsteigergerät. Von daher lautet meine Prognose:
CDLABSRadonP... schrieb:
Start im HighEnd aus; also nur für M2 Max/ M2 Pro bzw. M3 Max/ M3 Pro, während dann M2 Normal bzw. M3 Normal und ein hypothetischer M2 Air/ M3 Air noch eine Generation bei normalem Speicher bleiben würden.

Noch etwas zu den generellen Kosten im Vergleich:
Draco Nobilis schrieb:
Wie kommst du auf die Idee das Apple einen 800mm² DIE aus TSMC N5 günstiger kaufen kann als NVIDIA/AMD?
Hast du mal geschaut was NVIDIA für die neuste Kreation 800mm² in N5 verlangt? Jahre nach Apple?
Da geht es bei 5 stelligen Preisen los.
Und ja die Bruttomarge von NVIDIA ist etwas höher als die von Apple.

Glauben alle das Apple mittels Magie alles günstig von TSMC kaufen kann? Obwohl diese komplett auf Jahre ausgebucht sind und mal eben Huaweis Anteil (war #2 bei TSMC!) aufteilen konnten, bei gleichzeitig steigenden Preisen?
Das können sie nicht. Aber sie müssen, im Gegensatz zu anderen PC-Herstellern, nicht noch vorher jemand anderen (Intel, AMD oder Nvidia) bezahlen. Das macht einen großen Unterschied darin, was für Chips sie sich im Vorbeigehen leisten können. Das M1-Projekt ist für Apple unterm Strich ein Schnäppchen. (vgl. hier: https://sumitgup.medium.com/why-did-apple-build-their-own-arm-m1-cpu-chip-2fdd88db9b36)

Und das ist auch eine gute Verbindung zurück zu AMD: Selbst wenn irgendein Windows-PC-Hersteller jetzt beschließen sollte, dass eine HighEnd-Gaming-APU von AMD für ein Produkt notwendig sein würde, würde das für diesen PC-Hersteller ziemlich ins Geld gehen und zwar drastisch mehr, als wenn Apple das gleiche beschließen würde. AMD wird dafür gehörig bezahlt werden wollen.
 
CDLABSRadonP... schrieb:
Das können sie nicht. Aber sie müssen, im Gegensatz zu anderen PC-Herstellern, nicht noch vorher jemand anderen (Intel, AMD oder Nvidia) bezahlen. Das macht einen großen Unterschied darin, was für Chips sie sich im Vorbeigehen leisten können. Das M1-Projekt ist für Apple unterm Strich ein Schnäppchen. (vgl. hier: https://sumitgup.medium.com/why-did-apple-build-their-own-arm-m1-cpu-chip-2fdd88db9b36)

Ob man es selbst designt/baut oder durch jemand anderen designt und baut spielt für Betrachtung der Marge aber keine Rolle. Das ist was viele nicht begreifen wollen.

Beispiel:
Ob Intel bei sich selbst fertigt oder bei TSMC, viele denken die Intel Fertigung müsste keine Marge erwirtschaften, das es "geschenkt "wäre.
Das ist Inkorrekt! Forschung, Entwicklung, Fabrikkosten und vor allem(!) Marge muss dennoch auf die eigene Fab kalkuliert werden.
Sonst könnte man einfach alles bei TSMC fertigen und würde Meilen besser fahren

Der Link ist für mich Unsinn, er blendet zu viel aus (Forschung, Marge sowie Zukunft/Synergien).
Die Fixkosten sind real.

Wo Apple Vorteile hat sind durchaus, wie andere schrieben, die Vereinfachung der Plattform und Synergieeffekte weil auch eigenes OS etc. pp. (und immer noch der Appstore, der die Marge ohne Kosten uns absurde treiben kann).
Der DIE kostet aber genauso wie bei allen anderen, durch mehrere Effekte und Einsparungen an anderer Stelle wird es aber am Ende für Apple günstiger. Am DIE selber kann Apple nicht rütteln.

Und das ist was ich meine, "der M1 Apple Silicon ist ohne Apple Ökosystem nicht konkurrenzfähig".
Ich zitiere mich jetzt nicht selbst, aber ich schrieb dies bereits zuvor hier.
Spätestens jetzt haben wir einen Kreis und ich bin wieder am Anfang.

###
Offtopic Beispiel:
Eve Online war da lustig, Leute minern Belts leer, und verkaufen zu Preisen weit unter Markt, weil Leute meinen "das das minern der Erze Sie ja nichts gekostet hat..."
Genau die selbe Schiene.
 
Zuletzt bearbeitet:
Draco Nobilis schrieb:
Ob man es selbst designt/baut oder durch jemand anderen designt und baut spielt für Betrachtung der Marge aber keine Rolle. Das ist was viele nicht begreifen wollen.
Du hast den Rest schön beschrieben, aber er greift hier nicht: Denn es geht hier um den Vergleich zwischen Apple kauft bei Intel, die bei Intel designen und bei Intel fertigen mit Apple designt bei Apple und fertigt bei TSMC und im ersten Fall gibt es nach wie vor eine Marge mehr zu bedienen.
 
Zuletzt bearbeitet: (Tippfehler)
CDLABSRadonP... schrieb:
Denn es geht hier um den Vergleich zwischen Apple kauft bei Intel, die bei Intel designen und bei Intel fertigen mit Apple designt bei Apple und fertigt bei TSMC und im ersten Fall gibt es nach wie vor eine Marge mehr zu bedienen.

Leider fällt hier dennoch eine Marge an nur eben das diese Apple einstreicht.
Die beschäftigen Ihr Designteam nicht mit Luft und Liebe und diese müssen Mehrwert liefern.

Sieh es bitte mal auch andersherum:
Wenn man keine Marge oder Kosten gegenüberstellt, kann man sonst auch keine Aussage treffen ob Inhouse oder nicht besser funktioniert.

Die beschriebenen Effekte des Einsparens kommen (unter anderem) daher zustande, das die Designabteilung multiple Projekte hat und diese auch noch passend auf das OS schneidert sowie bei der Fertigung bei TSMC flexibler mit diesen direkt arbeiten als bei intel. Intel ist im packaging und Vielfalt sowie Design nach Kundenwunsch überhaupt kein Vergleich zu TSMC, da fehlt mindestens eine Dekade. Und hinzu kommt, sollte TSMC, Intel und Samsung doch mal eine Fertigungs-Alternative sein, kann man aus allen dreien als Fab wählen, was mit Intel CPUs an sich eben gar nicht geht. Dadurch kann man Preis drücken. Auch hier wäre es Aufgabe des Designteams Inhouse derartige Umstiege zu prüfen.
Das geht alles ohne ein ein solches Team nicht.
Derartige Überlegungen führen meiner Meinung nach alle indirekt zu Kosteneinsparungen, vermutlich sehe ich aber auch nur einen kleinen Teil davon.


Auch ein Punkt für Inhouse:
Wenn ein Aspekt(Designteam) den man nicht selbst kontrolliert beschließt teurer zu werden (Kosten/Nachfrage/Komplexität/whatever), verdient man selber weniger oder reicht die Preise weiter und verdient gleich viel (wenn Kundennachfrage gleich bleibt, trotz steigenden Preis). Jedenfalls hat man normal nichts davon.

Wenn der betreffende Aspekt aber auch Inhouse abläuft, hat man Indirekt mindestens den selben Verdienst wie zuvor und kann unabhängig von Preissteigerungen der Wettbewerber agieren. Wobei man hier dann einfach auch mitgeht und die Preise am Kunden erhöht, nur diesmal zugunsten der eigenen Bilanz und ein Einbruch der Nachfrage trifft nicht so hart. Oder man lässt den Preis und erhöht seinen Marktanteil falls man mehr Nachfrage bedienen möchte/kann.

Die Frage ist eher, kann man sich Inhouse leisten und entwickelt man es weiter?
Ist dieses Inhouse Team konkurrenzfähig? Brauche ich diesen Aspekt den so sehr?
Vgl. mit dem Damoklesschwert der Intel Fabs bsp.. Wäre Intel nicht in 9 von 10 CPUs vertreten, würde ihre Fertigung Ihnen längerfristig das Genick brechen, da nicht konkurrenzfähig zu TSMC (sorry man muss da real einfach mal einsehen, schon gegen N6 kann Intel derzeit nicht liefern, über GPUs red ich besser nicht mal). Wie sollte Inhouse Intel Fertigung es auch mit TSMC aufnehmen, wenn Apple und viele andere Kunden TSMC antreiben? Kann gar nicht gehen.

Kurve zu Apple: Ein Designteam ergibt daher für Apple logisch Sinn, weil Sie eben einen großen Teil der Wertschöpfung daraus bekommen und es kaum fähige finanzstarke Konkurrenz (vs. Apple) in diesem Feld gibt.
 
Zuletzt bearbeitet:
Draco Nobilis schrieb:
Leider fällt hier dennoch eine Marge an nur eben das diese Apple einstreicht.
Die beschäftigen Ihr Designteam nicht mit Luft und Liebe und diese müssen Mehrwert liefern.
Es gibt keine Handelsmarge mehr.
Auch von meiner Seite aus ein Vergleich:
Alter Apple-Standard war der Einkauf von Brötchen einer Kette, der selbst eine Bäckerei gehört, die selber die Zutaten und Rezepte ausgesucht und gebacken hat.
Neuer Apple-Standard ist das Geben von Rezepten an eine Bäckerei, die Zutaten beschafft und backt und Kauf der Brötchen von dieser.
Der Zwischenhändler (die Kette --- alias Intel) fällt weg. Dass diese Kette selber integriert gearbeitet hat, spielte keine größere Rolle.
Draco Nobilis schrieb:
Die beschriebenen Effekte des Einsparens kommen (unter anderem) daher zustande, das die Designabteilung multiple Projekte hat
Das sehe ich ganz genauso. Das Projekt ist für Apple auch deshalb so günstig, weil sie ein Design weiterverwenden können. Nichts desto trotz fällt auch obendrein noch ein Zwischenhändlerschritt weg.
Draco Nobilis schrieb:
Sieh es bitte mal auch andersherum:
Wenn man keine Marge oder Kosten gegenüberstellt, kann man sonst auch keine Aussage treffen ob Inhouse oder nicht besser funktioniert.
Ich verstehe nicht, was daran andersherum sein soll; ich erkenne keinen Positionswechsel.
 
CDLABSRadonP... schrieb:
Ich verstehe nicht, was daran andersherum sein soll; ich erkenne keinen Positionswechsel.
Naja woran machst du den rechnerisch fest, ob man eigens designt oder nicht?

Bsp.
Apples Fertigung eines NVIDIA GPU-Designs bei TSMC oder eigenes M1 Design bei TSMC.
Das ist der eine Schritt, dessen Marge man dann von NVIDIA übernimmt.
Im Falle von Apple eben bei NVIDIA >60% Bruttomarge die NVIDIA einstreicht.
Klar ist die Marge nicht einfach bei Apple, NVIDIA backt viele Brötchen. Trotz der Vereinfachung wird aber klar was ich meine.
NVIDIA macht "nur" Designs, wie auch AMD. Und ist sehr lukrativ.

Bei Intel fiel das nicht auf, da es eben bei Intel Design nur mit Intel Fab gibt. Ausnahme Intel-ded-GPU, aber die ist ja für Intel selber.
 
Draco Nobilis schrieb:
Bei Intel fiel das nicht auf, da es eben bei Intel Design nur mit Intel Fab gibt. Ausnahme Intel-ded-GPU, aber die ist ja für Intel selber.
Ja, durch Intels Sonderrolle wird das alles viel komplizierter. Lassen wir einmal Intel außen vor:
Draco Nobilis schrieb:
Bsp.
Apples Fertigung eines NVIDIA GPU-Designs bei TSMC oder eigenes M1 Design bei TSMC.
Das ist der eine Schritt, dessen Marge man dann von NVIDIA übernimmt.
Im Falle von Apple eben bei NVIDIA >60% Bruttomarge die NVIDIA einstreicht.
Klar ist die Marge nicht einfach bei Apple, NVIDIA backt viele Brötchen. Trotz der Vereinfachung wird aber klar was ich meine.
NVIDIA macht "nur" Designs, wie auch AMD. Und ist sehr lukrativ.
Nvidia ergibt im Apple-Kontext allerdings wenig Sinn; die Geschäftsbeziehungen zwischen beiden Firmen liegen schließlich ziemlich auf Eis.
Alternativbeispiel:
Apple kauft Grakas für ein eigenes Datacenter bei AMD vs. AMD kauft Grakas bei AMD für ein Datacenter. Na, wer erhält wohl das bessere Angebot?
Die Händlermarge fällt im zweiten Teil weg. Der Teilaspekt muss nicht mitberücksichtigt werden. Das ist das ganze Geheimnis.
 
CDLABSRadonP... schrieb:
Die Händlermarge fällt im zweiten Teil weg. Der Teilaspekt muss nicht mitberücksichtigt werden. Das ist das ganze Geheimnis.
Ach das meinst du.
Ja wenn man kein Direktvertrieb macht, auch wahr.
Allerdings ist die Händlermarge normal auch ziemlich niedrig, weil kein Mehrwert entsteht. Da kommt die Bilanz oft über Umsatz. Wobei zugegeben war das bei Grafikkarten(und anderen Produkten?) in letzter Zeit anders.

Aber klar, das werden dennoch schnell Milliarden bei Apple. Genug das es sich lohnt.
 
ETI1120 schrieb:
Meines Wissens Haben nur noch Intel und AMD die volle Lizenz. Via hattz eine über Centaur. Aber die hat Intel von Via gekauft
Wer hat Deines Wissens IBMs Lizenz gekauft?
 
Nore Ply schrieb:
Wer hat Deines Wissens IBMs Lizenz gekauft?
Welche Lizenz?

Ob IBM einmal das Recht hatte auf ihren Fabriken irgend einen X86 Prozessor zu fertigen und dafür an Intel Lizenzgebühren gezahlt haben, weiß ich nicht.

Ich verfolge seit Ende der 80iger das Geschehen im Computer Markt. PCs haben mich die ersten Jahre nicht interessiert, an die großen Kisten kam ich nicht ran.

Seit Mitte der 90iger verfolge ich den Computermarkt über das Internet sehr intensiv. So weit ich weiß hat IBM keine Lizenz für X86-64 von AMD erworben. Ich habe in der ganzen Zeit nicht mitbekommen dass IBM in einem Rechner einen selbst produzierten X86 verbaut hat. Also gehe ich davon aus dass IBM keine verwertbare X86 Lizenz hat.

Auch die anderen Firmen, die laut Wikipedia X86-Prozessoren hergestellt haben, haben meines Wissens außer AMD keine
Lizenz aktuelle X86 Prozessor zu entwickeln und zu fertigen. (Ausnahme VIA die über Centaur Cyrix die Lizenz bekamen aber zusammen mit Centaur an Intel zurück verkauft haben und Transmeta die haben X86 emuliert)

Falls die Liste stimmt gehe ich davon aus, das die meisten Masken von Intel bekamen oder daß Intel bei ihnen Fertigungskapazitäten gekauft hat.

Arm wird lizenziert, X86 nicht.
Deshalb werden in so vielen Designs Arm Prozessoren verwendet. Es wird eine interessante Frage ob AMD für den Embeded Markt X86 und Xilinx IP bündelt. Hier könnte ich mir viel eher eine Anwendung eines sehr kompakten und sehr energieeffizienten Zen 4c als in einer hybrid CPUs vorstellen.
 
Zuletzt bearbeitet:
[wege]mini schrieb:
AMD will bis zu 28160 GPU cores mit zen4 zusammen in einer APU integrieren, zusammen mit fast 200GB RAM
CDNA3 hat wohl bis zu 12 HBM3 stacks, da wird einiges möglich sein. hinzu kommt der riesige DRAM pool dahinter. wird die möglichkeiten enorm erweitern und die GPU hängt dann an einem 12288 Bit breitem interface während der CPU teil sicherlich auch seine 12 DDR5 kanäle behält, wird spannend :D
Ergänzung ()

@ETI1120 @Nore Ply wird langsam zu offtopic hier, diskutiert das bitte privat oder and er richtigen stelle im forum aus, mag den rest der diskussion nicht auch noch verschieben müssen
 
  • Gefällt mir
Reaktionen: Nore Ply
cbtestarossa schrieb:
Das wichtigste wäre 4C/8T bis 8C/16T mit jeweils einer superschnellen Vollausbau iGPU.
Mehr CPU Kerne bringen selten etwas.
Die iGPU Leistung sollte auch bei kleinen APUs gleich sein denn wenn es wo hakt ist es die Grafikleistung.
APUs haben sonst keine Berechtigung denn wie wir ja wissen kommen nun auch normale Ryzens mit abgemagerten iGPUs welche für Office locker ausreichen.
Laut den meisten Kommentaren unter jeder CPU-bezogenen News hat man als „Gamer“ immer noch Discord, Firefox etc. offen, womit alles unter 12-Kernen zu massiven Einschränkungen führt. Für Office-Zwecke reichen 6- Kerner ja gerade noch so aus. /Ironie off
 
ETI1120 schrieb:
Welche Lizenz?

Ob IBM einmal das Recht hatte auf ihren Fabriken irgend einen X86 Prozessor zu fertigen und dafür an Intel Lizenzgebühren gezahlt haben, weiß ich nicht.

Und Wikipedia ("386 IBM") zu fragen war vermutlich zu anstrengend.
https://de.wikipedia.org/wiki/IBM_386SLC
An dieser Stelle EOD was mich betrifft, da es zu weit ins OT geht.
 
[wege]mini schrieb:
Fassen wir doch mal zusammen.

AMD will bis zu 28160 GPU cores mit zen4 zusammen in einer APU integrieren, zusammen mit fast 200GB RAM.

Die MI250 hat bei 14080 GPU cores ohne CPU cores, 95,7 TFlops in FP32. Wir landen dann also bei fast 200 TFlop plus CPU cores auf einem Interposer.
Das hört sich alles imposant an. Aber irgend etwas stört mich:
Bei Frontier besteht ein Knoten aus
  • 1 Zen 3 EPYC CPU
  • 4 M250X GPUs das sind 56320 GPU cores.
Diese Lösung hätte wenige GPU cores je CPU Core. Eigentlich ging der Trend zu mehr GPU-Kernen je CPU-Kern.

Deshalb denke ich das ist keine Lösung die nach maximaler Rechenleistung im HPC strebt. Ich denke es ist eher einer Speziallösung, die auf bestimmte Anwendungsfälle maßgeschneidert ist.
PS828 schrieb:
CDNA3 hat wohl bis zu 12 HBM3 stacks, da wird einiges möglich sein. hinzu kommt der riesige DRAM pool dahinter. wird die möglichkeiten enorm erweitern und die GPU hängt dann an einem 12288 Bit breitem interface während der CPU teil sicherlich auch seine 12 DDR5 kanäle behält, wird spannend :D
Für mich sind die spannenden Fragen:
  • Können wirklich 12 HBM3 Stacks zu GPU und CPU gepackt werden?
  • Wie greift die CPU auf die HBM3 Speicher zu, indirekt über Infinity Fabric oder einen eigenen HBM-fähigen Memory-Controller?
  • Wird hier tatsächlich ein Vollausbau von Genoa benötigt?
  • Wie wird das Ganze ins System gepackt, anstelle der CPU oder wird es ein OAM Modul?
Für allem stellt sich die Frage, was wird CDNA3?
  • Ein weitere Schritt in Richtung zu noch massiverer FP64-Leistung, und mitnehmen was dabei an Leistung für die anderen Datentypen abfällt
  • Hohe FP64-Leistung beibehalten und massiv bei den 16 und 8 Bit-Datentypen zuzulegen.
 
Zurück
Oben