News KI-Beschleuniger MI450: AMD geht mit 2 nm „All-In“, Nvidia Rubin nutzt noch 3 nm

Volker schrieb:
Aber Fabs bauen dauert eben. Jahre. Deshalb ist es wahrscheinlich, dass AMD so eingies bei N3 lässt und mehrgleisig fährt, wie zuletzt. Alles andere ist schlichtweg nicht machbar.
Dafür schließt man Wafer Supply Agreement Jahre im voraus ab.

Durch den Chiplet Ansatz benötigt AMD nur einen kleinen Teil der Chips im neuesten Node.

Offensichtlich hat AMD die Kapazität für den Deal mit OpenAI schon eingekauft.

Das AMD die monolithischen APUs und Gaming GPUs in N3P fertigen lässt ist es klar.

MichaG schrieb:
Artikel-Update: Laut dem Insider „Kepler“ wird bei MI450 der N2P-Prozess mit 2 nm nur für den „Accelerator Core Die“ (XCD) verwendet. Für den „Media Interface Die“ (MID) und den „Active Interposer Die“ (AID) kommt wiederum weiterhin N3P mit 3 nm zum Einsatz.
Was im Grunde nichts neues ist. Bei den MI300 etc war der AID in N6.

Wir werden sehen was früher kommt. Zen 6 oder die Verkündigung dass die HBM HVM von N2P begonnen hat.

Bei N3 kam die Ankündigung zu Weihnachten 2022 und das erste Produkt war das iPhone von 2023
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CDLABSRadonP... und feris
Die einzelnen Chiplets sind ja nicht so riesig und obendrein hat AMD ja viele N2-Wafer für 2026 bestellt.
Botcruscher schrieb:
Oh, oh, oh, das wird teuer. Ich sehe Anfang 2027 zum Start von Zen6 schon die langen Gesichter. Das wird noch berauschender als der Failstart von Zen5.
Wieso sollte das ein Automatismus sein? Wenn die DIEs klein genug sind, dann werden sie trotzdem günstig. Und bislang klingt es, mit N2 als Grundlage, nun wirklich nicht nach einem RiesenDIE.
Ganz abgesehen davon, dass ich nach wie vor von N3P oder N3X für die Venice-DIEs und N2 nur für Venice Dense ausgehe.
Ergänzung ()

Volker schrieb:
Ja du brauchst aber eben auch schnell hundertausende Chips, schau doch an wie viele die Epycs brauchen. Bisher war es Menge durch 12 oder 16, dann hast die Anzahl der Prozessoren. 100.000 Zen-CCDs reichen so im krassesten Fall nur für 6.250 Prozessoren. Der neue CCD soll aber mehr als doppelt so groß werden, dann aber eben auch 32 Kerne fassen, jedoch auf 175 mm² statt 75 mm². Klar brauchst du dann nur noch 8 Stück für 256 Kerne, ist aber eben auch nicht mehr einfach und geilste Ausbeute wie bei 75 mm², weil 2,4 mal so groß.

Insinct-Dies werden sicherlich noch größer, noch kennt keiner den genauen Aufbau.

Zusammengefasst ist es am Ende eben nicht so, dass AMD nicht auch viele zehntausend Wafer braucht^^
Mit dem Die-Calculator kann man hier bissel rumspielen: https://semianalysis.com/die-yield-calculator/
Mal für hypotetisch Zen 6 CCD von 180 mm² gemacht, da bleiben 268 gute Dies, macht 33 komplette Epyc-CPUs pro Wafer. Und Wafer haben eben auch eine Durchlaufzeit, die Maschinen beschränkte Kapazitäten usw. Schnell sind so Monate vergangen, und packen muss man die ja auch noch dann.

Anhang anzeigen 1664212

Und A16 ist ein Jahr später. Hochfahren Ende 2026 heißt Produkte ab Mitte 2027 vermutlich.
Wieso sollte ein Venice-DIE in N2 so riesig sein? Es sollte eher kleiner die aktuellen CCDs ausfallen.
 
Steht doch da, er hat doppelt so viele Kerne, dafür braucht es dann aber eben nicht mehr 16 sondern nur noch 8 pro Prozessor. Also der von Venice Dense, der imo auch als einziges erstmal in N2 kommen wird. Er wechselt ja von N3, da gewinnst du flächenmäßig nicht viel, könnte aber bei der Leistungsaufnahme mit den vielen Kernen helfen, 32 pro CCD sind eben auch wieder eine andere Liga als es bisher gab.

Venice classic macht da letztlich sogar den größeren Sprung von N4(P) auf N3P oder gar N3X, da springt man mal direkt über N3, N3B, N3E (und N3P).
 
Zuletzt bearbeitet:
ElliotAlderson schrieb:
"Design verkackt" ist eine absolute Aussage.
Klar ist das eine absolute Aussagen, aber ich würde damit im allgemeinen auch mal entspannter umgehen. Wir sind in einem Forum und in dem drücken sich die Menschen teilweise auch mal direkter aus. Tun sie auch privat manchmal.

Es ist an so einer Stelle gelegentlicht besser, wenn man einfach mal gar nichts sagt oder schreibt, oder mal nach fragt, was denn die Person meint. Du glaubst nicht, wie effektiv es manchmal ist, jemanden zu schreiben, warum er denn meint, warum Nvidia es verkackt hat. Damit bringst du die Person in die erklärende Rolle und machst dich nicht angreifbar.
ElliotAlderson schrieb:
Wenn ich etwas verkackt habe, dann lässt sich daran nichts mehr ändern, wenn ich es aber ändern kann, hab ich nichts verkackt!
Na ja, wenn ich eine Programmierung oder hier eine Systemumzug verkacke, dann kann ich das durchaus noch ändern und nacharbeiten. Ich hab letzte Woche auch was verkackt, weil ich das falsche Kabel mit genommen hatte. Ist halt polemisch ausgedrückt gewesen, ich hab mich aber auch geärgert.
ElliotAlderson schrieb:
Und gerade während der Entwicklung/Produktion treten immer Probleme auf.
Klar treten immer Probleme auf, so etwas ist in der Regel allerdings auch eingeplant in den Produktzyklen. Das was jetzt bei Nvidia bei Blackwell passiert ist, war so jedoch nicht eingeplant und hat Ressourcen länger gebunden als benötigt.

Klar, es hat vielleicht nicht die gleiche Auswirkung wie bei Intel damals mit dem 10nm/Intel 7, jedoch kann sowas auch kritischer werden. Und auch wenn Nvidia Marktführer ist, Nvidia gerät quasi an allen Enden unter Druck, weil sich viele Software-Firmen das Gehabe von Nvidia nicht mehr so gefallen lassen, wie noch vor 10 Jahren.

Und solche Verzögerungen können dann einen Stein ins Rollen bringen. Am Anfang nur sehr wenig, jedoch kann das immer mehr werden.
ElliotAlderson schrieb:
Laut der Logik verkackt alles und jeder, das solltest du mit am besten wissen.
Klar verkacen wir alle immer wieder mal. Fehler sind Menschlich. Der erste Weg zu einer guten Fehlerkultur ist, dass man darüber sprechen kann und der zweite Weg ist, dass man aus diesen Fehlern lernt.

Ich bin echt bemüht nicht mit Klischess zu arbeiten, aber mir fällt gerade in Deutschland immer auf, dass Fehler immer irgendwie etwas schlimmes sind und keiner auch nen Fehler eingestehen will. Ganz seltsame Fehlerkultur hier.
ElliotAlderson schrieb:
Der Typ will hier doch wieder nur haten.
Wollen wir nicht alle nur ein bisschen haten. ;) Glaub mir, du hast hier genug Leute, die genau wissen, wie etwas gemeint ist und damit umgehen können. Wenn es grober Unfug wird, kommt immer einer vor bei, der das richtig stellen wird.

So lenkst du teilweise einfach nur unnötige Aufmerksamkeit auf so etwas. Streissand-Effekt.
 
  • Gefällt mir
Reaktionen: CadillacFan77, eXe777, SweetOhm und eine weitere Person
Volker schrieb:
Weil sie insgesamt keine freie Kapazität von N3 und darunter haben. Deshalb bauen sie neue Fabs, rüsten sogar N5 auf N3 um, wo es denn geht. Und die meisten Kunden sind eben noch gar nicht bei N3 angekommen, deshalb gibt es keine Möglichkeit davon irgendwas zu N2 zu machen. Wenn Apple von N3 zu N2 wechselt, dann rückt erstmal viel zu N3 auf. Hilft N2 aber nicht :D

Aber Fabs bauen dauert eben. Jahre. Deshalb ist es wahrscheinlich, dass AMD so eingies bei N3 lässt und mehrgleisig fährt, wie zuletzt. Alles andere ist schlichtweg nicht machbar.
AMD setzt nicht ohne Grund so massiv auf Chiplets.
Die Chefin von AMD hat einige ihrer ersten Brötchen in der Chipfertigung/Forschung verdient.
 
Volker schrieb:
Weil sie insgesamt keine freie Kapazität von N3 und darunter haben. Deshalb bauen sie neue Fabs, rüsten sogar N5 auf N3 um, wo es denn geht. Und die meisten Kunden sind eben noch gar nicht bei N3 angekommen, deshalb gibt es keine Möglichkeit davon irgendwas zu N2 zu machen. Wenn Apple von N3 zu N2 wechselt, dann rückt erstmal viel zu N3 auf. Hilft N2 aber nicht :D

Aber Fabs bauen dauert eben. Jahre. Deshalb ist es wahrscheinlich, dass AMD so eingies bei N3 lässt und mehrgleisig fährt, wie zuletzt. Alles andere ist schlichtweg nicht machbar.
Danke... ich habs leider immer noch nicht ganz verstanden warum man die vorigen EUV Prozesse (N7, N5) nicht auf N2 umrüsten kann, weil - auch wenn etwa andere Tools benötigt werden - es müssten doch die gleichen EUV Scanner zumindest sein... also die Frage ist, kann man die nicht verwenden... oder meinst du die sind alle noch in Verwendung weil man ohnedies mit N7/N5 ausgelastet ist und man bekommt gerade keine "frei" für N2?
 
BAR86 schrieb:
Danke... ich habs leider immer noch nicht ganz verstanden warum man die vorigen EUV Prozesse (N7, N5) nicht auf N2 umrüsten kann, weil - auch wenn etwa andere Tools benötigt werden - es müssten doch die gleichen EUV Scanner zumindest sein... also die Frage ist, kann man die nicht verwenden... oder meinst du die sind alle noch in Verwendung weil man ohnedies mit N7/N5 ausgelastet ist und man bekommt gerade keine "frei" für N2?

Ja die begleitenden Tools sind total wichtig, und die sind dabei auch neuer und für GAA abgestimmt. Man redet zwar immer gern von den EUV-Maschinen, als Aushängeschild, aber die sind von der Stückzahl her das wenigste in der Fab am Ende. Schau mal was LAM, KLA, ASM, ASML, Applied, Tokyo Electron usw bauen, all diese Gerätschaften sind da auch. Und in fünf Jahre alten Fabs, wie sie mal für N5 gebaut wurden, passt das zu N2 dann vermutlich an vielen Stellen nicht mehr. Für N3 hatte TSMC mal gesagt, gäbe es indes genügend Gemeinsamkeiten mit N5, da geht was.

Deshalb verfolgt TSMC seit nun knapp zehn Jahren eben immer den Ansatz: Für eine (echte) neue Fertigungsstufe bauen wir eine neue Fab. Ob dann irgendwas umgerüstet werden kann, ist quasi Bonus.
 
ETI1120 schrieb:
Wenn das Chipdesign nicht funktioniert wie erwartet, wie soll man es anders nennen?
Seid ihr, @ETI1120 und @ElliotAlderson , euch eigentlich einig ob ihr unter dem Begriff "Design" den Entwicklungsprozess als Vorgang oder das fertige, in Produktion gehende "Design" meint? Das Wort gibt beides her...
 
"Nvidia Rubin nutzt noch 3 nm"

Dafür gibt nur einen "logischen" Grund : höhere Marge !! :smokin:
 
  • Gefällt mir
Reaktionen: Alesis
empower schrieb:
Die AI Software von AMD soll Horror sein. AMD kaufst du nur, wenn du nicht an Nvidia ran kommst.
Horror ist genau so ein Brainwashing Gelaber ohne jegliche Fakten/Belege/Quellen ... :freak:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777, Orok91 und Alesis
ETI1120 schrieb:
Diese Roadmap passt nicht zur Gerüchtelage.
Das ist die aktuellste und seriöseste die bekannt ist. (3dcenter)
 
Grumpy schrieb:
Es wird ja manchmal angenommen, dass endlos viel Geld in KI gesteckt wird, aber bis heute nicht 1 Cent damit verdient wird.
Nein, dass ist eine Übersimplifizierung deiner Seite, die so nie von mir und anderen die eine ähnliche Argumentation wie ich fahren aufgestellt wurde.

Leute wie ich weisen darauf hin, dass es zwar Einnahmen gibt, diese aber in keinstem Fall im Verhältnis zu den Ausgaben stehen: möchtest du mal nachrechnen, wie viele Dekaden es bei einem Wachstum von sagen wir mal suuuuper optimistisch 20% pro Jahr bräuchte damit sich auch nur EINE "KI" Firma nur für die aktuell schon angefallenen Kosten gegen finanzieren kann?

Und da waren wir noch nicht bei den immer weiter steigenden Ausgaben, die eine solche Milchmädchen Rechnung noch sinnloser macht oder beim Fakt dass es bisher keine einzige Studie gibt, die auch nur ansatzweise einen Produktivitäts-Gewinn bei Firmen die "KI" einsetzen zeigen konnten. Oder eine Studie, die darauf hindeutet, dass Menschen "KI" Produkte überhaupt kaufen wollen.

Und dann waren wir noch nicht dabei, dass ALLE "KI" Anbieter massiv Rechte verletzten und eigentlich Mrd. über Mrd. extra an Urheber zahlen müssen...

Grumpy schrieb:
Wird die KI sowas wie Smartphones/Streamingdienste/Internetanschlüsse?
Für sowas wirst du quasi unmöglich eine logische Argumentation aufstellen können, die ein LLM plötzlich so essenziell macht wie einen Internetanschluss oder ein Smartphone. Streaming-Anbieter gehören in die Aufzählung aber nicht rein, da sie nicht ansatzweise die gleiche Kategorie sind.

Alles was ein LLM kann, kannst du durch ne Suche oft ebenfalls. Oder durch ein Grammatik Tool oder oder oder. Ein LLM ist kein "Magic Tool", was plötzlich nicht vorher existierende Probleme erzeugt und löst.

Aktuell ist die Industrie aber noch in der Phase "habe Hammer der alles irgendwie ein Bisschen kann, suche Nagel".

Grumpy schrieb:
Etwas wovon man ausgehen kann, dass diese in einem Standardhaushalt vorhanden sind, genutzt und auch bezahlt werden, oder bleibt es lediglich bei paar % die tatsächlich den Premium-Service nutzen und zahlen?
Selbst unter der Annahme, dass es deutlich weiter verbreitet wird, muss man dich auf die Probleme von oben verweisen, speziell der Punkt "etlicher Zeitraum" ist hier essenziell.

Grumpy schrieb:
Da wird sich das entscheiden.
Es wird sich eher daran entscheiden ob die Firmen ihre Kosten so massiv senken können, dass eine Refinanzierung in etlicher Zeit möglich ist.

Aktuell sieht es nicht danach aus, weil die Modelle schlicht zu groß und zu ineffizient sind. Aber rein theoretisch wären Business Modelle hier denkbar, bei denen kleinere und viel speziellere und effektivere Modelle zum Einsatz kommen.

Was auch der Grund ist, wieso Leute wie ich genau dort den eigentlichen finanziellen Sinn von "KI" sehen, da man solche Modelle günstiger entwickeln, betreiben, genauer vermarkten sowie mit besseren Resultaten versehen kann.

Gutes Beispiel hier sind Modelle z.B. zur Erkennung von Hautkrebs: diese sind deutlich genauer (unter der Bedingung, dass du weiß bist) als es jedes LLM jemals werden kann mit einer ziemlich kleinen Anzahl an False-Negatives, was sie zu einem sehr guten Früh-Diagnose Tool macht.

Grumpy schrieb:
Sollten KI-Service-Dienste es schaffen ein "Standard" in normalen Haushalten und Unternehmen zu werden (mit bezahlen), dann wird die Blase nicht so schnell platzen oder wenn überhaupt nur kurz Luft ablassen.
Wie oben geschrieben ist dass "sollte" quasi inexistent, zumindest für die Form der "KI", die dir aktuell verkauft werden soll, da es dort einfach zu viele Probleme mit dem Business-Modell gibt.

Grumpy schrieb:
Und dieses "Peng" wird niiiemals dafür sorgen, dass es KI einfach nicht mehr gibt.
Was auch keiner behauptet.

Wir weisen eher darauf hin, dass es aktuell wirtschaftlich nicht danach aussieht, dass "KI" so wie sie aktuell existiert so haltbar ist (selbst wenn wir ignorieren, dass sie auf Basis von Ultra-Großflächigen Raubkopien basieren). Und da sind nicht nur IT Interessiere wie ich der Meinung, große Banken aus DE oder GB sehen es ganz genau so.

Der "Peng", wie du ihn beschreibst, wird kommen. Was anders ist geschichtlich (Dot-Com-Blase, Immobilien-Blase, Crypto-Blase...), technisch sowie logisch quasi ausgeschlossen. Es wird am Ende eigentlich nur die Frage, welche Firmen es mitreißt, welche es überleben und wer die Leidtragenden werden.


Oder TLDR für alle die dass oben nicht lesen wollen: "KI" ist gekommen um zu bleiben sicher...
Aber halt nicht in der Form wie sie jetzt Mrd. pro Woche verschlingt und dabei selbst unter besten Wachstums-Annahmen dann niemals in etlicher Zeit Gewinne generieren kann.



PS: Du darfst dir auch gerne mal die Aussagen von Altman zum Thema Refinanzierung anschauen. Er sagt ja selbst auch sehr offen, dass es keinerlei Pläne gibt, wie dass jemals passieren könnte... Was wirtschaftlich gesehen so eher semi gut ist.
 
Volker schrieb:
Steht doch da, er hat doppelt so viele Kerne, dafür braucht es dann aber eben nicht mehr 16 sondern nur noch 8 pro Prozessor.
Der Knackpunkt sind aber die 128 MByte L3-Cache. 32 Kerne mit so viel SRAM braucht sehr viel Die-Fläche. Auch mit den 20 bis 25 % Shrink wird der Die IMO mindestens doppelt so groß.
Volker schrieb:
Also der von Venice Dense, der imo auch als einziges erstmal in N2 kommen wird.
AMD kündigt Venice in 2 nm an. Turin war als 4 und 3 nm angekündigt.

Volker schrieb:
Venice classic macht da letztlich sogar den größeren Sprung von N4(P) auf N3P oder gar N3X, da springt man mal direkt über N3, N3B, N3E (und N3P).
AMD braucht viel SRAM und da ist der Sprung von 4 auf 3 nm nicht sonderlich groß.
 
  • Gefällt mir
Reaktionen: Volker
Volker schrieb:
Weil sie insgesamt keine freie Kapazität von N3 und darunter haben. Deshalb bauen sie neue Fabs, rüsten sogar N5 auf N3 um, wo es denn geht. Und die meisten Kunden sind eben noch gar nicht bei N3 angekommen, deshalb gibt es keine Möglichkeit davon irgendwas zu N2 zu machen. Wenn Apple von N3 zu N2 wechselt, dann rückt erstmal viel zu N3 auf. Hilft N2 aber nicht :D
du vergisst aber auch das, TSMC die letzten 2Jahre eben nicht ausgelastet war und dennoch weiter gebaut hat Q3/22 hat TSMC 3,9Mil Wafer belichtet und 28% Umsatzanteil 5nm, 3 gab es noch nicht, zwei war schon in der Planung/Aufbau 7nm aber noch mit 26% dabei, was der letzte ohne EUV war, die alten Prozesse 16nm und älter hatten zusammen noch einen Umsatz Anteil von 46%, heute machen 7nm und besser nur noch 40% aus und da die alten Prozesse günstiger sind brauchen sie mehr Wafer um Umsatz zu generieren.
Ein Chip in 28nm oder 7nm herzustellen ist teurer aber benötigt für die selbe Leistung auch weit weniger Wafer. TSMC kann also den Kunden die keinen guten Prozess benötigen und nur auf die Kosten schauen entsprechend anpassen, damit macht man eine Fab die mal für 65nm gebaut und genutzt wurde frei, verkauft die alten Maschinen und kann diese mit neuen ausstatten. Und TSMC sagte selbst das sie 80% des 5nm Equipments weiter nutzen können, sprich das Hochfahren von 2/3nm sollte schneller gehen wie noch auf 5nm wo eben viel mehr neu angeschafft werden musste wie bei 7nm. Und das sie sagen das sie ausgelastet sind ist klar, so muss es sein um Profit zu machen, wenn die Kunden aber entsprechend bestellen werden sie auch beliefert. Und bestellt haben nun alle für die nächste Zeit Nvidia hat seine Bestellungen seit Q4 nicht mehr erhöht AMD hingegen verdoppelt bis zu den letzten QZahlen
Waren Nvidias Abnahme Verpflichtungen im Q4 noch 10x so hoch sind sie es nur 6Monate späte nur noch 5x so hoch
 
  • Gefällt mir
Reaktionen: SweetOhm
SweetOhm schrieb:
Horror ist genau so ein Brainwashing Gelaber ohne jegliche Fakten/Belege/Quellen ... :freak:
achso, ja dann glauben wir natürlich den medienberichten die du gepostet hast ;)
mir is es ja egal, ich kauf keine AMD AI hardware und software.
 
Zurück
Oben