News Wafer-Abkommen: AMD wird noch unabhängiger von Globalfoundries

Nebula2505 schrieb:
da AMD immer noch den IO-Die im Vanilla 14nm von GloFo fertigen lässt
Laut dem oben verlinkten Tweet von Ian Cutress werden die I/O-Dies in 12nm gefertigt, aber die Chipsets in 14nm. Der Trick dabei ist, dass man die gleiche Maske für beide Prozesse verwenden kann. Bei 12nm sind dann die tatsächlich erzeugten Strukturen minimal kleiner und man hat etwas mehr "Dark Silicon". Das erhöht die Abstände zwischen Komponenten auf dem Chip etwas und man gewinnt etwas thermischen Headroom, der bei Zen+ für die Taktanhebung genutzt wurde.

Nebula2505 schrieb:
Die in 7nm bei TSMC fertigen lässt oder sie ihn in 12nm+ bei GloFo fertigen lassen
Ich kann mir vorstellen, dass X570S der Wechsel von 14nm auf 12nm ist. Das sagt dann aber nichts über die nächsten I/O-Dies. Bei denen wird nach Gerüchten erwartet, dass AMD die Vorteile von 7nm endlich auch dort nutzen will, was dann mit zum Performance-Plus von Zen4 beitragen soll. Außerdem wird wohl das "große" I/O-Die von EPYC auf 7nm wechseln, um Platz für mehr Chiplets zu machen. Für Genoa werden maximal 96 Kerne vermutet.
Ergänzung ()

Beitrag schrieb:
Intel fertigt schon seit mehreren Jahren einige Chipsätze in 14 nm, das machen sie sicher nicht ohne Grund.
Intel macht das primär, weil es deren Butter- und Brot-Prozess ist. Klar, der Verbrauch ist auch geringer, aber der Hauptgrund ist optimale Auslastung der 14nm-Fabs. Beim Fertigungsengpass letztens haben sie ja den H310-Chipsatz sogar extra wieder auf 22nm zurück portiert, um Kapazitäten für die CPU-Fertigung frei zu machen.
 
  • Gefällt mir
Reaktionen: konkretor
Intel wird wohl kaum unnötig eine 14-nm-Fertigung einsetzen, wenn es 22 nm genauso gut tun und billiger sind, da lohnt es sich mehr mit den bereits vorhandenen Geräteschaften die 22 nm Fertigung weiter auszulasten und mehr 14-nm-CPUs herzustellen. Aber vielleicht gab es ja andere interne Gründe, die wir nicht kennen. Ich würde aber nicht ausschließen, dass es designtechnische Gründe hatte.
 
Zuletzt bearbeitet:
Verposted, nutze ich halt für ein Lob: Schöne Diskussion. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: konkretor
Beitrag schrieb:
Intel wird wohl kaum unnötig eine 14-nm-Fertigung einsetzen, wenn es 22 nm genauso gut tun und billiger sind, da lohnt es sich mehr mit den bereits vorhandenen Geräteschaften die 22 nm Fertigung weiter auszulasten und mehr 14-nm-CPUs herzustellen. Aber vielleicht gab es ja andere interne Gründe, die wir nicht kennen. Ich würde aber nicht ausschließen, dass es designtechnische Gründe hatte.
Intel zieht immer ein paar Jahre nach den CPUs die Chipsätze im Node nach, das ist ja auf Jahre hin geplant. Ergibt auch Sinn, normalerweise sind die CPUs dann bereits im nächsten Node und man kann die Kapazitäten des vorherigen Nodes sinnvoll nützen. Das Problem startete dann mit dem 10nm Node, die CPUs konnten nicht wechseln und laut roadmap sind die Chipsätze bereits auf 14nm nachgerückt, die Kapazität aber noch gar nicht frei. Deshalb wurden ja paar Chipsätze in 22nm neu aufgelegt.
 
  • Gefällt mir
Reaktionen: jemandanders, konkretor und rg88
Nixdorf schrieb:
Wenn nur GF seinen 7nm-Prozess nicht damals abgekündigt hätte. Das war wirklich ein Knüppel zwischen AMDs Beine. Das hat dann zu so "kreativen" Nutzungen wie dem X570-Chipset geführt.
Das war AMds Glück. Denn unter anderem das nicht einhalten von Versprechen seitens Global Foundries hat AMd ja immer wieder zurück geworfen...
Intel muss den Arsch hoch bekommen nicht wegen Global Foundries sondern wegen TSCM und Samsung...
 
Eine eigene Chipfertigung ist ein Klotz am Bein, der immer neue Investitionen braucht, während die Fremdfertigung den Druck mindert, auch auf diesem Gebiet konkurrenzfähig zu sein.
Intel hat ein riesiges Portfolio an Produkten, mit denen sie ihre Fertigung problemlos auslasten können und diese auch umschichten, wenn es irgendwo klemmt, während eine Chipfertigung bei AMD mit einem kleineren Portfolio schnell in Schwierigkeiten kommen kann, weshalb sie sie auch aufgegeben haben. GloFo kann dafür breiter fertigen, hat den ganzen Weltmarkt offen für Kunden und ist damit gut aufgestellt und gefragt.
Den Fehlschlag Bulldozer hätte AMD mit eigener Chipfertigung wohl nicht überlebt.
 
deo schrieb:
Eine eigene Chipfertigung ist ein Klotz am Bein, der immer neue Investitionen braucht, während die Fremdfertigung den Druck mindert, auch auf diesem Gebiet konkurrenzfähig zu sein.
Jepp, allerdings birgt die Fremdfertigung auch das Risiko, eigene Wachstumsziele nicht erreichen zu können, weil man einer unter vielen Kunden ist und nicht so viel produzieren lassen kann, wie der eigene Markt abnehmen würde.

Gerade jetzt sieht sich AMD in der Situation, dass sie den Markt der günstigeren CPUs mit den höheren Handelsvolumen wieder zunehmend an Intel verlieren. Natürlich verkauft man lieber die höherwertigen SKUs mit den großen Margen, aber die großen Umsätze werden mit den Modellen für unter 200 USD erzielt.

Es steht jetzt zu hoffen, dass TSMC die eigenen Kapazitäten so weit aufstocken kann, dass nicht nur der Fertiger, sondern auch AMD weiter wachsen kann.
 
  • Gefällt mir
Reaktionen: rg88
Nixdorf schrieb:
Jepp, allerdings birgt die Fremdfertigung auch das Risiko, eigene Wachstumsziele nicht erreichen zu können, weil man einer unter vielen Kunden ist und nicht so viel produzieren lassen kann, wie der eigene Markt abnehmen würde.
Jepp, aber leider ist die Strategie bei AMD nie aufgegangen. Man hatte immer zu wenig Kapazität wenn man gute Produkte hatte und wenn die Produkte ein Fehlschlag waren, musste man die billigst verramschen, weil die Fertigung ja trotzdem ausgelastet werden muss. Das hat also bei AMD nie geklappt diese Theorie.
Die Fabs auszugliedern und agil auf die Nachfrage zu rageieren, indem man mehr oder weniger Kapazitäten einkauft, ist unterm Strich die bessere Lösung, wenn natürlich auch nicht optimal in Situationen wie aktuell, wo alle Kapazitäten überbucht sind. Aber mit eigener Fertigung wäre jetzt immer noch alles bei 12nm FinFET, eingekauft von Samsung. Das wär genauso nach hinten losgegangen wie quasi immer in AMDs Vergangenheit.
 
  • Gefällt mir
Reaktionen: ETI1120
Nebula2505 schrieb:
Was mich jetzt bloß interessiert ist, ob es sicher ist, dass AMD für Zen 4 den IO-Die in 7nm bei TSMC fertigen lässt oder sie ihn in 12nm+ bei GloFo fertigen lassen, da das wahrscheinlich günstiger sein dürfte. Bisherige Gerüchte reden ja von Ersterem
Verwechselst Du da eventuell die fortwährende Wiederholung von Fan-Fiction mit erwähnenswerten Gerüchten aus zitierfähiger Quelle(*)?

(*) im Sinne das derjenige der das Gerücht präsentiert zitiert werden kann
 
  • Gefällt mir
Reaktionen: rg88
rg88 schrieb:
Das hat also bei AMD nie geklappt diese Theorie.
Jup, ich denke wie deo, dass AMD einfach zu klein ist, als dass sich eigene Fabs lohnen. Intel wiederum ist so groß, die fahren mit den eigenen Fabs sicher besser, denke da hat Pat Gelsinger die richtige Strategie angesetzt.
 
  • Gefällt mir
Reaktionen: ETI1120 und Hayda Ministral
rg88 schrieb:
Die Fabs auszugliedern und agil auf die Nachfrage zu rageieren, indem man mehr oder weniger Kapazitäten einkauft, ist unterm Strich die bessere Lösung, wenn natürlich auch nicht optimal in Situationen wie aktuell, wo alle Kapazitäten überbucht sind. Aber mit eigener Fertigung wäre jetzt immer noch alles bei 12nm FinFET, eingekauft von Samsung. Das wär genauso nach hinten losgegangen wie quasi immer in AMDs Vergangenheit.
Wobei "agil" hier auch relativ ist. Waferverträge werden normalerweise schon unterzeichnet, wenn die Foundry ein paar Jahre vorher mit dem Bau der Fabs anfängt. Deswegen fällt es AMD und NVidia auch so schwer, die Produktion zu steigern: Sie sind immer noch an die Kapazitäten gebunden, die sie und ihre Foundries Jahre vor Corona eingeplant haben. Sie sind damit unwesentlich agiler als Intel.
 
Wenn man nicht die vertraglich vereinbarte Menge abnimmt, muss man Strafe an die Foundry zahlen, aber die ist geringer als eine Überkapazität in einer eigenen Fab zu haben, wo man dann auf unverkäuflichen Chips sitzt, die dann komplett abgeschrieben werden müssen und die Fertigung hat immer Fixkosten, die gedeckt werden müssen, auch wenn gerade weniger produziert wird.
 
Andy4 schrieb:
Mein B-Board hat damals 137 Euro gekostet. Sollte ich jetzt glücklich sein, wenn es 237 Euro kostet? Was diese Chipsatzkühler und co angeht: Das sind Cent-Beträge. Man darf sich nicht auf der Nase herrunt tanzen lassen!
Ihr vergesst immer alle, das für PCIe4 & USB 3.1 ff etc. auch jede Menge Signalverstärker benötigt werden, wenn die Wege zu lang werden.
Texas Instruments ruft, Stand letztes Jahr, für seine Redriver in 10.000er Stückzahlen $1,50 per Stück auf. Wenn man dann noch weiß, das jedes verbaute Teil in jedem Produkt idR mit 100% beaufschlagt wird, dann sollte klar sein, wo die Preissteigerungen her kommen. Will ich Schnell & Sofort = Teurer. :-) In 5 Jahren bekommst PCIe4 wieder für´n Appel und nen Ei. Nebenbei sind die Boards durch mehr Layer auch aufwändiger geworden. Kommt noch oben drauf.
matty2580 schrieb:
Schlecht ist dabei, dass TSMC dadurch immer wichtiger und stärker wird.
Und Samsung hat hier niemand auf dem Zettel? Also zumindest der IO sollte doch wohl locker von denen produziert werden können.
Nebula2505 schrieb:
Im Endeffekt wollen wir alle nur einen Chipsatz, der nicht extra Lärmkulisse schafft und den Idle-Vebrauch stark ansteigen lässt
Der Idle Verbrauch ärgert mich auch (etwas). Die Lärmkulisse kannst aber mit einem Passivkühler abschaffen.
Mein WS-X570 läuft mit einem alten, abgeänderten Chipsatzkühler aus P4 Zeiten mit ~59-67°C. Asus hat da so ein ekliges Wärmepad verbaut. Das isoliert mehr, als das es die Wärme weitergibt.
Man muss aber auch ehrlicherweise mal zugeben, das der X570 eine Eierlegende Wollmilchsau ist. ;-)
Wo wird / wurde auf dem Desktop zum damaligen Zeitpunkt, aber auch heute noch, vergleichbares geboten?
Für den gemeinen Gamer etc. sollte der B550 aber sehr locker ausreichen. War halt damals etwas sehr Blöd, das der nicht lieferbar war.

Was die Wafer betrifft, dachte ich, die wären diesen Klotz am Bein schon längst los. gewesen.
Aber gut, besser ein Ende mit Schrecken, als Schrecken ohne Ende (wenn sie noch eigene Fabs hätten).

Was mich aber trotzdem mal interessieren würde:
Wie wurde die Dresdner Fabrik eigentlich zum Klotz am Bein?
Anfang der 2000er haben die Intel noch gezeigt wo es lang geht. Und Ende des Jahrzehnt´s... Nada. Da hingen sie schon zurück.
P.S.
Obwohl- ich kann mir die Frage zum Teil fast selbst beantworten:
Wenn Chipzilla damals nicht die OEM Hersteller und Händler (u.a. Saturn/MediaMarkt) für das nicht verwenden von AMD Chips bezahlt hätte, wären wohl doch noch mehr Mittel (auch) für Prozessentwicklung da gewesen. Mit der Fab in New York hätten sie dann auch endlich die Möglichkeit der Mehrfachnutzung der Anlagen (CPU´s, Chipsätze, etc. im Wechsel gehabt.
 
Hayda Ministral schrieb:
[...] Deren Darstellung: der neue Boss hat entschieden sich erst einmal aufs Geldverdienen zu konzentrieren, was mit 12nm Bulk und 22nm FDX ganz gut funktionieren soll. [...]
Es steht wohl völlig außer Frage, dass der Bedarf auch für die Strukturgrößen nach wie vor groß ist. Viel von dem Automozive Zeug etc. braucht ja keine Kleinststrukturen. Auf vielen Platinen sitzen ja ICs in deutlich gröberen Strukturen.

Das hilft nur AMD nicht, d.h. GF scheint die Zielkundschaft zu ändern. Legitim sich auf das profitabelste zu konzentrieren - hoffentlich nicht zulasten der Zukunft.
Ergänzung ()

rg88 schrieb:
Komplett weg. Was hat der ungenutzt im Chipsatz zu suchen?
Ach du redest vom Chipsatz, nicht vom IO-Die.

Da man die Dinger ja elektrisch abtrennen kann (der läuft ja nicht die ganze Zeit mit), gewinnst du Waferfläche, beim Verbrauch hilft dir das aber nicht.
 
Zuletzt bearbeitet:
Zurück
Oben