News Zen-5-Prozessor: Samples von AMD Eypc 9005 „Turin“ im Umlauf

Ist eigentlich schon absehbar ab welchem Fertigungsschritt 16 Cores oder min. 12 Cores auf einem Chiplet passen? Ein 11800x mit 16 Kernen auf einem Chiplet und 3D Cache für alle Cores dann würde mir z.B. auch sehr gefallen. Der größte Vorteil vom Cache ist für mich die Effizienz. Mehr Leistung und weniger Verbrauch in dieser Menge durch einen Cache ist schon sehr geil.

Oder ist geplant das es bei 8 Kernen dauerhaft bleibt und das Chiplet dann einfach kleiner wird?
 
Alesis schrieb:
Nicht Intel, sondern die Teile, welche bei TSMC gefertigt werden. Meteor ist deswegen nicht gekommen, weil Intel nicht auf dem Weg ist.+
Kann gut sein, aber drauflosspekulieren möchte ich auch nicht (bzw spekulieren schon, aber ich werde es nicht als Fakt deklarieren): also ich habe Ende 2021 zwar ein funktionierendes Sample von MTL gesehen und dennoch weiß ich nicht, woran es letztlich lag.
Fehler im Design? Massenfertigung bei Intel? Massenfertigung/Packaging bei TSMC? Wir wissen es nicht.
Sapphire Rapids hatte ja auch massive Probleme/Verspätungen
Alesis schrieb:
Wäre Coffe Lake in 10nm gekommen, hätten wir eher kein AMD mehr. Doch überraschend konnte sogar GloFo 14nm ganz gut gegen Intels ausgereizte 14nm bestehen.
Angenommen Intels Pläne hätten gehalten hätten wir natürlich trotzdem Zen erlebt, aber das wär halt dann eher im unteren Preissegment zu suchen.
Ergänzung ()

foofoobar schrieb:
Bisher legt AMD jedenfalls nicht für jedes weitere Feature eine eigene und teurere SKU auf.
Oder bringt wie Intel Chips raus denen lange etablierte Features (64Bit, AVX) auch komplett fehlen, also nicht per Sicherung abgeschaltet.
welchem aktuellen Intel Chip fehlt denn AVX und 64 Bit?
Und du hast auch bei AMD teilw Features die nicht aktiv sind
 
CDLABSRadonP... schrieb:
Der Hauptgrund ist nach wie vor, dass die Dual-CCD-V-Cache-Prototypen im Desktopbetrieb nicht vernünftig mit dem Cache umgehen konnten. Sie nahmen sich gegenseitig Cache weg.
Erzähl mir mehr darüber.

Wieso passiert das nicht bei den CPUs für Server mit Extra-Cache?
Warum passiert das erst mit dem Extra-Cache?
 
  • Gefällt mir
Reaktionen: M11E
Ayo34 schrieb:
Ist eigentlich schon absehbar ab welchem Fertigungsschritt 16 Cores oder min. 12 Cores auf einem Chiplet passen?
Ja. Jetzt. Zen 4c ist schon ein 16-Core CCD und es wäre auch fertigungstechnisch überhaupt kein Problem, 16-Core CCDs für die großen Kerne zu produzieren, die Chipfläche wäre immer noch deutlich kleiner als bei Mainstream-GPUs aus der gleichen Fertigung. Das ist also nicht von der Fertigung abhängig, sondern von der Marktsegmentierung und der Architektur. Da bei Zen 4 (und offenbar auch Zen 5) ein Core Complex aus 8 Cores besteht macht es absolut Sinn, sowas in 8er-Schritten zu produzieren, 12 Cores auf einem Chiplet würde also keinen Sinn machen.

Und dann kann man einfach festhalten: 6 bis 8 Kerne sind der absolute Mainstream, es macht also Sinn, 8-Kern-CCDs zu produzieren, da bei einem 16-Kern CCD sonst (mehr als) die Hälfte des Chips deaktiviert werden müsste. Man kann jetzt spekulieren, ob AMD den CCX irgendwann vergrößert und dementsprechend auch den CCD, oder ob wir irgendwann an den Punkt kommen, dass 12/16 Cores der Mainstream sind und AMD dann einen Grund hat, 2 CCX auf einen CCD zu packen. Beides wäre aber frühestens bei Zen 6 überhaupt ein Thema.

foofoobar schrieb:
Wieso passiert das nicht bei den CPUs für Server mit Extra-Cache?
Warum passiert das erst mit dem Extra-Cache?
Cache und dessen Nutzung ist immer ein Fall von Wahrscheinlichkeiten und gewissermaßen ein Lottospiel. Wie sich da was auswirkt hängt stark von der jeweiligen Anwendung und dem Scheduling ab. Ob man von mehr Cache profitiert muss man letztlich testen, und da scheint AMD wohl entsprechende Ergebnisse gesehen haben. Den Fall, dass sich ein CCD Daten vom Cache des anderen CCD holt gibt es auch bei den bestehenden CPUs ohne V-Cache, es kommt nur durch den kleineren Cache seltener vor, dass noch entsprechende Daten auf dem "falschen" CCD liegen.
 
BAR86 schrieb:
welchem aktuellen Intel Chip fehlt denn AVX und 64 Bit?
Die Intel-Dinger mit den zusätzlichen kleinen Cores können kein breites AVX oder gar kein AVX.
64-Bit gab es auch total spät überall bei Intel.
https://en.wikipedia.org/wiki/Tremont_(microarchitecture) kann auch kein AVX.
BAR86 schrieb:
Und du hast auch bei AMD teilw Features die nicht aktiv sind
Ist mir bisher nicht aufgefallen, hast du ein Beispiel?
Ergänzung ()

stefan92x schrieb:
und da scheint AMD wohl entsprechende Ergebnisse gesehen haben.
Also ist das eine reine Spekulation deinerseits?
 
foofoobar schrieb:
Erzähl mir mehr darüber.
Grundsätzlicher Link steht schon in diesem Posting:
CDLABSRadonP... schrieb:
Hier findest du eine Erwähnung aus diesem Jahr:

Alverson and Mehra didn’t disclose AMD’s exact reasons for not shipping out 12-core and 16-core Ryzen 5000X3D CPUs, however, they did highlight the disadvantages of 3D-VCache on Ryzen CPUs with two CCD, since there is a large latency penalty that occurs when two CCDs talk to each other through the Infinity Fabric, nullifying any potential benefits the 3D-VCache might have when an application is utilizing both CCDs.

Gab auch schon frühere ähnliche Statements.
https://www.tomshardware.com/news/amd-shows-original-5950x3d-v-cache-prototype
foofoobar schrieb:
Wieso passiert das nicht bei den CPUs für Server mit Extra-Cache?
Ziemlich sicher passiert das auch. Nur ist Gaming eben ein Sonderfall. Gute Durchschnitts-Latenzen, aber miese Worst-Case-Latenzen sorgen für ein mieses Ergebnis. Für Serveranwendungen zählen die Durchschnittslatenzen viel mehr.
(deshalb war auch dort der Wechsel von Zen 2 zu Zen 3 --- der ja stark die Durchschnitts-Core2Core-Latenzen reduziert hat, doch insbesondere die WorstCaseLatenzen noch stärker --- lohnenswert, aber weniger stark als beim Gaming)
foofoobar schrieb:
Warum passiert das erst mit dem Extra-Cache?
Damit sollte auch das abgeklappert sein, oder?
 
foofoobar schrieb:
Die Intel-Dinger mit den zusätzlichen kleinen Cores können kein breites AVX oder gar kein AVX.
64-Bit gab es auch total spät überall bei Intel.
Intel hatte damals ja bereits eine x64 Architektur und wollte keine 2. Parallel anbieten, deshalb lange die bewusste Trennung des Marktes, während AMD das dann gleich bei allen Athlon 64 implementiert hat, allerdings hatte man sehr wohl noch die Semprons parallel, die waren AFAIR lange 32 Bit.
Soweit mir in Erinnerung kann man mit Alder Lake und Raptor Lake kein AVX 512, aber schon andere AVX Befehle.
In Zukunft wird da AVX10 kommen

foofoobar schrieb:
ja die E.-Cores können nur beschränkt AVX
foofoobar schrieb:
Ist mir bisher nicht aufgefallen, hast du ein Beispiel?
ad hoc nicht, müsste ich nachschauen. Aber wir hatten das immer mal wieder, dass gewisse Features nur mit bestimmten Chipsätzen wollten etc.
Bei AMD gibts AVX512 soweit ich weiß auch erst seit Zen 4, das gabs früher bei Intel schon seit ca 2013
 
DevPandi schrieb:
Nein, das wage ich zu bezweifeln. Komplett Neu wäre das ein vollständiges Re-Design, das ist mehr als unwahrscheinlich.
Wenn Du mit vollständigen Re-Design meinst, das alles von Grund auf neu gemacht wird, dann natürlich definitiv nicht. Aber in diesem Sinn war auch Zen kein Redesign will sehr viel Code von Bulldozer wiederverwendet wird.

AMD sagt Zen 1, Zen 3, Zen 5, ... sind Re-Designs und Zen 2, Zen 4 und Zen 6 sind Optimierungen. Wobei der Umbau in der FPU von Zen 4 schon heftig war.

Jim Keller war in seinem Interview bei anandtech (2021) über diese Aussage verwundert. Und hat das mit Bulldozer und Zen erwähnt.

Im Mike Clark hat ein halbes Jahr später erklärt, was darunter zu verstehen ist.
Es geht darum die grundlegenden Parameter der Architektur zu prüfen und gegebenenfalls zu anzupassen.

DevPandi schrieb:
Eine wirklich komplett neue Architektur ist ein sehr hohes Risiko, das geht keiner mehr ein.
Solange man Verbesserungspoptential in der aktuellen Architektur sieht natürlich nicht. Aber manchmal erkennt man dass man einen neuen Weg gehen muss. Wenn's dann klappt wird man gefeiert (386, Core, Athlon, Athlon 64, Zen) wenn nicht klappt (Itanium, Pentium 4, Bulldozer) ...
Ergänzung ()

CDLABSRadonP... schrieb:
Was (die Auslegung von Zen5C auf V-Cache-los) aber ein Fehler wäre. Denn mit eingeplantem V-Cache ließe sich noch mehr Cache aus den eigentlichen DIEs schmeißen und sie damit weiter verschlanken, gleichzeitig die Effizienz noch weiter steigern.
Das Problem dabei ist, dass Hybrid Bonding einerseits Geld kostet und andererseits müssen die Fertigungskapazitäten bereitstehen jedem CPU-Kern einen Cache-Deckel zu verpassen. Was macht man mit den Zen 5c Kernen in den Hybrid-APUs?

Was natürlich nicht heißt, das es nie kommt, aber so schnell (Zen 5, Zen 6) würde ich es nicht erwarten.
Sam Naffziger gibt diesen Ausblick auf die Zukunft.

pasted_image035.png


Zur Einordnung die MI300 ist "IP on IP" mit "Cores on Uncores"

Was Du meinst findest Du unter Macro on Macro.

Bei CFET das bei allen die noch mitspielen auf der Roadmap spielt wurde auch 3D stacking erwogen, aber so wie ich es sehe bauen sie die Türme mit dem Prozess. Somit ist Circuit Slicing AFAIU eher von theoretischer Natur.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Col. Jessep, Krik, LamaMitHut und 2 andere
@ETI1120
Wie so oft ein sehr spannender Beitrag. Ich sehe den Bezug zu meinen Vorschlägen allerdings nicht ganz --- hast du tatsächlich auch meine Folgekommentare gelesen oder war es nur Spekulation, was ich meine, auf Basis meines ersten Kommentares?
ETI1120 schrieb:
Das Problem dabei ist, dass Hybrid Bonding einerseits Geld kostet und andererseits müssen die Fertigungskapazitäten bereitstehen jedem CPU-Kern einen Cache-Deckel zu verpassen. Was macht man mit den Zen 5c Kernen in den Hybrid-APUs?
Die haben doch ohnehin reduzierten L3-Cache...
...würde also beide Varianten näher aneinander rücken.

Ich schlage ja nicht vor, den L3-Cache rauszuschmeißen.
 
BAR86 schrieb:
Wär Intel nicht Jahre zu spät mit den Prozessen (10nm in 2016, 7nm AKA "Intel 3" in 2018)
Die Frage ist, ob der Zeitplan jemals realistisch und nicht einfach Hybris von Intel war. Mit Intel 3 bereits in 2018 wäre man TSMC ganze 5 Jahre zuvorgekommen, eine halbe Ewigkeit im Halbleiterbusiness. Ich denke die anderen Halbleiterfertiger haben die Verlangsamung des Fortschrittes einfach realistischer eingeschätzt, vielleicht wäre Intel noch 1-2 Jahre voraus (wie man es ja auch prä 10nm wär) wenn man sich nicht derart übernommen hätte, aber niemals 5 Jahre
 
  • Gefällt mir
Reaktionen: Hate01
guggi4 schrieb:
Die Frage ist, ob der Zeitplan jemals realistisch und nicht einfach Hybris von Intel war. Mit Intel 3 bereits in 2018 wäre man TSMC ganze 5 Jahre zuvorgekommen, eine halbe Ewigkeit im Halbleiterbusiness.
An sich richtig, allerdings muss man auch sagen, dass Intel zu dem Zeitpunkt wirklich rund 3 Jahre vor TSMC war.
 
Ayo34 schrieb:
Ist eigentlich schon absehbar ab welchem Fertigungsschritt 16 Cores oder min. 12 Cores auf einem Chiplet passen?
Also ich sehe jetzt nicht den Trend dass die CCD kleiner werden:
Zen 2 : 74 mm²
Zen 3 : 80,7 mm²
Zen 4 : 72 mm²

Das fatale ist, dass nach 5 nm auch das SRAM nicht mehr skaliert.
Und die Kerne bekommen mehr Transistoren. Bei Zen 4 hat sich auf der Integerseite nicht so viel getan, dafür aber in der FPU.
Ayo34 schrieb:
Ein 11800x mit 16 Kernen auf einem Chiplet und 3D Cache für alle Cores dann würde mir z.B. auch sehr gefallen. Der größte Vorteil vom Cache ist für mich die Effizienz. Mehr Leistung und weniger Verbrauch in dieser Menge durch einen Cache ist schon sehr geil.
Die Effizienz bei 16 Cores auf einem CCS steigt aber nur dann, wenn alle 16 Cores in einem CCX ist.
Wenn es 2 CCX sind werden sie im IOD gekoppelt. Ich denke nicht dass AMD von dieser Praxis abrückt.

Ayo34 schrieb:
Oder ist geplant das es bei 8 Kernen dauerhaft bleibt und das Chiplet dann einfach kleiner wird?
Das CCD wird über die Generationen wie ich oben gezeigt habe nicht kleiner.

Bei Zen 5 hat AMD angekündigt, dass das issue breiter wird. Also wird es wieder einen deutlichen Zuwachs an Transistoren und damit an Fläche geben. Falls das CCD in N4P gefertigt wird, wird das CCD größer. Falls das CCD in N3E gefertigt wird, werden wir sehen was überwiegt, der Zuwachs an Transistoren oder der Shrink.
 
  • Gefällt mir
Reaktionen: guggi4
ETI1120 schrieb:
Wenn es 2 CCX sind werden sie im IOD gekoppelt. Ich denke nicht dass AMD von dieser Praxis abrückt.
Nein, zwei CCX werden wenn sie auf einem CCD sind per IF auf dem Chip verbunden, erst die Kommunikation mit dem anderen CCD benötigt den IO Die
1702929648860.png
 
  • Gefällt mir
Reaktionen: ETI1120 und Hate01
CDLABSRadonP... schrieb:
hast du tatsächlich auch meine Folgekommentare gelesen oder war es nur Spekulation, was ich meine, auf Basis meines ersten Kommentares?
Mittagspause, ...
CDLABSRadonP... schrieb:
Die haben doch ohnehin reduzierten L3-Cache...
...würde also beide Varianten näher aneinander rücken.

Ich schlage ja nicht vor, den L3-Cache rauszuschmeißen.
In den den Benchmarks zu Bergamo ist mir nicht aufgefallen, dass die 16 MByte L3-Cache je CCX sich sonderlich ausgewirkt hätten. Deshalb sehe ich keinen Grund für X3D bei den kompakt Kernen.

Die Fläche der kompakt CCDs ist offensichtlich kein Problem. Es passen genügend CCD in den S5 Sockel.

Den Cache in den Zen 5c CCDs zu verkleinern, um in per X3D wieder zu erweitern bringt IMO nicht wirklich etwas.
 
Der Titel ist falsch >

Zen-5-Prozessor: Samples von AMD Eypc 9005 „Turin“ im Umlauf >​

Zen-5-Prozessor: Samples von AMD Epyc 9005 „Turin“ im Umlauf​

 
Trelor schrieb:
An sich richtig, allerdings muss man auch sagen, dass Intel zu dem Zeitpunkt wirklich rund 3 Jahre vor TSMC war.
Wenn man, wie es sich gehört, Intel 14 nm mit TSMC 10 nm vergleicht dann stimmt das.

Aber es sind eben 2 Dinge passiert,
  1. TSMC hat wegen der Zusammenarbeit mit mit Apple Geschwindigkeit bei Ausrollen neuer Prozesse erhöht. TSMC 10 nm war nur ein kleiner Zwischenschritt, der wurde praktisch nur von Apple verwendet. TSMC 7 nm kam schon 2018.
  2. Intel hat sich bei 10 nm festgerannt.
Dass AMD in dieser Zeit geliefert hat, war natürlich Pech für Intel. Es hat Intel zwar nicht viel Marktanteil gekostet aber die Margen ruiniert.

Und dieses Versagen hat bewirkt, dass Intel in der Boomphase 2020/21 nicht gewachsen ist. Alle anderen Halbleiterleiterhersteller sind in dieser Phase stark gewachsen.

Und TSMC wurde in dieser Zeit dank des Wachstums seiner Kunden in eine neue Dimension katapultiert.

1702941325314.png

RogueSix schrieb:
Ich persönlich bin jedenfalls gefühlt seit Jahrzehnten nicht mehr so gespannt auf einen CPU-Launch wie nun bei Arrow Lake gewesen, weil hier ein echter Quantensprung in mehrfacher Hinsicht ansteht, als da wären: Ein verhältnismäßig riesiger Sprung beim Prozess und der Wechsel auf das Tile-Design und BSPD/PowerVia.
https://www.igorslab.de/en/intels-i...n-for-raptor-lake-s-refresh-and-arrow-lake-s/

Wartens wir ab.
 
CDLABSRadonP... schrieb:
Ziemlich sicher passiert das auch. Nur ist Gaming eben ein Sonderfall. Gute Durchschnitts-Latenzen, aber miese Worst-Case-Latenzen sorgen für ein mieses Ergebnis. Für Serveranwendungen zählen die Durchschnittslatenzen viel mehr.
Ok, es geht ums zocken, das ist eine Spezialanwendung.
CDLABSRadonP... schrieb:
(deshalb war auch dort der Wechsel von Zen 2 zu Zen 3 --- der ja stark die Durchschnitts-Core2Core-Latenzen reduziert hat, doch insbesondere die WorstCaseLatenzen noch stärker --- lohnenswert, aber weniger stark als beim Gaming)
Zwischen 2 Frames beim zocken nivelliert sich sich das aus, da die Anzahl an Zugriffen auf den Cache ziemlich hoch sein wird, und dann nur noch der Durchschnitt zählt. Größenordnungen beachten!
Ergänzung ()

ETI1120 schrieb:
Aber es sind eben 2 Dinge passiert,
  1. TSMC hat wegen der Zusammenarbeit mit mit Apple Geschwindigkeit bei Ausrollen neuer Prozesse erhöht.
TSMC nimmt einfach mehr Kohle pro Forschungseinheit ein als Intel , das ist etwas was sich schon lange abzeichnet, denn Intel verkauft keine Telefone.
Zusätzlich sind die Prozesse für Telefone keine HPC-Prozesse -> schnellerer ROI/Forschungseinheit.

Solange sich daran nichts ändert wird Intel weiter zurückfallen.
Ergänzung ()

ETI1120 schrieb:
Was Du meinst findest Du unter Macro on Macro.

Bei CFET das bei allen die noch mitspielen auf der Roadmap spielt wurde auch 3D stacking erwogen, aber so wie ich es sehe bauen sie die Türme mit dem Prozess. Somit ist Circuit Slicing AFAIU eher von theoretischer Natur.
Sowas wie das Carry-Bit von einem Adder auf einen Adder auf einem anderen Die zu schieben halte ich in nächster Zeit für ziemlich unwahrscheinlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ETI1120
foofoobar schrieb:
TSMC nimmt einfach mehr Kohle pro Forschungseinheit ein als Intel , das ist etwas was sich schon lange abzeichnet, denn Intel verkauft keine Telefone.
Das gilt heute.

Aber es gibt eine Vorgeschichte, also lass mich Mal abschweifen.

Früher konnte Intel sehr hohe Margen bei den CPUs erzielen. Da hat es auch keine Rolle gespielt, dass die Halbleiterfertigung bei Intel teuer war. Sie war gut und hat es ermöglicht dass Intel Premium-Produkte verkaufen konnte.

Man muss sehen dass TSMC erst 1987 eingestiegen ist. Zu Beginn war TSMC 2 Jahe hinter dem Mainstream.

Aber das hat keine Rolle gespielt, weil TSMC ein neues Geschäftsmodell gegründet hat. Die Foundry. d. h. TSMC fertigt ausschließlich für seine Kunden und verkauft keine eigenen Halbleiterprodukte. Damit ist grundsätzlich ausgeschlossen dass TSMC mit seinen Kunden konkurriert.

Die Fremdfertigung war schon im Silicon Valley Standard. Jeder Halbleiterhersteller musste seine teuren Fabs auslasten. Wenn eigene Kapazität frei war, hat man für andere gefertigt, wenn die eigene Kapazität zu klein war ging man zu anderen Halbleiterherstellern. Aber es gab Interessenkonflikte (Kapazitätschwankungen, Zeitplan, ...) zwischen Fab und Kunde.

In dem 80er Jahren wurden in den USA Halbleiterunternehmen gegründet, die gar keine Fab haben wollten. Die Kapitalbindung und das Auslastungrisikos einer eigenen Fab waren für ein kleines Unternehmen viel zu hoch. Xilinx war eines der ersten dieser fabless Halbleiterhersteller und AFAIK war AMD der erste Fertigungspartner.

Die fabless Halbleiterhersteller und TSMC waren prinzipiell der perfekte Match. Witzigerweise hat Xilinx. einer der fabless Pioniere, sehr lange gebraucht. um zu TSMC zu kommen. Aber letztendlich landete Xilinx so um 2009/10 auch bei TSMC.

Einige kleinere Halbleiterhersteller in Taiwan haben erkannt, dass es als Foundry leichter wird und haben die eigenen Produkte eingestellt und wurden zur Foundry. Das Foundry-Modell wurde so erfolgreich, dass große Halbleiterhersteller ihre Fremdfertigung als Foundry tituliert haben. Aber nur weil die Fab behauptet eine Foundry zu sein, verschwinden die Interessenskonflikte zwischen 2 Halbleiterherstellern nicht.

Solange der Planartransistor verwendet wurde war es einfach von Fab zu Fab zu wechseln. Die Halbleiterhersteller konnten mit ihren Masken zu einer Fab gehen und diese mit der Fertigung beauftragen. Und später ihre Masken wieder mitnehmen und zu einer anderen Fab gehen.

Mit dem Wechsel vom Planartransistor auf FinFET hat sich dies drastisch geändert. Die Halbleiterunternehmen müssen ihr Design mit dem PDK (Prozess Design Kit) der Fab erstellen. Nach dem Tapeout erstellt die Fab aus den Designunterlagen des Kunden die Masken. Das Chipdesign des Kunden ist damit an die Fab gebunden. Wenn der Kunde mit diesem Chip zu einer anderen Fab gehen will muss das gesamte Chipdesign mit dem PDK der anderen Fab neu gemacht werden.

Und dann haben sich in den 90ern und 2000ern Unternehmen etabliert, die gar keine Chips herstellen wollten, sondern nur IP (Funktionsblöcke) verkaufen haben. Das bekannteste Unternehmen dieser Art ist Arm. Andere bieten PCIe- Speicher, USB-Kontroller, SRAM-Makro, ... an. Wobei der Übergang zwischen Herstellern von EDA-Tools und Anbietern von IP fließend ist.

TSMC hat dies erkannt und schließlich in der Open Innovation Plattform OIP die Zusammenarbeit mit Herstellern von EDA-Tools und IP-Anbietern gebündelt. AFAIK hat TSMC das größte Angebot an IP aller Fabs. D. h. wenn ein Kunde wechseln will, muss alle zugekaufte IP, die sein Chip verwendet, für die PDKs der anderen Fab verfügbar sein. Ist sie nicht verfügbar muss nicht nur das Chipdesign neu gemacht werden, sondern auch der RTL-Code angepasst werden, um die Ersatz-IP einzubinden.

So und jetzt kommen wir zum eigentlichen Punkt, die Fab hat vollen Zugriff auf das Chipdesign des Kunden. Auf die IP die der Kunde gekauft hat und auf die IP die der Kunde selbst entwickelt hat. Also muss der Kunde darauf vertrauen, dass die Fab dies nicht missbraucht in dem sie seine IP aus dem Chipdesign selbst verwendet oder anderen Kunden Zugriff darauf gibt. Oder den eigenen Entwicklern Zugriff auf das Kundendesign gibt.

Die Fab eines Halbleiterherstellers wird nicht dadurch zur Foundry, weil sie auf der Website so bezeichnet sind. Einiges kann man machen in dem man glaubwürdige Trennmauern zwischen der Fab und den eigenen Designabteilungen hochzieht. Die Interessenkonflikte, die entstehen weil Halbleiterhersteller und Kunde gegeneinander konkurrieren verschwinden nicht.

So war es unausweichlich, dass Apple von Samsung zu TSMC wechselt. Die Konzernschwester hat im Mobilphonemarkt gegen Apple konkurriert, Samsung LSI entwickelte wie Apple CPU-Kerne.

Mit Apple kam nicht nur neues Volumen zu TSMC. TSMC und Apple sind eine tiefgreifende Kooperation eingegangen. Diese Kooperation hat TSMC gezwungen Apple im Jahresrythmus verbesserte Prozesse zur Verfügung zu stellen. Das hat dazu geführt dass TSMC 10 nm, 7 nm und 5 nm in schneller Folge eingeführt hat. Bei 3 nm hatte TSMC Probleme. Nach den letzten Verlautbarungen wird 2 nm 2025 für Apple bereitstehen.

Intel hat sich traditionell auf Performance konzentriert. Da Intel oft einen Vorsprung von einer Generation und mehr hatte, waren die Prozesse trotzdem auch bei Power und Area besser als die Konkurrenz. Kann Intel den Fokus auf Performance beibehalten?




foofoobar schrieb:
Zusätzlich sind die Prozesse für Telefone keine HPC-Prozesse -> schnellerer ROI/Forschungseinheit.
Ich sehe es als viel Entscheidenter an dass TSMC ein viel größeres Volumen als Intel hat. Und außerdem kann TSMC die Investitionen in die Fabs viel länger nutzen als Intel. Es gibt genügend Kunden für die alten Prozesse. Intel hat bisher die bestehenden Fabs umgerüstet. Eine Fab für einen neuen Prozess umzurüsten bedeutet im Klartext Maschinen auszubauen und durch neue zu ersetzen. AFAIK werden die bisher eingelagert bzw. verschrottet.

Intel kann die eigene Halbleiterfertigung nur dann retten, wenn Intel genügend Volumen als Auftragsfertiger generiert und von der Anzahl der Waferstarts nicht noch weiter hinter TSMC zurückfällt. Aber um glaubhaft als Auftragsfertiger auftreten zu können, muss Intel zuerst einmal neue Fabs hochziehen.

Neben der Prozessentwicklung ist die zweite Herausforderung, die Kapazität dieser neuen Fabs in Volumen umzuwandeln.

foofoobar schrieb:
Solange sich daran nichts ändert wird Intel weiter zurückfallen.
Vor allem wenn Intel als Großkunde von TSMC sowohl die eigene Forschung als auch die von TSMC finanziert.

Wir müssen ganz einfach sehen wie Intel bei den Prozessen liefert. Und damit meine ich nicht Anzukündigen man hat den Prozess fertig, sondern Produkte ausliefern.

Wenn die Roadmap eingehalten wird, dann sieht es ganz passabel aus. Wenn es so läuft wie bei intel 4 schreien der Prozess ist fertig und ein Jahr später das erste Produkt zu launchen.

Intel wird sehr kreativ mit den Namen der Prozesse.

Aber es genügt eben nicht nur Fabs hinzustellen und die Prozesse zu entwickln. Für die Prozesse müssen PDKs bereistehen. Und es muss genügend IP für die Kunden verfügbar sein. Die meisten Journalisten die über die Vereinbarung von Arm und Intel geschrieben haben, haben gar nicht verstanden welch ein Meilenstein diese Vereinbarung für Intel war. Intel hat traditionell für CPU und Chipssätze sehr gute eigene IP, aber das alleine wäre zu wenig. Auch IP anderer Anbieter muss für Chips verfügbar sein, die bei Intel gefertigt werden.

foofoobar schrieb:
Sowas wie das Carry-Bit von einem Adder auf einen Adder auf einem anderen Die zu schieben halte ich in nächster Zeit für ziemlich unwahrscheinlich.
Du musst die Folie im Kontext sehen.

Das hat Sam Naffziger im Dezember 2021 präsentiert und sollte auch ein Ausblick sein.

Wir haben gesehen, dass mit X3D der L3 Cache ergänzt wurde. Da SRAM in absehbarer Zukunft nur schlecht falls überhaupt skaliert ist es unvermeidbar Logik und SRAM zu trennen. Dabei muss es nicht bei einer Ebene fürs SRAM bleiben.

Vor allem sobald der Hauptspeicher auf den Prozessor kommt.

Die Herausforderung ist die gestapelten Chips im optimalen Temperaturbereich zu halten. Aber es geht beim Stapeln nicht nur um den Flächenzuwachs. Im selben Vortrag hat Sam Naffziger gesagt, dass der 96 MByte L3-Cache in einer Ebene nicht realisierbar gewesen wäre. Die Latenz wäre zu schlecht geworden.

Es wird unweigerlich 3-dimensional, CFET, BSPDN, 3D-Stacking mit Hybrid Bonding.
Wie die Techniken kombiniert werden wird sehr spannend werden. Insbesondere BSPDN und 3D-Stacking dürfen sich nicht in die Quere kommen.
 
  • Gefällt mir
Reaktionen: Col. Jessep
Zurück
Oben