News TSMC-Fertigung: PC-Hersteller wie AMD und Nvidia bleiben bis 2025 bei 4 nm

St0nks! schrieb:
Ist der N4 Prozess der RTX 4000 Grafikkarten jetzt eigentlich 4 nm oder noch 5 nm?
Es ist nicht N4 sondern 4N, for Nvidia.

AFAIK ist es 5 nm.

Da es viele Prozesse gibt die mit N5 oder N4 anfangen ist es sinnvoller mit 4 nm oder 5 nm zu verwenden wenn man nicht weiss welcher Prozess genau verwendet wird.

Ausserdem verwenden die grossen Halbleiterunternehmen speziell getunte Prozesse. Die werden zwar AFAIK von Standardprozessen abgeleitet, aber unterscheiden sich dennoch.
 
  • Gefällt mir
Reaktionen: Rockstar85 und T1beriu
"PC-Hersteller"? Habe ich ein Verständnisproblem im Kontext mit den genannten Herstellern, oder war da ein Praktikant am Werk? :p
 
Sieht gut aus während AMD Nvidia und Apple den Sprung auf 2 und 3 nm vollziehen, freu ich mich schon auf nächstes Jahr wenn uns Intel in Intel super Fin++++ *2 Technologie den nächsten 10 nm Prozessor vorstellen wird… um dessen volle Leistung ausschöpfen zu können sind dann neben neuen Mainboards auch 1500 Watt Netzteile Pflicht man munkelt von einer TDP von 320W und Wasserstoff Kühlung um die CPUs auf 100c kühlen zu können bei
6 ghz und mehr ;-) dafür spart man im Winter bei den Heizkosten Ironie off!
 
Redirion schrieb:
Intel hat es eigentlich schon gezeigt mit 20A und 18A.
Künftig wird wohl in Ångström geworben.

1A sind dabei 100 pico meter.
Wird das der Rest der Industrie genauso machen?
Insbesondere da Intel im Moment nicht besonders erfolgreich ist sollte man von solchen Bezeichnungen Abstand nehme.
 
Fighter1993 schrieb:
Wäre vielleicht mal das Signal das die Software Industrie aufwacht und optimiert.
Rechenleistung ist gerade bei CPUs mehr als genug vorhanden.
ach was ,funktioniert doch prima.Es steigt die Leistung weiter an,also von daher selbst wenn die Software Industrie weiter nix wirklich tut,es steigt die Qualität dennoch.

Das es funktioniert sieht man ja bei mir sehr gut.Die Software Version von meinem Programm ist von 2018.Es steigt die Geschwindigkeit dennoch weiter an.Und warum die Hardware macht das schon.Die schiebt die Software vor sich hin.Wie lange das noch gehen wird,keine Ahnung.Sollte ich aber mal doch keine Steigerung mehr erleben dann war es halt dann.Wobei ich ja das große glück habe das meine Anwendung so Linear Arbeitet.
Steckt man 15 % CPU Leistung rein,kommt da 15 % mehr Leistung hinten wieder raus.Wobei auch langsam die Sprünge weniger werden,aber egal hauptsache es wird Schneller.Das ist ja das gute an Codec.Vollkommen egal ob es h264,h265 oder sonstige Formate zum Umwandeln sind.Ich verwende einen der ältesten und merke noch immer ne Steigerung.

Was ich lustig finde ist,das wer behauptet hat,das es immer ne Steigerung geben wird,ganz egal was die Software macht.Wenn das stimmt ,dann kann ich dieses Spielchen noch weiter treiben.Und ich fange damit an die selbe Software Version und auch den selben Codec nie mehr zu wechseln.Hoffe das ich schon noch das Limit erlebe bis nix mehr geht.Ich lasse es drauf ankommen.Ob die behauptung solange es weiter geshrinkt werden kann es noch ne Steigerung gibt. Mein ziel ist es Videos in nur 30 Sekunden umzuwandeln.Ob das klappt kann ich nicht sagen.Das wären dann minium und Maximum Settings die dann keine Rolle mehr spielen.

Und sollte es noch schneller gehen ,das nehme ich dann schon mit.Sollte sich Zen 5 nicht so gut bei der Leistung sein,dann nehme ich halt Zen 6.Sollte der auch nicht gut sein dann warte ich halt auf Zen 7.Ziel ist es mal sehen ob ich die doppelte Leistung zum 5950x noch erreichen werde.Locker aber 50%.Ich rüste also viel seltener auf weil ich auf noch mehr Leistung warte.

Ich warte also das ein Programm schneller läuft ohne das ein Hersteller da noch weiter Optimiert.Verbesserungen erwarte ich bei den 20 Jahre alten Codec ja eh nicht mehr.Die CPU wird es schon richten.Und wenn nicht erschlage ich einfach die Software mit noch mehr CPU Power bis da mehr gehen wird.So ist mein Plan.Die Software Industrie die kann mich mal.
 
  • Gefällt mir
Reaktionen: Fighter1993
@Volker Seit wann sind AMD und nVidia „PC-Hersteller“? Sollte wohl eher Chiphersteller oder so heißen?
 
Fighter1993 schrieb:
Wäre vielleicht mal das Signal das die Software Industrie aufwacht und optimiert.
Rechenleistung ist gerade bei CPUs mehr als genug vorhanden.
Wenn Du der Meinung bist, die "Software Industrie" optimiert nicht, kann ich Dich nur enttäuschen.

Was sich in letzten Jahren (Jahrzehnten) massiv geändert hat, ist Abstraktion. Heute will halt keiner mehr Software für eine einzige Plattform schreiben, man verläßt sich also auf Bibliotheken die platformübergreifend sind, nicht nur OS bezüglich, auch CPU bezüglich.

Diese Bibliotheken sind dann für die Zielplattform kompiliert, und dann auch auf die Plattform hin optimiert, soweit der Compiler das kann.

Oder es ist eine Runtime, wie .NET oder Java, die Bytecode erzeugen und dieser dann von der runtime auf die aktuelle Maschine optimiert wird.

Im Prinzip sind das schon enorme Errungenschaften der Software Industrie, und optimiert. Schau Dir mal .NET Release Notes an, und benchmarks der Verbesserungen, da geht schon echt was ab.

Was aber halt NICHT so toll funktioniert, ist zu meinen, das mehr Kerne alles toll machen. Es gibt halt bestimmte Dinge, die sich einfach zum Kotzen nicht parallelisieren lassen. Bestimme Matritzenalgorithmen zum Beispiel, aber Beispiele gibt es viele. Und dann kann man 'nen 16-Kerner mit 32 Threads haben, aber nur ein Kern kann die Arbeit ausführen. Da ist dann irgendwann mit Optimieren Ende Gelände.

Es gibt dumme und faule Software-Entwickler, wie in jeder anderen Branche auch. Aber insgesamt hat die Industrie sich relativ geschickt vorwärts bewegt.

Ich kann heutzutage ein 10 Zeilen Programm schreiben, und das läuft ohne Code-Änderungen auf Mac, Linux, einem Handy (Apple oder Android), Windows, alles entweder 32 oder 64-bit. Das sind Dinge, die vor 25 Jahren total unmöglich waren, und es ist eine tolle Entwicklung. Und obendrein durchaus lokal optimiert, aber wie schon gesagt, nicht alles läßt sich auf mehrere Kerne/Threads erweitern, gerade bei Spielen wo eins Subsystem auf andere in Sequenz laufen muß, oder alles kommt durcheinander.
 
  • Gefällt mir
Reaktionen: Smartbomb und Fighter1993
@hans_meiser
Danke für die Erklärung.
Ich denke wenn es so einfach wäre hätten sie es ja schon längst gemacht.
 
  • Gefällt mir
Reaktionen: hans_meiser
@hans_meiser dann gibt es auch noch so fälle wo es das Geld über spenden aktion daher kommt und das meist nur begrenzt und dann auch noch zu wenig Entwickler die da was Entwickeln.Diese sind dann nicht faul aber überfordert.Und wenn es so leicht wäre,könnte ja jeder ein VIdeoumwandlung Programm selbst schreiben.So ein H264 Videoumwandlungs Programm würde ich auch zu gerne selbst Entwickeln aber ich kann es nicht.Die hürde beginnt schon bei ganz unten.Also noch nicht mal bei Java sondern wirklich ganz schlecht.Habe es mal versucht gehabt aber ich bin gescheitert.Durch lesen und auswendig lernen und dann mit Zeit und schritt für schritt hat es bei mir dennoch nicht geklappt.Ich habe mich mal bei einer Firma mit eignungs Test für fehler im Code und Programm gehabt.Das waren mehreren Test.Bestanden scheine ich wohl nicht weil sonst wäre ich bestimmt in die engere Auswahl gekommen.Von denen hatte ich seid dem nie mehr was gehört gehabt.Da wusste ich es.Naja ist eine stelle für Insel Begabte Menschen.Also welche Spezialisten halt.
Wenn das nun so einfach wäre,müsste ich es auch können.Können tue ich es nicht also ist es nicht einfach,logisch oder?

Naja und genau darum wird das schwer.Klar kann man mit 2 x das selbe Programm oder mit 4 x das selbe auch einen 32 Kerner mit SMT bestimmt voll Auslasten.Wobei bestimmt 5 auf der sicheren Seite wäre damit.Damit wäre dann ein nur 16 Kerner überfordert.Ist alles nur ne Ansichts Sache .Man hat es selbst in die Hand.

Was ich auch gelernt hatte das jede CPU von den Top Mainstream sich von Gen zu Gen unterscheiden.
So war z.b beim 5950x zu 93 % Voll ausgelastet.Der 7950x verhält sich wiederum anderst.So ist ein 8 Kern Chiplet voll zu 100% Ausgelastet,der zweite Chiplet sind nur die logischen Kerne aber nicht die SMT Kerne ausgelastet.Das sieht man deutlich beim Taskamanager oder bei einem extra tool ebenso.

Und wie soll bei sowas wo eigentlich Baugleich sich aber dennoch anderst verhalten,ein Software Entwickler drauf Einstellen können.Ich sehe da so meine bedenken.Das wird nix.Da müsste sich schon die Hardware gleich verhalten das alles leichter geht.Aber das ist gewiss nur ein Wunschdenken.

Auch bei den Games werden sich die CPUS wohl unberechenbar verhalten,da bin ich mir sicher.
 
foofoobar schrieb:
In Mathe und Physik nicht aufgepasst?

PicoMeter.
Nein, DU hast beim Lesen nicht aufgepasst und dachtest du musst gleich dein Captain Obvious Wissen zeigen.

Er hat nicht gefragt was unter Nanometer kommt, sondern wie das wohl vermarktet wird.
Später schrieb eh jemand was von Angström und Intel 20A und 18A.

Wie er schon sagte: der Nodename ist sowieso nur Schall und Rauch und der Rest ist Marketing.

Die nächsten Jahre werden vermutlich im Zeichen von GAAFET und dem verbesserten EUV Maschinen stehen.
Und weitere Schritte zur Integration von Zeugs in einen Chip.
Von daher wird das Zusammenspiel der Chipentwicklung und der Fertigung noch wichtiger werden als es mittlerweile ist.

Bei Intels Fertigungsfiasko muss ich immer an Broadwell denken:
Das war ja die erste CPU im "14nm Node".
Dieser war 2-3 Jahre zu spät dran und man (Intel) versicherte damals, dass ihnen sowas niemals wieder passieren wird.

Und dann sind sie von der 14 im Namen (trotz natürlich Verbesserungen über die Jahre) nicht mehr weggekommen.
Seitdem gabs nur Brechstange und eine 2-3 Jahre dauernde Rückportierung der Sunny Cove Kerne auf den 14nm++(+?) node.
Aka gen11, aka mehr IPC (ggü Skylake 6k bis 10k) und dank Brechstangen Takt mehr Single Core Leistung, aber enorme Heizplatte. Vor allem die mobilen 11er - effizienztechnische Katastrophe!
Und im Desktop max 8 Kerne statt wie vorher 10 - sonst wäre das Ding wirklich verglüht (was man beim 10tausender Comet Lake schon dachte - heiß wie ein Komet der in der Atmosphäre verglüht)
Dank der dann endlich besseren Fertigung gabs endlich Golden Cove Kerne - dafür nur deren 6, da dicker und stromhungriger als Sunny Cove, dafür mehr IPC und Brechstangentakt.
Und die Efficiency Cores - um bei Multihtread mit AMD mithalten zu können.

Nun Raptor Cove, man nehme Golden Cove und stecke mehr Cache rein und optimiere auf noch mehr Takt, so kann man mit AMD in single core mithalten oder sogar übertreffen.
Die kleinen Kerne machen den Rest.
Die Fertigung wirde abermals etwas verbessert.
Oder war das nur die Umbenennung von Intel10 ist nun Intel 7?
Keine Ahnung, bin grad zu faul zu googlen.
Ist aber auch egal.

Für uns zählt das Gesamtprodukt.
Und zu welchem Preis verfügbar.
Dass die Halbleiterindustrie umwelttechnisch dreckig ist, lässt sich wsl kaum vermeiden.
Man siehe Taiwan, da gibts an den Küstengebieten wo die Fabriken stehen (und auch wo nix ist) massive Umweltverschmutzung.
Also doch besser boykottieren und Intels Börsianer bezahlen, da Intel an ihren Standorten möglicherweise (ich weiß es nicht) weniger Umweltverschmutzung verursachen?
 
naja ich frage mich echt was Intel machen wird.Die Zukünftige Fertigung wird auch für Intel teuer sein als zuvor.Intel wird es noch so ergehen wie TSMC.Das es immer Aufwendiger wird.Intel wird ihre Produkte auch teurer machen müssen um die Fertigung zu refinanzieren.Bin gespannt was Intel machen wird,wenn die von Intel 7(alias 10 nm) dann auf Intel 5 gehen werden.Und ob dann der Takt einfach noch weiter gesteigert wird oder ob man nun den Takt auf normalen Level senkt und dafür wieder mehr Kerne macht.Ich sehe schon wenn die Intels CPUS auf 4 bzw 4,6 ghz Maximale Allcore Takt herum dümpeln dann sieht es bei den Intel CPUS anderst aus.Ich bin echt gespannt wie Intel das lösen wird und ob man durch das TSMC konkurieren will.Das scheint für mich keine leichte Sache zu sein.
Und naja Intel hängt auch sogar hinter Samsung her.Diese wiederum haben ebenso ihre Probleme.Geld alleine kann halt eben nicht alles Lösen.Man kann sich die Probleme aus dem weg kaufen in dem Mann gute Mitarbeiter damit einstellt und gut bezahlt.Und auch ne Anschaffung.Das war es aber dann auch schon wieder.
Wie es weiter gehen wird,bleibt halt spannend.
 
Ich finde diesen Artikel schon witzig. Digitaltimes und MLID als Quellen sind ein Dreamteam.

Die Geschichte entwickelt sich nun zu einem "Nvidia verschiebt Blackwell nach 2025".

1683369920010.png


AMD Roadmap vom Financial Analyst Day 2022

Mark Papermaster hat am AMD-FAD 2022 eine neue "Roadmap" für die CPU-Kerne vorgestellt.
Zen 5 wird auf der Folie mit 4 nm und 3 nm dargestellt.

1683392198521.png


Papermaster sagt dazu ausdrücklich und.

Bei der Vorstellung der Client Roadmap hat AMD bei Zen 5 "advanced node" geschrieben und bei den Servern ganz auf das Nennen der Nodes verzichtet. Somit hat AMD diese Roadmaps so weit "optimiert" dass nur noch die Codenamen und der Zeitraum drauf sind. Als nächste wird AMD wohl die Jahreszahl rechts wegrationalisieren.

Die Turin-Familie kommt 2024.

3 nach 4 nm oder 4 und 3 nm​

Dass AMD zuerst 4 nm und erst danach 3 nm für Zen 5 verwendet empfinde ich als sehr eigenwillige Interpretation.

Was ich für viel realistischer halte ist, dass AMD ähnlich wie bei Zen 4 und RDNA 3 vorgeht und einen Teil der Produkte mit 4 nm und einen anderen Teil mit 3 nm fertigen lässt.

3 nm lohnt sich vor allem für Dies mit einem hohem Anteil an Logik, wie CPU-Kerne und Shader. IO skaliert sehr schlecht. Bei den monolithischen APUs halte ich es für realistisch, dass AMD bei Zen 5 auf 4 nm bleibt.

Randbemerkung zu N3​

Broken Silicon 203 hat Tom von MILD mit "Alle bleiben auf 4 nm" eröffnet. Tom hat behauptet er habe Papiere von AMD, die alles für 2024 in N4 zeigen würden, Daniel Nenni hat darauf geantwortet," AMD geht auf N3. Alle gehen auf N3." Tom hat dann gesagt vielleicht kommt Zen 5c in 3 nm. Daniel Nenni hat keine Mine verzogen.

Broken Slicon 203 ist übrigens sehr interessant, ich finde MLID sollte sich viel mehr auf diese Interviews und Gespräche verlegen und viel weniger versuchen krampfhaft Leaks zu bringen. Denn dann könnte er sich auf die Dinge konzentrieren die tatsächlich bekannt oder offensichtlich sind, und müsste nicht so viel haltlos spekulieren. Die echten Leaks sind allgemein rar geworden.

wccftech zitiert Lisa Su aus einem Interview mit Barrons;
Die(Das Sinken der) Transistorkosten und die Verbesserungen bei der Dichte und der Gesamtenergieeinsparung werden mit jeder Generation geringer. Aber wir bewegen uns immer noch von Generation zu Generation [vorwärts]. Wir arbeiten heute viel im 3-Nanometer-Bereich, und wir denken auch weiter in Richtung 2 nm. Aber wir werden weiterhin Chiplets und diese Art von Konstruktionen verwenden, um einige der Herausforderungen des Moore'schen Gesetzes zu umgehen.

Wie ist AMD bei Zen bisher verfahren?​

Zen kam mit dem 14 nm von GF auf den Markt. Das war notwendig um mit Intel überhaupt mithalten zu können.

Zen 2 und Zen 3 verwenden für das CCD TSMC 7 nm. Der Prozess war beim Erscheinen von Zen 2 1 Jahr in HVM. Die HVM von 5 nm hat ca ein halbes Jahr vor dem Release von Zen 3 begonnen. Damit war der 5 nm Prozess noch zu neu für AMD.

Zen 4 kam mehr als 2 Jahre nach dem Start der HVM von 5 nm auf den Markt

Die HVM von 3 nm wurde Ende 2022 gestartet. Zen 5 wird irgendwann 2024 kommen. Vom Zeitrahmen sollte es passen 3 nm zu verwenden.

Aber weit interessanter als die Frage für welche Dies AMD 3 nm verwendet, ist die Frage welche Dies AMD bei Zen 5 verwenden wird und ob es beim bisherigen Substrat bleibt.

Roadmap von @harukaze5719​


Was @harukaze5719 gezeichnet hat beruht auf MLID und Digitimes. Was MLID tatsächlich gehört hat und was MLID dazu spekuliert hat, wird sich erst noch zeigen. Digitimes kann man vergessen. Kaffesatzlesen hat eine bessere Trefferquote.

[IMG]https://pics.computerbase.de/1/0/7/5/7/0-99c1aecae7f9b4f5/1-1080.ff39eb8d.png[/IMG]
Ich finde einiges nicht schlüssig. Es ist aber ein tolles Codeword-Bingo.

CCD​

Was mich bei der Roadmap von @harukaze5719 zum Nachdenken bringt ist, dass Granit Ridge und Shimada Peak mit 4/6 nm angegeben ist und EPYC mit 3 nm. Das wäre ein Bruch mit dem bisherigen Vorgehen von AMD bei Mainstream CPU, HEDT CPU und Server CPU dasselbe CCD zu verwenden.

Einordnung der APUs​


1682980887477.png


Laut AMD (FAD 2022) ist Strix Point ist der Nachfolger von "Phoenix Point",

1682981060177.png


"Hawk Point" ist lt. MLID ein "slight tweak" von "Phoenix Point" das klingt für mich, ähnlich wie Lucienne, Barcelo oder Rembrandt Refresh (7x35). Wenn dem so ist, wäre der neue Name wohl wieder die bedeutendste Änderung.

Nach dem was MLID selbst sagt, ist Hawk Point also nicht der Nachfolger von Phoenix point, sondern ein "Refresh" das die die Produktpalette unter Strix Point auffüllt.

Zeithorizont​

Interessant sind die Release-Zeitpunkte die MLID nennt. Strix Point käme sehr spät. AMD würde große Teile des Jahres mit dem Phoenix Point Refresh bestreiten.

Die letzten Jahre haben die übliche Zeitplanung bei den OEMs durcheinander gebracht, Es war kein Zufall dass AMD die Mobil-APUs zur CES vorgestellt hat. Die großen OEMs stellten die Masse ihrer neuen Modelle Ende Q1 bis Mitte Q2 vor. AMD hat es in den letzten Jahren immer wieder geschafft zur CES tatsächlich etwas Neues zu präsentieren.

Zur CES 2024 keine wirklich neue Mobil CPU zu zeigen, wäre ein schwerer Rückschlag für AMD.
Rembrandt hat zwar auch Zen 3 Kerne verwendet, brachte aber eine RDNA 2 GPU und hatte auch sonst viele durchgreifende Änderungen im SoC. Rembrandt war viel mehr als ein "slight tweak" von Czesanne.

Zur Zeit gibt es wieder ein Wettbewerb, wer die spätesten Launch Termine für Zen 5 nennt. Zen 4 wurde verschoben, weil die Plattformen noch nicht so weit waren. Da Zen 5 die Plattformen von Zen 4 verwendet, entfällt dieser Grund.

Turin erst 2025 zu bringen, wäre sehr spät. Dass AMD dieselben Serverprodukte zuerst in 4 nm und dann in 3 nm bringt, halte ich für nicht realistisch. Dass AMD nur Zen 5c in 3 nm auflegt aber Zen 5 in 4 nm bringt wäre sehr überraschend.

Strix Halo​

Die 40 CU die MLID nennt, lässt den Traum von der großen APU wieder aufleben.
Aber mit LPDDR5X ist AM5 außen vor und mit einen Speicherinterface mit 256 bit wird es auch bei FP8 eng.

Mainstream Desktop und Notebook halte ich für unwahrscheinlich, wo soll Strix Halo verwendet werden?

Phoenix 2​

Irdendwie vermisse ich Phoenix 2 auf der Roadmap von @harukaze5719 und der Liste von MLID . Laut Igor gibt es im Changelog des AEGSA ComboAM5 1.0.7.0 Einträge für Phoenix 2.

Zu den Bemerkungen über TSMC 3 nm​

Im Artikel ist unter dem zweiten Bild ist ein Link auf SemiWiki. Der verlinkte Artikel von SemiWiki (Daniel Nenni) zeichnet im Gegensatz zu Volker ein sehr positives Bild von TSMC N3 und dessen Varianten.

Was sagt TSMC?​

Im einleitenden Statement des Quartal Calls Q1 2023 sagte der C. C. Wei:
Als nächstes möchte ich über unseren N3- und N3E-Status sprechen. Unsere 3-Nanometer-Technologie ist die erste in der Halbleiterindustrie, die in großen Stückzahlen mit guter Ausbeute produziert wird. Da die Nachfrage unserer Kunden nach N3 unsere Lieferfähigkeit übersteigt, gehen wir davon aus, dass N3 im Jahr 2023 durch HPC- und Smartphone-Anwendungen voll ausgelastet sein wird. Es wird erwartet, dass N3 ab dem dritten Quartal einen beträchtlichen Beitrag zum Umsatz leisten wird und im Jahr 2023 einen mittleren einstelligen Prozentsatz zu unserem Gesamtumsatz mit Wafern beitragen wird.
N3E wird unsere N3-Familie mit verbesserter Leistung, Energie und Ausbeute weiter ausbauen und eine vollständige Plattformunterstützung für HPC- und Smartphone-Anwendungen bieten. N3E hat die Qualifizierung bestanden und die Performance- und Yield-Ziele erreicht; die Volumenproduktion ist für das zweite Halbjahr '23 geplant. Trotz der laufenden Inventarkorrektur beobachten wir sowohl bei N3 als auch bei N3E weiterhin ein hohes Maß an Kundenengagement mit einer Anzahl von Tape-Outs, die mehr als doppelt so hoch ist wie bei N5 im ersten und zweiten Jahr.
Unsere 3-Nanometer-Technologie ist die fortschrittlichste Halbleitertechnologie sowohl in der PPA- als auch in der Transistortechnologie. Daher erwarten wir von unseren Kunden eine starke Nachfrage nach unseren N3-Technologien und sind zuversichtlich, dass unsere 3-Nanometer-Familie ein weiterer großer und langlebiger Node für TSMC sein wird.

Diese Aussagen bestätigt Daniel Nenni. Er weiß von vielen Tape Outs bei N3 und N3E. Von Samsung 3 nm ist ihm keines bekannt. Steht so im vom Volker verlinkten Artikel und war auch die schmeichelhafteste Bemerkung über Samsung bei Broken Silicon 203.

Zu einer Frage:
C. C. Wei

Okay, Randy. Sie haben eine sehr gute Frage dazu gestellt, ob wir einen Teil der N5-Kapazitäten in N3 umgewandelt haben, weil wir heute mit N3 zu wenig Kapazitäten haben, um unsere Kunden zu versorgen. Anstatt zu sagen, dass wir N5-Kapazitäten in N3 umwandeln, möchte ich sagen, dass wir eine Strategie und eine Methodik entwickelt haben, um einige der N3-Tools durch N5 zu unterstützen. Und wir berücksichtigen diese Art von Flexibilität, damit wir unsere Verpflichtung, unsere Kunden in N3 zu unterstützen, so gut wie möglich erfüllen können. Das ist zwar noch nicht genug, aber wir tun es.

Eine weitere Frage:
Krish Sankar
Meine erste Frage bezieht sich auf Ihre Bemerkung, dass die N3-Kapazität in diesem Jahr voll ausgelastet sein wird. Ist die Kapazität, die in der zweiten Jahreshälfte online sein wird, gleich oder höher oder niedriger als das, was Sie vor einem Jahr geplant haben? Und sehen Sie zu diesem Zeitpunkt ein ähnliches oder besseres Nachfrageprofil für N3-Wafer als für N5-Wafer zum gleichen Zeitpunkt im Zyklus? Und dann habe ich noch eine Frage.
Jeff Su
Okay. Die erste Frage von Krish bezieht sich auf die N3-Kapazität. Beachten Sie, dass wir gesagt haben, dass sie dieses Jahr voll ausgelastet sein werden. Er möchte wissen, welche Kapazitäten wir in diesem Jahr und in der zweiten Jahreshälfte für N3 aufbauen oder planen. Wie sieht diese Kapazität im Vergleich zu dem aus, was wir vor einem Jahr erwartet haben?
C. C. Wei
Nun, ich kann die Frage beantworten. Die Nachfrage ist tatsächlich höher als wir vor einem Jahr dachten, und deshalb müssen wir sehr hart arbeiten, um die Nachfrage unserer Kunden zu befriedigen. Beantwortet das Ihre Frage, Krish?

Also insgesamt legt sich TSMC ziemlich weit aus dem Fenster. Die Aussagen sind eindeutig bei N3 und N3E ist alles in Ordnung. Das einzige Problem ist, dass TSMC zu wenig Waferkapazität hat weil die Nachfrage höher als erwartet ist. Damit sagt TSMC genau das Gegenteil dessen was immer behauptet wird.

Das schöne ist, wir werden es Anfang November wissen. Von Apple und vom Quartalsbericht von TSMC.

Meine Interpretation der Nachrichtenlage​

TSMC ist mit N3 ca. 8 bis 9 Monate zu spät dran. Das ist schon seit einiger Zeit bekannt.
Damit war N3 sowohl für das Iphone 14 SoC als auch für die M2-SoCs zu spät dran. Da Apple dies rechtzeitig wusste, wurden diese Produkte in 4 nm gefertigt.

Das nächste Produkt von Apple ist das SoC für das Iphone 15. Dieses wird momentan im N3 Prozess hergestellt. Apple wird die SoC bezahlen, sobald Apple sie abnimmt. Das ist wohl erst im 3. Quartal der Fall.
  • Das Iphone XS startete am 21. September 2018. TSMC hat für das 2 Quartal 2018 ca 30 Mio. USD Einnahmen mit 7 nm genannt.
  • Das Iphone 12 startete am 23. Oktober 2020. Die ersten Einnahmen mit 5 nm hat TSMC im 3. Quartal erwähnt. Das waren dann gleich 880 Mio USD.
  • Der Launch des Iphone 15 wird für den September/Oktober 2023 erwartet.
Anhand der Benchmarks zum Iphone 15 wird man auch erste Rückschlüsse auf den Prozess ziehen können. Solange müssen wir uns eben noch gedulden.

Mit N3 werden auch noch die M3 Chips für Apple gefertigt. Ming-Chi Kuo sagt dass die Massenproduktion für die M3 Chips im 2. Halbjahr startet.

Die anderen Halbleiterhersteller die im 3 nm Node fertigen lassen, werden N3E verwenden. Bezüglich der HVM heißt es meist 1 Jahr nach N3. Was auf einen Start am Jahresende hindeutet. Damit können die ersten Produkte von anderen Hersteller erst 2024 erscheinen.

IMO wird kein Hersteller mit Produkten auf N3P oder N3X warten, dafür lohnen die marginalen Verbesserungen nicht. Es kommt IMO darauf an, wann die Hersteller die Produkte launchen wollen. Wenn es zeitlich passt sind N3P oder N3X ein Option.
 
  • Gefällt mir
Reaktionen: Zenx_
Ja darum plant ja auch AMD unterschiedliche nm Aktionen. Ganz unten ist ja 7 nm cpus. APus die besser sind erhalten dann 5nm.
Von epic und dem 16 Kerner sind ja in 4 mm geplant bzw n4.
Man könnte aber auch ein Mix machen ob das dann passt wäre aber verrückt.

Wenn man nicht genug Kapazitäten dazu hätte, würde man keine 12 und 6 kener anbieten und diese dann mit verbesserten 5 mm auffüllen. Das ist aber nur der Fall falls man nicht genug Kapazitäten hätte.

Oder es lohnt sich für AMD nicht auf 4 nm alias n4 zu wechseln und verbessern lieber die archetekur auf der selben fertigung.

Ich weiß halt nicht genau wie groß die Vorteile und die Kosten für AMD so sind.
 
ETI1120 schrieb:
Papermaster sagt dazu ausdrücklich
Ich sage immernoch dass dieser mann den richtigen Namen für seine Anstellung hat. Einfach jedesmal schön :D

Ja wir werden sehen wohin das Schiff steuert. Ist auch nicht ausgeschlossen dass intels Fertigung wieder die beste wird. Alle nodes werden unabhängig voneinander entwickelt, die Karten immer neu gemischt und die aktuellen Schritte sind wahrlich kein Selbstläufer. Die zweite Hälfte dieses Jahrzehnts wird spannend was die tech betrifft
 
Bei cpu sehe ich keinen Grund warum man nicht auf n3 gehen sollte
bei gpu allerdings sehe ich klar n4x kommen bei amd sowie nvidia
Nvidia refreshed ada und amd wird rdna3+ bringen der gefixte mcd hat.
Den rdna3 kann bis zu 3,6ghz Takten sofern die mcd und inf fab Takt das nicht verhindern (maxed bei 6nm ist 2,8ghz)
Bei nvidia sehe ich keine Grund warum man blackwell schon so früh bringt auf data center Bereich sehe ich blackwell kommen in n3 als gb100 oder eben quadro B10 000
Ich nehme dann an das nvidia n3x q3 2026 als rtx60 Serie bringt
Cpu seitig sehe ich
zen4c zuerst in apu n4 maßgeblich laptops (phoenix point)
zen5 auf n3 am desktop, high end laptops und server
 
PS828 schrieb:
Ich sage immernoch dass dieser mann den richtigen Namen für seine Anstellung hat. Einfach jedesmal schön :D
Ich wenn ich den Namen schreibe bin ich erst verunsichert und muss dann Grinsen.

Die Vorträge von Mark Papermaster und Interviews mit ihm finde ich eigentlich immer interessant. Bei der Vorstellung von Ryzen 7000 fand ich ihn nicht so toll. Dafür war sein Vortrag bei der DAC im Juli 2022 sehr gut.

PS828 schrieb:
Ja wir werden sehen wohin das Schiff steuert. Ist auch nicht ausgeschlossen dass intels Fertigung wieder die beste wird.
An welchen Parametern wird gemessen was der beste Prozess ist?
Und wer entscheidet es?

Als ich für meinen ausufernden Post recherchiert habe, bin ich darüber gestolpert dass es Diskussionen gab dass die von TSMC gefertigten Apple A9 weniger Energie als die von Samsung gefertigten A9 benötigen. allerdings wer der bei Samsung gefertige Chip kleiner

PS828 schrieb:
Alle nodes werden unabhängig voneinander entwickelt, die Karten immer neu gemischt und die aktuellen Schritte sind wahrlich kein Selbstläufer.
Dadurch dass die FinFET durch die GAA-FET abgelöst werden und die Backside Power Distribution eingeführt wird müssen neue Herausforderungen gemeistert werden. Das beinhaltet für TSMC das Risiko zu scheitern und ist für Intel die Chance aufzuholen.


PS828 schrieb:
Die zweite Hälfte dieses Jahrzehnts wird spannend was die tech betrifft
Wenn man sich dafür interessiert ist Technik immer spannend.

Immer dann wenn es scheint es tut sich nichts, wird gerade in der anderen Ecke an etwas vollkommen neues gebastelt.

Was die Herstellung von Chips angeht, werden Chiplets und advanced packaging die Defizite der klassischen Halbleiterfertigungstechnik auffangen.

Ehrlich gesagt wird es dieses Jahr einiges geben, was aus technischer Sicht sehr interessant wird, Bergamo mit Zen 4c, MI300 mit vielen Chiplets, Meteor Lake mit Intel 4 und einiges an Advanced Packaging.
 
  • Gefällt mir
Reaktionen: PS828
ETI1120 schrieb:
An welchen Parametern wird gemessen was der beste Prozess ist?
Und wer entscheidet es?
Der Prozess ist der beste welcher für das Produkt die beste Leistungsfähigkeit, yields und Kosten bietet. So lege ich das jedenfalls fest für mich persönlich ^^
 
Gute Antwort.

An die Informationen was das Produkt insgesamt angeht (Leistungsfähigkeit und Kosten) kommen wir relativ einfach ran.

Aber welcher an Teil der Prozess daran hat (Fehlerrate (Yield), Waferkosten, ...) ist als außenstehende fast nicht zu beurteilen.
 
Zurück
Oben