News Auftragsfertiger: TSMC arbeitet mit Apple an 2-nm-Prozess

ThePlayer schrieb:
Was ich aber glaube ist das die Mehrheit der Mac User mittlerweile Heimanwender sind. Die brauchen nicht wirklich viel Power. Und deswegen kommt von Apple der Wechsel zu ARM.
Aber wir werden es dann nächstes Jahr sehen, oder wann kommen die ersten ARM Macs?

Noch dieses Jahr, wahrscheinlich MacBook Pros und das würden sie nicht tun, wenn die CPUs nichts taugen würden. MacBook Pros werden doch eher von Geschäftskunden gekauft, wie wir Entwickler oder sind auch in Hollywood sehr verbreitet. Apple kann es nicht leisten, da Gurken zu liefern.

Schau Dir mal die generelle Entwicklung an der A-Reihe an. Seit ziemlich genau zehn Jahren steckt Apple nun eigene Chip-Designs in die iPhone. Der A4 und der A5 wurden von Jim Keller entwickelt. In dieser Zeit hat man ein ziemlich gutes Team aufgebaut.

Ich hab die Entwicklung über die Jahre verfolgt. Anandtech hat jedes Jahr ein sehr ausführliches Review zum neuen iPhone, mit einem meist sehr ausführlichen Abschnitt über die neue CPU. Die Leistungs- und Effizienzsteigerungen mit jeder Generation sind beachtlich.

Der Schritt Intel rauszuwerfen war wohl überlegt und wurde, wenn man den Äußerungen eines Ex-Mitarbeiters von Intel trauen darf, bereits 2017 beschlossen, weil offenbar die Qualität der Chips deutlich nachgelassen hatte. Vermutlich mussten sie auch damals schon gegenüber Apple zugeben, dass sich 10 nm verzögern wird. Als Großabnehmer und wegen teils zeitlich begrenzter Exklusiv-Deals für neue CPUs, hatte Apple sicherlich einen tieferen Einblick, was bei Intel gerade vor sich geht.

Intel hat in dieser Zeit bis heute tatsächlich Unfähigkeit in einem gewissen Maße bewiesen und z.T. auch die Kunden verarscht. AMD hatte extrem viel aufzuholen und dazu -- vergleichsweise -- wenig Geld. Intel hat zehnmal so viel Umsatz, Apple über 40-mal mehr ...

Apple könnte beide recht problemlos kaufen, wenn sie wollten. Stattdessen haben sie in eine langfristige Strategie investiert, um von Intel, AMD und Qualcomm nicht länger abhängig sein zu müssen. Bei Telefonen und Tablets zahlt sich das bereits seit einer Weile aus. Kein aktueller Snapdragon hält auch nur ansatzweise mit seinem Apple-Gegenstück mit. Die können froh sein, wenn sie das Niveau des jeweiligen Vorvorgängers erreichen.

Wenn mal all das zusammenzählt, ist es nur logisch anzunehmen, dass Apple hier Nägel mit Köpfen macht und durchaus in der Lage ist, aktuelle Desktop-CPUs ordentlich zu bügeln oder zumindest gleichzuziehen. AMD muss sich nicht schämen. Sie sind im Vergleich zu Apple winzig und haben aus wenig sehr viel gemacht. Intel dagegen? Oh je, auch wenn ich durchaus glaube, dass sie hart zurückschlagen können, wenn die richtigen Leute ans Ruder kommen -- Ingenieure, keine Buchhalter.
Ergänzung ()

florian. schrieb:
Da Apple dann Hard und Software anbietet und sowieso ein viel geschlosseneres Ökosystem hat, müssen die weniger Altlasten mit sich herumschleppen. Entsprechend kann es gut sein, dass AMD/INTEL dann alt aussehen.

Apple ist ja auch ziemlich schmerzfrei, wenn's darum geht, alte Zöpfe abzuschneiden. Wenn sie mal zu nachgiebig sind, wie z.B. bei Carbon, hat man ja gesehen, was Adobe getrieben hat.

Kurzer Ausflug: als Mac OS X eingeführt wurde, gab's drei Frameworks für die Software.
  • Classic für Mac OS 9
  • Carbon für Mac OS X als eine Zwischenlösung, um Programme aus Classic einfacher zu migrieren
  • Cocoa als komplett neues Framework für neue Applikationen
Apple hatte von Anfang an klargemacht, dass Carbon nur zeitlich begrenzt unterstützt wird. Adobe hat Carbon sehr ausgiebig benutzt. Das war auch der Grund, warum es lange Zeit nur 32-Bit-Versionen der CS für Mac OS gab. Carbon kann kein 64 Bit. Darüber hat Apple dann Adobe quasi gezwungen, endlich die CS in Cocoa neuzuschreiben. Darunter gelitten hat eigentlich nur der Kunde, weil Adobe über zehn Jahre hinweg, Code, dessen Urspünge teils in Mac OS 9 oder älter lagen, nicht erneuern wollte ...

So kann man halt keine anständige Software entwickeln. Zumal von Anfang an klar war, dass Carbon nur eine Übergangslösung ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 416c, Derngem, AlphaKaninchen und eine weitere Person
florian. schrieb:
letztendlich bedeuten die 2nm doch:
Unser neuer Prozess mit all Around Gate ist so leistungsfähig wie ein Transistor mit einem 2nm "Standard" Gate.
Ein guter Teil der Flächenreduktion pro Transistor kam bei den letzten Generationen durch Reduktion der Transistorbestandteile zustande. Wenn man dabei von 10,5 auf 6 Tracks runter kommt (wie bspw. Samsung von 14LPE zu 5LPE), entspräche das alleine schon einem vollen Node.
florian. schrieb:
Die kleinste Struktur wird irgendwas um die 30-50nm haben.
Das hat bereits der N5: FP 25nm, CPP 48nm und M2P 30nm.
 
@AlphaKaninchen:
Du schreibst "die haben aufgegeben", verlinkst aber dabei auf einen Artikel in dem klipp und klar davon gesprochen wird dass der Fokus "erst einmal" auf anderen Produkten liegt und das die Forschungen an 5nm und 3nm "mit der IBM-Allianz auch erst einmal an 5 nm und 3 nm fortgesetzt werden."
 
@Hayda Ministral
@AlphaKaninchen
Es findet bei GloFo keine eigene Entwicklung mehr in Sachen FinFET über den 14FF-Node hinaus statt.
Allerdings wird der noch fortentwickelt, so soll nächstes Jahr ein 12LP+ in die Massenproduktion eintreten (in dem eventuell IP von der 7FF-Entwicklung zurückportiert wurden). Aber der Schwerpunkt des Geschäfts wurde vom Bulk- zum Spezialitäten-Markt verschoben, FDX wird bspw. voll weiterentwickelt.
Für den Bulk-Markt hatte man weder die nötige Größe wie TSMC, die Quersubvention wie Samsung Foundry, die unendlichen staatliche Gelder wie SMIC noch den nötig hohen Ölpreis, der früher der arabischen Mutter Geld wie Heu beschert hatte....
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: AlphaKaninchen
Und mein Opa konnte einen Transistor noch in der Hand halten! Unfassbar :D
 
Es hat schon einen Grund, warum Apple 2 Billionen Dollar wert ist:

Sie haben das Geld und das Know-How, um ihren technologischen Vorsprung immer weiter auszubauen. Jetzt sichern sie sich den dann wohl fortschrittlichsten Fertigungsprozess 5 Jahre im Voraus und die CPU Architektur entwickeln sie gleich mit, ebenso den Software-Stack, die Endgeräte und die Cloud-Services.

Apple zieht davon, aber wenigstens finanzieren sie Chip Forschung, die der Rest von uns dann ein paar Jahre später auch nutzen darf. Übrigens großartig für AMD, wenn jetzt sogar Apple den Forschungskarren für ihren Auftragsfertiger zieht.
Ergänzung ()

ThePlayer schrieb:
Ich glaube immer noch das Apple seinen Chip so bauen wird das bestimmte Workloads die zu den Typischen Programmen die unter MacOS genutzt werden beschleunigt werden so wie z.B. h264 oder h265 encoding in Hardware es jetzt schon ermöglicht Videos auf dem Smartphone in 4K HDR sehr effizient abzuspielen.
Aber wir werden es ja sehen wenn die ersten ARM Macs zu kaufen sind.

Es findet gerade ein weiterer epochaler Wechsel in der CPU Architektur statt:
  • Dennard Scaling, sprich Erhöhung der Taktfrequenz bis ~2005
  • Multicore CPUs. Jetzt da 8 oder mehr Kerne Standard werden ist auch dieses Pferd ziemlich zu Ende geritten.
  • Die Zukunft: Domain Specific Languages. Das bedeutet, dass für bestimmte Klassen von Workloads, bspw. AI, Grafik, Biometrie, Encoding etc. spezielles, aber programmierbares Silizium auf den Prozessor wandert. Die wirklich spannenden Anwendungen funktionieren dann nur noch damit. Der Siegeszug von CUDA ist ein Beispiel dafür, aber NVidia legt mit DLSS und RTX Slilizium weiteres nach.
Ist euch aufgefallen, wie wenig Platz die CPU Kerne im Apple Silicon einnehmen? Das meiste andere Zeug sind proprietäre Lösungen, die es dann nur von Apple gibt, die nur mit Apple DSLs oder APIs programmiert werden können und bestimmte Anwendungen 1.000 mal (sic!) schneller berechnen können, als allgemeine CPU Kerne.

Ob Apple Silicon in Geekbench 30% schneller oder langsamer ist, als ein Intel i7-12900K oder AMDs R7-6800, das ist dann fast schon egal, Apple kann nämlich die spannenderen Anwendungen bieten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 416c, ThePlayer, lanse und 2 andere
Silverhawk schrieb:
Die Zukunft: Domain Specific Languages. Das bedeutet, dass für bestimmte Klassen von Workloads, bspw. AI, Grafik, Biometrie, Encoding etc. spezielles, aber programmierbares Silizium auf den Prozessor wandert. Die wirklich spannenden Anwendungen funktionieren dann nur noch damit. Der Siegeszug von CUDA ist ein Beispiel dafür, aber NVidia legt mit DLSS und RTX Slilizium weiteres nach.
Da bin ich ganz Deiner Meinung!

Wer das vertiefen möchte, sollte sich mal diese beiden Vorträge gönnen:

Andreas Olofsson (DARPA)

Doug Burger (Microsoft)

Die RISC-V ISA mit ihrer eingebauten Erweiterbarkeit scheint mir allerdings eine noch bessere Grundlage für Domain-Specific Computing zu sein als ARM. Man wird sehen …
 
  • Gefällt mir
Reaktionen: tidus1979, iKantholz und AlphaKaninchen
Haggis schrieb:
Wichtig ist doch, ob die Zahl der Transistoren im Vergleich zu 4nm verdoppelt werden kann.

viel wichtiger ist, da fehlt noch was ;)
....bei gleicher Fläche z.B. ;)

mfg
 
lanse schrieb:
Wer das vertiefen möchte, sollte sich mal diese beiden Vorträge gönnen:

Vielen Dank, die kannte ich noch nicht. Die schiere Größe, die Microsofts Azure Cloud heute schon hat lässt einen erschauern, die von Google, Amazon, Oracle, Cloudflare, Alibaba, Tencent etc. dürfte ähnlich gigantisch sein. Ich, mein Server und meine Applikation, welche hoffnungslos romantische Vorstellung aus einer Zeit, die zu Ende geht
 
Silverhawk schrieb:
  • Die Zukunft: Domain Specific Languages. Das bedeutet, dass für bestimmte Klassen von Workloads, bspw. AI, Grafik, Biometrie, Encoding etc. spezielles, aber programmierbares Silizium auf den Prozessor wandert. Die wirklich spannenden Anwendungen funktionieren dann nur noch damit. Der Siegeszug von CUDA ist ein Beispiel dafür, aber NVidia legt mit DLSS und RTX Slilizium weiteres nach.
Ist euch aufgefallen, wie wenig Platz die CPU Kerne im Apple Silicon einnehmen? Das meiste andere Zeug sind proprietäre Lösungen, die es dann nur von Apple gibt, die nur mit Apple DSLs oder APIs programmiert werden können und bestimmte Anwendungen 1.000 mal (sic!) schneller berechnen können, als allgemeine CPU Kerne.

Ob Apple Silicon in Geekbench 30% schneller oder langsamer ist, als ein Intel i7-12900K oder AMDs R7-6800, das ist dann fast schon egal, Apple kann nämlich die spannenderen Anwendungen bieten.
Genau das meine ich. Das die CPU für bestimmte Workloads optimiert wird und die Software darauf dann zugeschnitten wird.
Das ganze hat nur einen Hacken, wenn ich die API nicht nutzen kann oder man einen neuen Algorithmus verwendet der nicht ins Silicium gegossen ist dann ist es langsam.
Die Frage ist jetzt nun ob diese Spezialisierung auf bestimmte Berechnungen besser ist. Als eine CPU die universell alles berechnen kann. Das wird dann die Zukunft zeigen müssen. Aber ich denke diese Spezialisierung ist nicht der richtige Weg.
 
Demnach hältst Du die Integration der ehemals per separatem Chip realisierten Einheiten zur Berechnung von Fließkommazahlen in die CPU für einen Fehler? Müsstest Du eigentlich, denn spätestens alles was danach an Spezialfunktionen kam war nur noch ein weiterer Schritt auf dem einmal eingeschlagenen Weg.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Silverhawk schrieb:
Vielen Dank, die kannte ich noch nicht.
Dann verpasse auch nicht diesen Beitrag zum Thema "Neuromorphic Computing" - vielleicht "The Next - but one - Big Thing":


Darin: ein Interview mit Steve Furber (ARM, SpiNNaker, …)
Wahnsinnig faszinierend!

Hoffentlich erlebe ich noch was davon, bevor ich so alt bin, dass ich nur noch mit meinen (ungeborenen) Enkelkindern spielen will. ;)
 
  • Gefällt mir
Reaktionen: iKantholz
Zurück
Oben