Notiz Jeff Wilcox: Apple-CPU-Entwickler wechselt zurück zu Intel

@Lan_Party94 @Cruentatus @benneq Apple wird meiner Meinung nach erst wieder einen fremden Prozessor zulassen, wenn dieser auf ARM basiert und dann wesentlich leistungsstärker als die eigene Entwicklung wäre.

Denn mit ihrem M1 Prozessor zeigen sie auf ihrer Infrastruktur prima, was so ein Teil auch in einem normalen Notebook kann. Warum sollten sie da auf x86-64 zurückgehen?

Natürlich gibt es eine Art von Technologietransfer in Form von Wissen, allerdings muss auch eine Firma wie Intel dieses Wissen umsetzen und auf die eigenen Parameter wandeln, so daß man vielleicht erahnen könnte, daß es aus anderer Feder stammt, aber eben dann doch nicht mit anderen Patenten und Lizenzen kollidiert.

Allerdings hat man auf solchen Positionen immer irgendwie ein "Bäumchen wechsel dich" Spiel. Wenn man sich einfach mal anguckt, wohin unser lieber Jim Keller immer wechselte...
 
Syrato schrieb:
Ist diese Person so gut, wohlgemerkt wechselt ja nur er? Bringt das etwas? Intel for ARM!
@rg88 naja, Apple hatte, in den letzten Jahren, meistens Intel CPUs, jetzt wechselt er zu Intel, also wird er wieder pro Intel sein...
Er wechselt mit viel Knowhow....
 
Ltcrusher schrieb:
Warum sollten sie da auf x86-64 zurückgehen?
Das werden sie natürlich nicht tun. Habe ich ja auch geschrieben.

Mir ging es nur darum dass die Aussage im Text richtig ist. Er arbeitet für Intel und arbeitet daher daran Intel-Prozessoren wieder in Macs zu bringen (denn das ist erklärtes Ziel Intels). Die Aussage zur Ironie ist also korrekt.

Dass das wohl nicht passieren wird sehe ich genauso.

Viele Grüße
 
  • Gefällt mir
Reaktionen: Mcr-King
t3chn0 schrieb:
Perfekt, hat der Boy doch alles richtig gemacht. Das ist wirklich "best of both worlds". =D

Was der im Monat auf seinem Konto stehen hat, hat wohl der normale Bürger kaum im Jahr ^^. Aber gut, der Bursche scheint richtig was auf dem Kasten zu haben. Von nichts, kommt nichts =).

Ich könnte dir jetzt einige nennen bei denen von nichts viel kommt oder gekommen ist.
 
foo_1337 schrieb:
Nee, der wird jetzt bei Intel versuchen, Apple Silicon einzuführen ;)
Wahrscheinlich der neue M2 Chip Entwicklung von Apple hergestellt bei Intel. 😉 😅

So ungefähr obwohl garnicht mal so abwegig da Intel ja unbedingt Kunden für ihre Fabs braucht da die mehr als genügend Verluste gemacht haben in letzter Zeit.
 
Mcr-King schrieb:
So ungefähr obwohl garnicht mal so abwegig da Intel ja unbedingt Kunden für ihre Fabs braucht da die mehr als genügend Verluste gemacht haben in letzter Zeit.
Hm? Die Fabs jetzt oder meinst Du Intel im "übertragenen" Sinne?
Derzeit stehen die Leute an den Fabs doch schlange, dachte ich? Und trotz Substratmangel läuft "genügend" vom Band?

Ansonsten ist das das übliche Springen dieser Ausnahmedesigner. Die kann man wohl an keinem Arbeitsplatz lang halten und die Arbeitszeiten bestimmen die im Normalfall selbst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Ich glaube auch nicht daran, dass Apple wieder zu Intel wechselt. Warum sollte man sich sonst einen Intel-Entwickler angeln und ihn dann nach einigen Jahren wieder gehen lassen, wenn man bekommen hat, was man wollte, nämlich ein eigenes CPU-Design.

Wird die Zeit zeigen, was kommt. In 10 Jahren schreiben dann alle über die Schlagzeile: "Das neue Macbook hat einen Zen 10+ von AMD!", dass sie es schon immer gewusst haben :D.
 
  • Gefällt mir
Reaktionen: TechFA
Vielleicht war er ja nicht einverstanden damit das Intel bei Apple rauafliegt und möchte deshalb wider zurück :)
 
.Sentinel. schrieb:
Ansonsten ist das das übliche Springen dieser Ausnahmedesigner.
Würde ich im Prinzip auch sagen.
Prinzip: siehe unten

.Sentinel. schrieb:
Die kann man wohl an keinem Arbeitsplatz lang halten und die Arbeitszeiten bestimmen die im Normalfall selbst.
Du spielst wohl auf Jim Keller an.

Man muss Ihnen interessante Aufgaben geben und die Möglichkeit das zu tun was sie wollen. Dann ist ein Wechsel für viele nicht mehr so attraktiv. Allerdings wenn sie erfolgreich an Projekten arbeiten gibt es immer ein Projektende. Und das kann durchaus das Signal für den Aufbruch sein.

Wobei ich denke bei Jeff Wilcox trifft die nicht zu. Hier stehen noch einige Dinge an. Apple Silicon für High End PCs und für Server.

Bei AMD hatte Jim Keller die Aufgabe die CPU-Entwicklung neu aufzustellen. Als dies erledigt war ging er zu Tesla wo er die Chipentwicklung aufgebaut hat. Als er fertig war ging er zu Intel. Warum er bei Intel ging ist mir nicht klar.

Zu Bedenken ist, dass sich die Meldungen von Abgängen bei Apples SoC-Team häufen. Irgendwie habe ich das Gefühl Apple hat die Entwickler verärgert oder frustriert.
Wie gesagt bei Nuvia waren es nicht nur die 3 Firmengründer sondern sehr viel mehr Leute. Auch bei Rivos sind sehr viele erfahrene Apple-Leute gelandet.
 
.Sentinel. schrieb:
Hm? Die Fabs jetzt oder meinst

Die Fabs und nee so gut ausgelastet sind die nicht wie man immer glauben soll zumindest die von Intel nicht. ;)
 
Sie sind unabhängig, also warum wieder an wen binden? Das wird nicht passieren.
 
@Tawheed
Genau das ist ja auch das Problem von Intel gewesen. Sie waren zu stur, weil sie jahrelang to big to fail waren.
Der ganze Smartphone Bereich wurde seit 2007 komplett verpennt. Nun ist ein Großkunde abgesprungen, AMD ist erfolgreich geworden und Intel hat den Ruf, dass sie nicht mehr die besten Prozessoren bauen - nur die am meisten Strom verballern.

Aber jedes gute Unternhmen wird irgendwann aufwachen und merken, dass es so nicht weitergehen kann.
Und genau das passiert bei Intel zurzeit: Neuer Chef, Mobileeye, Alder Lake, Chipfabrik in Deutschland usw. usf.

Ich schätze mal, dass sie in einigen Jahren wieder richtig mitspielen.
Und genau deshalb habe ich ordentlich günstige Aktien von Intel gekauft. :-)
 
Wesir schrieb:
Sie sind unabhängig, also warum wieder an wen binden? Das wird nicht passieren.
Ich verstehe was Du meinst, aber ich würde es anders formulieren.

Apple als Firma strebt die vertikale Integration an. Sie bieten Hardware, Software und Inhalte wie über ITunes an.

Diese vertikale Integration wird durch Apple Silicon auf die Spitze getrieben. Sie können die SOC-Hardware, Betriebssystem und Standard-Bibliotheken wie Metal Hand-In-Hand entwickeln. Damit können sie viel mehr Hardwarefunktionen für die Anwender tatsächlich nutzbar machen.

Der Fitrestorm-Core ist ein Monster. Wenn man die Anzahl der Load/Store-Units, die Anzahl der Rechenwerke und die gigantische Größe der L1- und L2 Caches betrachtet sehen Zen 3 und auch Goldencove schwachbrüstig aus.

1641744451706.png

Von medium.com
Zusätzlich zum Fitrestorm-Core hat Apple jede Menge zusätzlich spezielle Funktionen (ISP, Neural Engine) in die M1-SOCs gepackt. Diese Funktionen verwenden sie in Betriebssystem und Software auch aktiv.
Und auch das RAM im Package ist dem ganzen eine schier unglaubliche Speicherbandbreite verpasst. allerdings ist der Speicher anders als im Bild genannt kein HBM sondern LPDDR5.

Weil die M1-Prozessoren praktisch den gesamten Computer beinhalten ist der Systemaufbau außen herum sehr einfach und damit billig. Das Mainboard muss eigentlich nur den Saft zum SOC bringen und die IO mit dem Massespeicher bzw. den externen Anschlusssteckern verbinden. Braucht man für einen PC mit M1 wirklich noch PCIe-Steckkarten? Wie ich es verstehe, behält Apple bei Computern die PCIe-Steckplätze bieten vorerst noch Intelprozesoren bei.

Durch den Umstieg auf Apple Silicon müssen alle Programme neu kompliert werden. Dabei werden Compiler und Compileroptionen verwendet die die aktuelle Hardware voll ausnützen. Bei X86 muss man immer alte CPUs berücksichtigen und deshalb ist es sehr aufwendig alle Features der aktuellen Prozessoren zu verwenden. Allein dieser Umstand bringt Apple momentan einen deutlichen Performance-Vorteil. (Einen synthetischen Benchmark kann Intel Mal schnell neu für Alder Lake kompilieren, die gigantische Menge an Anwendungsoftware nicht)

So eine vertikale Integration hat Risiken. Zu leicht kann es passieren das man mittelmäßige Funktionen zu einem Ganzen integriert. Und dann kann man trotz guter Integration gegen ein lose integriertes System aus Spitzenfunktionen schlecht aussehen. Aber Apple hat die finanziellen Resourcen neben der guten Integration auch auf jeder Ebene Spitzenfunktionen zu entwickeln. Mit dem M1 in all seinen Derivaten hat Apple gezeigt dass sie es auch können.

Warten wir ab wie sich der personelle Aderlass bei Apple auswirkt.
Apple wird nicht zu Fremd-SOCs wechseln weil diese 20 oder 30 % schneller sind. Um die Entscheidung für Apple Silicon zu revidieren, müsste Apple komplett den Anschluss verlieren. Dies wird so schnell nicht geschehen.

Der Alptraum von Intel ist es, dass sie sich mit AMD herumschlagen während Apple still und heimlich den Anteil auf dem Notebookmarkt Stück für Stück ausbaut. Aktuell hat Apple um die 10 %.
 
  • Gefällt mir
Reaktionen: TechFA, Kalsarikännit, Wesir und eine weitere Person
Ohje. Ist vor vielen Jahren nicht auch der Chef-Entwickler von Siri zu Amazon gegangen?
Und wenn man jetzt vergleicht, was der Echo alles kann und wie "dumm" Siri im Vergleich dazu ist...
 
t3chn0 schrieb:
Was der im Monat auf seinem Konto stehen hat, hat wohl der normale Bürger kaum im Jahr ^^.
Ich leg' da mal noch locker und mind. Faktor 10 drauf
 
ETI1120 schrieb:
Der Fitrestorm-Core ist ein Monster. Wenn man die Anzahl der Load/Store-Units, die Anzahl der Rechenwerke und die gigantische Größe der L1- und L2 Caches betrachtet sehen Zen 3 und auch Goldencove schwachbrüstig aus.
Genau deshalb glaube ich aber auch, dass Apple schon so langsam in eine Sackgasse kommt. Man nutzt jetzt schon ca. 80% der maximalen Dichte von TSMCs N5, das ist deutlich mehr als die Konkurrenz nutzt. Bei N3 gibt es anscheinend Probleme und der auf dem Papier fast gleichwertige N4/N4P hat einen riesigen Nachteil:

Die mögliche Dichte steigt nur um 6%. Der M1 MAX ist schon über 400mm^2 groß. Solange N3 nicht ohne Probleme läuft, bleibt Apple nur noch übrig, mehrere SoCs zu verbinden. Ein doppelter M1 MAX wäre vielleicht gerade noch möglich, mehr aber nicht. Und dann hört man Gerüchte von 40 Kernen (32 große 8 kleine) und 128 Grafikkernen. Das ist mMn in naher Zukunft nicht möglich, bevor N3 absolut gereift ist oder N3E draußen ist. Damit rechnet man in 2 Jahren. Und selbst in N3 ist ein solcher Chip noch ein Gigant.

Und neue Architekturen zeichnen sich meist dadurch aus, dass sie noch breiter sind und dadurch nochmals mehr Transistoren brauchen, deswegen meine obige Anmerkung mit der Sackgasse. Die Effizienz vom M1 MAX ist Bombe, die eigentliche Performance im Vergleich zum Aufwand (Transistorbudget) nicht. Mit dieser Taktik (extreme Breite, dafür geringer Takt -> Effizienz) ist man meiner Einschätzung nach jetzt schon so gut wie am Ende. Das hätte vor 20 Jahren noch geklappt, aber jetzt, da jeder neue Prozess bei TSMC zahmer wird (Dichte von N7 zu N5 zu N3 jeweils nur Faktor 1.7, danach evtl nur noch 1.5) wird man da ziemlich schnell an Grenzen stoßen.

Vielleicht deshalb die Mitarbeiterflucht. Ja es ist Spekulation, aber so sehe ich es als Interessierter Zuschauer. Ohne N3 wird Apple nicht mehr wirklich zulegen können, außer mit der Zusammenschaltung mehrerer Dies. Und die bisherigen Designs ziehen ihre Stärke ja gerade aus dem monolithischen Design. Dass ein Chiplet Design auf Anhieb super läuft, ist nicht gesetzt.
 
Philste schrieb:
Genau deshalb glaube ich aber auch, dass Apple schon so langsam in eine Sackgasse kommt.
Wir werden sehen was Apple mit dem M2 aus dem Hut zaubert.

Semianlysis war von der CPU des A15 nicht begeistert, und hat das dem Aderlass bei den CPU-Leuten zugeschrieben.

Philste schrieb:
Man nutzt jetzt schon ca. 80% der maximalen Dichte von TSMCs N5, das ist deutlich mehr als die Konkurrenz nutzt.
Man lässt 20 % liegen. Die Konkurenz lässt noch mehr liegen.

Ist das besser Ausnutzen der Chipfläche ein Problem für Apple oder das Zeichen, dass sie eine überragend gute Designabteilung haben?

Ohne wirklichen Einblick und Verständnis in das Design von Halbleiterschaltungen sind das für mich alles nur Zahlenspiele.
Philste schrieb:
Bei N3 gibt es anscheinend Probleme und der auf dem Papier fast gleichwertige N4/N4P hat einen riesigen Nachteil:
Die mögliche Dichte steigt nur um 6%.
Und damit hast Du gleich bestätigt, N4 ist bei weitem nicht gleichwertig zum N3. Diese ganzen Iso-Perf bzw Iso-Power angaben hören sich toll an, können aber nur von Leuten beurteilt werden, die genau wissen auif welche Arbeitspunkte sie sich beziehen, welche Designregeln und welche IP eingesetzt wurden.

Die Prozesse werden durch Kennlinien beschrieben, nicht durch einen einzelnen Punkt. Und wenn man nicht sicher ist dass sich diese Angaben auf denselben Arbeitspunkt beziehen, können sie nicht verglichen werden. Die Kennlinien der Prozesse haben verschiedene Steigungen. Nicht mit jedem Prozess lassen sich dieselben Maximalspannungen erreichen.

Philste schrieb:
Der M1 MAX ist schon über 400mm^2 groß.
Und damit verdammt teuer. Aber Apple verbaut alle SOCs in Premium-Produkten also können sie sich teure SOCs leisten.
Philste schrieb:
Solange N3 nicht ohne Probleme läuft, bleibt Apple nur noch übrig, mehrere SoCs zu verbinden.
  1. Du misst dieser ganzen FUD über TSMC N3 viel zu viel Bedeutung zu. Die Risk-Produktion hat gerade erst begonnen es kann noch niemand wissen wie das läuft.
    Wenn TSMC nicht zuversichtlich wäre es hinzubekommen hätten, sie die Risk-Produktion nicht gestartet. Aber es kann natürlich noch einiges schief gehen. Intel hing mit 10 nm mehrere Jahre in der Risk-Produktion fest. Das könnte auch TSMC passieren. Nächstes Jahr wissen wir mehr.
  2. Wo ist das Problem? Apple hat sehr viel Erfahrung und Know-How in 2,5D-packaging. Apple ist Großkunde von TSMC InFO-R.
    Sie packen derzeit das RAM per InFO-R an das SOC. Sie kennen sich also mit dem Zusammenbauen von Chips aus.

Das Verfahren das AMD aktuell für Zen2/3 verwendet, ist übrigens billiger als InFO-R aber bei weitem nicht so leistungsfähig. So weit ich weiß wird AMD mit Zen 4 ebenfalls auf ein Integrated FanOut umsteigen. Ob es eine InFO-Variante von TSMC oder etwas entsprechendes von ASE ist wollte der Autor nur hinter der Paywall verraten
Philste schrieb:
Ein doppelter M1 MAX wäre vielleicht gerade noch möglich, mehr aber nicht. Und dann hört man Gerüchte von 40 Kernen (32 große 8 kleine) und 128 Grafikkernen.
AMD hat momentan 64 Kerne und wird dieses Jahr noch 96 Kerne bieten.

Ich sehe keinen vernünftigen Grund der Apple hindern sollte auch zu einem MCM- oder Chiplet-Design zu wechseln. Wie gesagt die Packaging-Technik beherrschen sie. Das Systemdesign ist herausfordern aber sicher auch für Apple lösbar

MCM- und Chiplet-Designs haben ihre Herausforderungen und Kosten. AMD hat dies nur gemacht um die Rückkehr in den Servermarkt zu ermöglichen. Ein monolitischer 64-Kern-Zen-2 wäre zu groß geworden und wäre mit der Standardbelichtungstechnik nicht herstellbar.

Apple hatte es bisher nicht nötig seine SOC in Teile zu produzieren und als einzelne Chips in einem Package zu integrieren. Aber wie gesagt bedeutet dies nicht, dass sie es nicht hinbekommen können.

Wenn ich mich recht erinnere wollen ein paar Leute sogar Teile auf dem M1-Max-Die idenzifiziert haben, die das koppeln mehrere Dies ermöglichen sollen. Vielleicht werden sie wie AMD im ersten Schritt ein MCM-Design umsetzen. Ich halte es als sicher, dass Intel als früher oder Später aus der Apple-Cloud fliegt. Also braucht Apple Serverchips.

Philste schrieb:
Das ist mMn in naher Zukunft nicht möglich, bevor N3 absolut gereift ist oder N3E draußen ist. Damit rechnet man in 2 Jahren. Und selbst in N3 ist ein solcher Chip noch ein Gigant.
Was den ökonomischen Druck auf Apple verstärkt. Irgendwann wird es selbst für Apple zu teuer große Chips mit schlechter Ausbeute herzustellen.
Philste schrieb:
Und neue Architekturen zeichnen sich meist dadurch aus, dass sie noch breiter sind und dadurch nochmals mehr Transistoren brauchen, deswegen meine obige Anmerkung mit der Sackgasse.
Ob es eine Sackgasse ist wird die Zukunft zeigen.
Philste schrieb:
Die Effizienz vom M1 MAX ist Bombe, die eigentliche Performance im Vergleich zum Aufwand (Transistorbudget) nicht.
Und jetzt wird es interessant.
Apple fährt eigentlich gemäßigte Taktfrequenzen.
Machen sie dies weil sie es nicht nötig haben höher zu takten oder weil sie nicht höher takten können.
Auf dem Desktop ist es zwar schön effizient zu sein, aber 20 W mehr entsprechend höhere Performance würden viele akzeptieren.
Philste schrieb:
Mit dieser Taktik (extreme Breite, dafür geringer Takt -> Effizienz) ist man meiner Einschätzung nach jetzt schon so gut wie am Ende. Das hätte vor 20 Jahren noch geklappt, aber jetzt, da jeder neue Prozess bei TSMC zahmer wird (Dichte von N7 zu N5 zu N3 jeweils nur Faktor 1.7, danach evtl nur noch 1.5) wird man da ziemlich schnell an Grenzen stoßen.
Das Problem trifft alle manche früher manche später. Aus diesem Grund ist Advanced Packaging in aller Munde.

Das Problem ist allerdings nicht das Zerlegen sondern das Zusammenbauen eines SOC. das Mechanische Zusammenbauen halte ich wie gesagt für Apple für einen alten Hut. Systemtechnisch ist es sicher für Apple Neuland.
Philste schrieb:
Vielleicht deshalb die Mitarbeiterflucht.
Definiv nein. Die einfachste Methode gute Ingenieure zu bekommen bzw. zu halten ist es Ihnen eine herausfordernde Aufgabe zu stellen.

Vielleicht war Apple zu geizig, vielleicht hat die Firmenleitung interessante Projekte blockiert, vielleicht ...
Philste schrieb:
Ja es ist Spekulation, aber so sehe ich es als Interessierter Zuschauer.
Ich habe zu Apple eine Art Haßbewunderung.

Sie haben tolle Produkte gemacht. Gerade bei Computerhardware hat Apple viele tolle Geräte auf den Markt gebracht. Es war zwar auch Mist darunter. Aber im Gutem wie im Schlechten kein Vergleich zu dem was die technisch unfähigen PC-OEMs fabrizieren.

Sie haben mit einigen Dingen wie dem IPhone oder auch ITunes Neues kreiert.

Aber Apple ist arrogant und maßlos gierig. Vieles von dem was sie als eigene Leistung auf ihre Fahnen schreiben hat Apple schlicht und einfach gestohlen.

Bevor ich mir ein Apple-Produkt kaufe, muss die Hölle zufrieren.

Philste schrieb:
Ohne N3 wird Apple nicht mehr wirklich zulegen können, außer mit der Zusammenschaltung mehrerer Dies.
Wenn Apple den Weg größerer Designs geht kommen sie nicht um MCM oder Chiplets herum.
Einen Serverchip werden sie nicht monolitisch machen.
Philste schrieb:
Und die bisherigen Designs ziehen ihre Stärke ja gerade aus dem monolithischen Design.
Ich würde integriertes Design sagen. Das umfasst CPU, GPU, ISP, ... aber auch Betriebssystem, Bibliotheken und Software.

Da alle Teile des SOC im selben Package sein werden, bleiben die Wege erheblich kürzer als bei einem Standard-PC.

Und falls Apple sogar echtes 3D hin bekommt, werden die Wege sogar kürzer als bei einem riesigen monolithischen Chip.
Philste schrieb:
Dass ein Chiplet Design auf Anhieb super läuft, ist nicht gesetzt.
Wenn man in der Technik Neuland beschreitet, begibt man sich immer ins Risiko. Aber gerade dieses Risiko macht den Reiz der Technik aus und den Ingenieurberuf zu interessant.

Apple hat alle Voraussetzungen ein Chiplet-Design hinzubekommen. Schauen wir Mal was kommt.
 
  • Gefällt mir
Reaktionen: sikarr, TechFA und Philste
tidus1979 schrieb:
So lange, bis jemand anders noch mehr Geld bietet
Natürlich, ich arbeite auch nicht weil das so wahnsinnig erfüllend ist. Ich tausche Lebenszeit gegen Geld.
 
  • Gefällt mir
Reaktionen: CyLord83 und knoxxi
Zurück
Oben