News Foundry-Gerüchte: AMD geht (vielleicht) zu Samsung

ETI1120 schrieb:
Das konnte aber nur eine Momentaufnahme sein.
Ja selbstverständlich. Wie sonst sollte man Fertigungen verstehen? Ich sprach von RDNA 3 und verwandten GPU-haltigen Produkten in 2022. Vorher hatte ich doch selbst geschrieben, dass AMD bei jetzt starker Architektur die folgende Generation gut auf N5 refreshen könnte.

Ein besonderer Vorteil bei Consumer-GPUs auf N6 wäre die Auslastung zweier verschiedener Fertigungsstraßen durch GPUs und CPUs, mit potentiell mehr Kapazitäten als wenn alles auf N5 ginge.
 
Summerbreeze schrieb:
MMn ist Apples M1 nicht so schnell und dabei sparsam weil es ARM ist.

Sieht man auch daran, dass all die anderen, die an schnellen ARM-Cores gearbeitet haben (Samsung, Qualcomm, ARM), nicht mit Apple konkurrieren konnten, und gegenueber AMD64 nur durch geringeren Verbrauch bei gleichzeitig geringerer Leistung geglaenzt haben. Das hat letztlich dazu gefuehrt, dass Qualcomm und Samsung die eigenen Cores aufgegeben haben, wobei Qualcomm mit dem Kauf von Nuvia einen neuen Anlauf unternimmt. Waere interessant, was das Team bei Apple machen koennte, wenn sie ein paar Jahre lang einen AMD64-Core entwickeln wuerden.
 
ETI1120 schrieb:
Umsatz 2019 -> 2020 +45 %
Umsatz 2020 -> 2021 +65 % Ausblick von AMD

Außerdem hat AMD das Entwicklungsbudget massiv ausgeweitet. Im Vergleich zu 2015 wird es im Gesamtjahr 2021 ca. 3 Mal so groß sein.

Das sind zwar ganz nette Zuwaechse beim Umsatz, nur duerfte sich das vorwiegend auf den CPU Markt beschraenken, wie auch schon zuvor ausgefuehrt, und selbst mit der vergroesserten (evt. auch umgeschichteten/verlagerten) Fertigung hin zu CPUs, wird man im dGPU Bereich zunehmend Nischenentwickler, weil es massiv an Fertigungskapazitäten mangelt.

Wenn der Grossteil des Entwicklungsbudget in die Forschung wandert und man bzgl. der Fertigung weiterhin auf dem gleichen oder einem nur spaerlich angehobenen Niveau verweilt, wird man mit den beiden Marktfuehrern (nVidia bei dGPUs und Intel bei CPUs) nicht mithalten können (finanziell deutlich das Nachsehen haben und an Wettbewerbsfaehigkeit verlieren) und inwieweit Apple dann irgendwann auch noch eine groessere Rolle spielen wird, bleibt zudem abzuwarten.

ETI1120 schrieb:
GPUs: Nvidia wächst ebenfalls sehr stark. Deshalb ist ein deutlicher Zugewinn an Marktanteilen sehr schwer
CPUs: AMD hat sich bei den X86-CPUs einen Marktanteil von ca. 24 % erkämpft. Inklusive Konsolen. 2021 konnte AMD beim Client praktisch nicht zulegen.
Das Interesse an AMD(/RTG) RDNA2 GPUs ist prinzipiell als hoch einzuschaetzen, es kann aber nicht annaehrend gedeckt werden und nVidia GPUs geniessen immer noch einen deutlich hoeheres Ansehen (auch wenn es in der aktuellen GPU-Generation nur schwer zu rechtfeertigen ist) und Mindshare, so dass bei aehnlicher Preisgestaltung sich AMD/RTG ins eigene Fleisch schneidet, auch wenn man ja ohnehin nicht den Bedarf decken kann mangels vorausschauender Planung und aufgrund begrenzter Fertigungskapazitaeten bei TSMC.

Viele GPU-Kaeufer fragen erst gar nicht nach Radeon Karten, sondern fuer diese gibt es eigentlich nur nVidia auch wenn das evt. mit laengerer Wartezeit oder etwas hoeheren Kosten verbunden ist.
Bei den Entwicklern liegt analog dazu auch die Prioritaet bei nVidia- und nicht AMD-Produkten aufgrund des insgesamt doch schon gewaltig groesseren PC-Marktanteils der Marktfuehrers und im Handel findet man natuerlich auch mehr nVidia als AMD Grafikkartenangebote.

Dieser Trend laesst sich nicht nur durch bessere/ebenbuertige Technik umkehren, sondern in Kombination mit besserer Verfuegbarkeit und einer deutlich ausgebauten Fertigung, aber davon ist aktuell bei AMD nichts zu sehen.
Die bei TSMC ohnehin schon begrenzten Kapazitaeten wird man nicht weiter ausbauen koennen (vor 2023/2024), weswegen es eigentlich noetig waere bei Samsung die Produktfertigung zu expandieren (Intel waeren als in Kuerze direkter Konkurrent nicht wirklich eine bessere Fertigungsalternative zu Samsung, selbst wenn erstere technisch letztere ueberholen wuerden, und wie erwaehnt waere der Aufbau oder Aufkauf eines neuen Fertigers auch in einem Joint-Venture eine wahre Herkulesaufgabe fuer AMD, der Frau Su evt. nicht gewachsen waere).

ETI1120 schrieb:
AMD hat weit im voraus bei TSMC die Wafer-Kapazitäten gebucht und auch erhalten

Das ist ja schoen und gut, nur reichen diese lange nicht aus um laengerfristig mit den Marktfuehrern mithalten zu koennen, da TSMC aller Wahrscheinlichkeit nach erst wieder neue/erweiterte Fertigungskapazitaeten an AMD in 2023/2024 anbieten kann und wer weiss, wie viel sie dann von dem Kuchen abbekommen werden (denn auch andere Hersteller koennten erhoehten Bedarf anmelden wie nVidia, QualComm, und Apple, evt. auch weiterhin Intel)?
Vielleicht wird AMD priorisiert werden, vielleicht aber auch nicht und der groesste Geldsack und nicht langjaehrige Loyalitaet wird den Zuschlag erhalten, wer weiss?

ETI1120 schrieb:
AMD kann nicht zweigleisig fahren und gleichzeitig die sehr enge Beziehungen zu TSMC behalten. Es ist micht trivial die Produktion zwischen zwei Foundries aufzuteilen. Wegen der normen Designkosten für aktuelle Prozesse kostet es sehr viel Geld zweigleisig zu fahren.

nVidia konnte das und wird bei TSMC voraussichtlich Lovelace und Hopper dGPUs in 5nm fertigen (vermutlich kleinere Chips wieder bei Samsung), ich sehe nicht wieso das AMD nicht ebenfalls koennte? Zudem fertigt AMD immer noch bei GLoFLo, einer anderen Foundry (auch wenn diese nicht mehr in den kuenftig relevanten Noden eine Rolle spielen duerfte), und nicht nur exklusiv bei TSMC.

ETI1120 schrieb:
Alles was ich dabei zu 5 nm oder zu 3 nm bei Samsung gelesen habe, klingt nicht gut.

Nun gut, wie viele glaubhafte Interna von Samsung online zu lesen sein werden und wie trefflich man das einschaetzen/ableiten kann, kann ich nicht beurteilen, aber die bei Samsung gefertigten Ampere dGPUs wurden doch im Vorfeld auch von vielen Seiten zerredet und viel schlechter dargestellt (auch was die Ausbeute anging) als sie dann im Endeffekt waren.

Ich bin bestimmt kein Anhaenger vom Quasi-Staatskonzern Samsung, aber dieser hat ja ueber Jahre - nicht nur im Speicherbereich - gezeigt, was man dort kann und es wurden konkurrenzfaehige Produkte gefertigt.

Unterschaetzen wuerde ich das Know-How bei Samsung nicht und ueberschaetzen sollte man trotz allem Know-How auch keinen Fertiger, was Intel mit der 10nm Fertigungskrise gut veranschaulicht hat, denn davor waren sie immer klar das Mass aller Dinge in dem Bereich bis TSMC vorbei gezogen ist.
 
Colindo schrieb:
Ja selbstverständlich. Wie sonst sollte man Fertigungen verstehen?
Da habe ich mich ein bisschen unglücklich ausgedrückt.
Ich hatte mehrere Sachen im Kopf.

Es ist möglich, dass die Phoenix APU RDNA 3 verwendet. Ich habe jetzt nicht gefunden, dass sich auf RDNA 2 festlegt.

Ich weiß nicht wie ich Rembrandt einschätzen soll. Die GPU wird deutlich zulegen. Was ist mit der CPU? Wie sehr hilft hier das schnellere Speicherinterface?

Ergibt Rembrandt auf AM5 tatsächlich Sinn? Die GPU wird sehr stark vom schnelleren DDR5-Speicher profitieren. Aber wie teuer wird der Spaß. Wer wechselt für eine CPU im unteren Mainstream auf eine neue Plattform mit teurem Speicher?

Wenn AM5 bereits eingeführt wäre und DDR5-Speicher zu moderaten Preisen angeboten wird, brächte Rembrandt neue Optionen.

Hat AMD Rembrandt bewusst so plaziert, als Vorbereitung weitere Produkte?
Colindo schrieb:
Ein besonderer Vorteil bei Consumer-GPUs auf N6 wäre die Auslastung zweier verschiedener Fertigungsstraßen durch GPUs und CPUs, mit potentiell mehr Kapazitäten als wenn alles auf N5 ginge.
Da sind wir uns einig.

Natürlich werden auch die IODs für Zen 4 einiges an N6-Kapazität belegen, aber es ist für das weitere Wachstum von AMD notwendig die N5-Kapazitäten zusätzlich zu den vorhandenen N7-Kapazitäten zu bekommen. N6 ist so wie ich es verstehe auch billiger als N7 und gibt AMD in Bezug auf Nvidia Spielraum.

Rembrandt würde als billige Lösung viel Sinn ergeben. Aber ich weiß nicht wie das mit DDR5 funktioniert.

Ich gehe davon aus dass Zen 3 noch eine Weile weiter läuft.
Ergänzung ()

mae schrieb:
Sieht man auch daran, dass all die anderen, die an schnellen ARM-Cores gearbeitet haben (Samsung, Qualcomm, ARM), nicht mit Apple konkurrieren konnten, und gegenueber AMD64 nur durch geringeren Verbrauch bei gleichzeitig geringerer Leistung geglaenzt haben.
Summerbreeze hat gemeint, dass Apple ganz massiv davon profitiert, dass sie einen Node weiter sind.

So wie es aussieht hat Apple die besten ARM-Cores entwickelt. Schauen wir Mal wie weit ARM mit ARMv9 aufholen kann.
mae schrieb:
Waere interessant, was das Team bei Apple machen koennte, wenn sie ein paar Jahre lang einen AMD64-Core entwickeln wuerden.
Ich würde es Mal anders herum formulieren. Schauen wir Mal wie Zen 4 auf dem N5 Prozess aussiehtr.
 
Zuletzt bearbeitet:
bei Lisa Su als Ceo mach ich mir da keine Sorgen, sie wird schon wissen was gut für AMD ist.
 
ETI1120 schrieb:
Summerbreeze hat gemeint, dass Apple ganz massiv davon profitiert, dass sie einen Node weiter sind.

Ich habe da meine Zweifel, vor allem bei der Performance. AMD hat z.B. beim Schritt von 14nm zu 7nm nicht viel bei der Taktfrequenz und auch nicht viel bei IPC zugelegt (zumindest im Vergleich zum Apple-IPC). Da wuerde ich mir vom N5-Prozess nicht zuviel erwarten. Ok, mit Zen 4 sehen wir auch das Resultat von noch zwei Jahren Arbeit an der Mikroarchitektur, aber das ist nicht nur ein Effekt des Prozesses (wie Intel mit der Rueckportierung von Ice Lake auf 14nm gezeigt hat).

Und auf der ARM-Seite haben's die Apple-Konkurrenten auch gegen die abgehalfterten Apple-Kerne, die nicht in N5 gefertigt wurden, schwer. Irgendwas haben die Mikroarchitekten von Apple deutlich besser gemacht als die gesamte Konkurrenz, so erstaunlich das bei einer so ausgereiften Technologie auch ist.
 
@mae IPC hat ja auch nichts mit Takt zu tun.

Du hast zwar Recht, dass der Takt von Zen+ zu Zen2 nur leicht erhöht wurde. Es geht aber im wesentlichen um die Performance pro Watt, und dabei sind neue Fertigungsgrößen sehr hilfreich. AMD konnte schließlich die Kerne pro Sockel verdoppeln, weil deutlich weniger Leistung aufgenommen wurde.

Wenn N5 ein besonders guter Prozess ist, was den Zuwachs bei Performance pro Watt angeht, ist das schon relevant. AMD schätzt N5 wohl so ein.
 
Colindo schrieb:
@mae IPC hat ja auch nichts mit Takt zu tun.

Ein bisschen schon, weil die Latenzen bei niedrigerem Takt geringer werden und damit mehr IPC moeglich ist. Bei Apple vs. Intel sieht man das schoen am D-cache: Apple: 3GHz und 3 Takte Latenz; Intel: 5GHz und 5 Takte Latenz. Der Effekt ist aber bei weitem nicht so stark, dass er erklaeren koennte, warum Apple mit 3GHz mit Intel mit 5GHz mithalten kann.

Aber auf was ich hinaus wollte: Die Mikroarchitekten tendieren dazu, bei kleineren Prozessen logisch groessere Strukturen zu verwenden (z.B. reorder Buffer: Haswell (22nm): 192 Elemente, Skylake (14nm): 224, Ice Lake (10nm): 352), die die IPC steigern. Insofern werden die IPC bei kleineren Prozessen tendentiell groesser. Mir scheint aber, dass das alleine Apples IPC-Vorsprung bei weitem nicht erklaert (auch nicht zusammen mit der niedrigen Taktfrequenz).

Du hast zwar Recht, dass der Takt von Zen+ zu Zen2 nur leicht erhöht wurde. Es geht aber im wesentlichen um die Performance pro Watt, und dabei sind neue Fertigungsgrößen sehr hilfreich. AMD konnte schließlich die Kerne pro Sockel verdoppeln, weil deutlich weniger Leistung aufgenommen wurde.

Nur eine Frage der Abstimmung: der 3800X genehmigt sich genauso 142W wie der 3950X. Und auch wenn N5 da etwas bringen wird, erwarte ich, dass eine AMD-APU in N5 mit dem selben Verbrauch wie ein M1 Pro im CPU-Bereich weniger leisten wird. Zu schade, dass es den M1 Pro nur in Apple-Geraeten gibt.
 
Hm also laut der Aussage müssten ja die kleinen CPUS bei kleineren Fertigung mehr zulegen als große CPUs bei kleineren Fertigung.Ist dem wirklich so? Dann wäre ja für alle Aufgaben einer mit weniger Kernen besser aufgestellt. Dann kommt noch das Thema mit Hypertrading,das ja auch nicht außer Acht gelassen wird.Und wenn wer frägt was besser ist,kann man echt nicht leicht beantworten.Wie die Frage was ist besser kleine Kerne vs SMT von AMD.Ich tippe auf die kleinen Kerne.Das erklärt auch warum ein I9 12900k in Anwendung einen Ryzen 9 5900x knapp schlagen kann. Das sind sachen die Spielen in dem ganzen halt mit hinein.
Um das zu bestätigen bräuchte ich einen der diese CPU hat.Ich weis ja wie gut nen Rzyen 9 5900x ist.Somit kann ich einschätzen wie es sein wird. Die Apple CPU kann ich leider nicht testen weil die SOftware wo ich verwende nicht für Linux kompatible ist. Ist halt nen Windows Software.
Zu schade,hätte gerne nen Rundum selber Testen mit allen Möglichen CPU machen wollen.
Will ja alternative wissen und damit auch die beste CPU für meinen Workload herausfinden.
Das Maximale was die Software bis dahin gut skaliert weis ich ja durch das ganze testen.Aber es hilft mir halt leider nix weil es sind halt nur oben hin lauter AMD CPUs. Von Intel warte ich noch immer das wer nen 3175x sowie auch die neuen 12 Generation was für mich testen kann.Und Apple ist hier kaum ein Nutzer vertreten mit dem M1 CPU.
So ist halt ein faierer 1zu 1 vergleich nicht mehr Möglich.Hätte zugerne jedem Hersteller die selben Chancen gegeben.Nun heißt es jedenfalls abwarten.Ich erhoffe mir ja noch immer das beste herauszuholen.

Brauche noch nen Laptop ersatz.Ob es ein Laptop mit 5800H oder 5700G klein Pc oder doch einer der neuen Intel sein wird.Macht die sache halt nicht einfach.Es darf nicht mehr als 600 €(gesammt Pc) kosten,der Stromverbrauch ist mir absolut wichtig.Ich bin also einer der auf Leistung Pro Watt schaut.Leistung Pro €.
Ich weis wie gut ein 5800x und 5800H so sein wird.Das ist auch die Richtung die ich gehen wird.Ich bezweifle das sich bis Feburar 2022 sich noch was tuen wird im Bereich CPU.
Sollte dann doch,dann erwarte ich ne satte Mehrleistung.Ich erhoffe mir also sehr starke mehrleistung.
Die wo es bisher ist überzeugt mich im ganzen noch nicht ganz.Denn nach oben hin werden die CPUS immer Stromdurstiger. Die 125 % mehr Stromkosten tuen schon weh ,wenn die bald kommen werden.Dann ist er bei mir eh schon hoch.Und das alles weil der Desktop 5950x durch VIdeoumwandeln so viel Zieht.

Ich weis ich wiederspreche mich in dem ganzen.Einerseits will ich Leistung haben,aber anderseits nen Stromsparende CPU.Beides sollte im Einklang sein,wie ich finde.
 
mae schrieb:
Ich habe da meine Zweifel, vor allem bei der Performance.
Ich habe Apple nicht sonderlich verfolgt. Nur vorhin kurz noch Mal reingeschaut.

Apple hat einen komplett anderen Systemaufbau als AMD und Intel in ihren Notebooks.

Der RAM sitzt auf dem SOC, im selben Package. Damit hat das RAM neben einer Bandbreite von 204 GBtes/s auch sehr kleine Latenzen. Es ist, so würde ich es sagen, eher ein L4-Cache als RAM.

Und weil die Daten nur kurz bewegt werden müssen sinkt auch der Energieverbrauch entsprechend

Diese Speicheranbindung geht zulasten der Modularität des Notebooks. Aber ganz ehrlich, die braucht niemand. Wer sein Notebook mit Speicher aufrüsten muss hat zu geizig gekauft.

D. h. Apple hat den SOC-Gedanken auf die Spitze getrieben und kann so seine CPU viel besser auslasten.

3,2 Ghz all core ist für ein kompaktnotebook ein guter Wert.

Lange Rede kurzer Sinn: Ich würde die gute Performance des M1 nicht alleine der guten Architektor in den CPU-Kernen zuschreiben.
 
Ueber M1 Pro:

ETI1120 schrieb:
Der RAM sitzt auf dem SOC, im selben Package. Damit hat das RAM neben einer Bandbreite von 204 GBtes/s auch sehr kleine Latenzen.

Sollte man meinen.

Bandbreite: Tatsaechlich ist die Bandbreite des M1 Pro der Nutzung von LPDDR5-6400 und einem 256 (eigentlich 8x32) bit breitem Speicherinterface geschuldet. Ich gehe davon aus, dass Laptops mit Alder Lake auch LPDDR5-6400 verwenden koennen, die zusaetzlichen Speicherkanaele koennten Intel und AMD auch bauen, tun es aber nicht (vermutlich weil es auf der CPU-Seite bei den meisten Anwendungen kaum etwas bringt; das scheint eher fuer die GPU gedacht zu sein, deswegen hat der M1 Max noch einmal doppelt soviel).

Latenz: Tatsaechlich hat der M1 Max 111ns Latenz (Full Random) zum Hauptspeicher (LPDDR5-6400), waehrend der Core i9-12900K 93ns Latenz zum Hauptspeicher (DDR5-4800) hat (und die Latenzen von anderen AMD64-CPUs noch geringer sind).

Also nein, an der Hauptspeicheranbindung liegt der hohe IPC des M1 Pro/Max nicht, und der Hauptspeicher ist ganz bestimmt kein L4 Cache. Aber ja, eigentlich haette auch ich mir bessere Latenzen von der geloeteten und gestapelten RAM-Anbindung des M1 Pro/Max erwartet.

Und weil die Daten nur kurz bewegt werden müssen sinkt auch der Energieverbrauch entsprechend

Das hilft, aber der Loewenanteil des hohen Verbrauchs bei Intel und AMD ist in den Cores, teilweise im Interconnect zwischen den Cores (vor allem bei EPYC), nicht in den Memory Controllern und im Speicher.

Diese Speicheranbindung geht zulasten der Modularität des Notebooks. Aber ganz ehrlich, die braucht niemand. Wer sein Notebook mit Speicher aufrüsten muss hat zu geizig gekauft.

Mein Laptop ist nur mit 8GB RAM zu haben, und das ist verloetet. Zum Glueck war dann noch ein steckbarer zweiter RAM-Slot dabei, und so hat mein Laptop jetzt 40GB; mehr geht leider dank des verloeteten RAMs nicht.

3,2 Ghz all core ist für ein kompaktnotebook ein guter Wert.

Ja, nur dass der M1 Pro/Max mit 3,2GHz aehnlich schnell ist wie Intel und AMD bei ~5GHz (ca. Faktor 1.5 hoehere IPC).

Lange Rede kurzer Sinn: Ich würde die gute Performance des M1 nicht alleine der guten Architektor in den CPU-Kernen zuschreiben.

Ja, der Prozess hilft auch, aber der Beitrag der Mikroarchitektur ist schon betraechtlich; und ich vermute, dass die Apple-Ingenieure irgendeinen Durchbruch erzielt haben, der hoehere IPC ermoeglicht.
 
  • Gefällt mir
Reaktionen: incurable
mae schrieb:
Ich gehe davon aus, dass Laptops mit Alder Lake auch LPDDR5-6400 verwenden koennen, die zusaetzlichen Speicherkanaele koennten Intel und AMD auch bauen, tun es aber nicht (vermutlich weil es auf der CPU-Seite bei den meisten Anwendungen kaum etwas bringt; das scheint eher fuer die GPU gedacht zu sein, deswegen hat der M1 Max noch einmal doppelt soviel).
Weil die hohe Speicherbandbreite nichts bringt baut Apple ein extrem breites Speicherinterface?
Weil die hohe Speicherbandbreite nichts bringt führt AMD den 3D-V-Cache ein?
 
Apple braucht die hohe Speicherbandbreite für die integrierte GPU.

V-Cache reduziert die Latenzen für Speicherzugriffe im schmalen Bereich des Latenzbandes, das duch den Cache zusätzlich lokal(er) vorgehalten werden kann.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Weil die hohe Speicherbandbreite nichts bringt baut Apple ein extrem breites Speicherinterface?

Fuer die CPU bringt Speicherbandbreite bei den meisten Anwendungen wenig. Sogar auf einem Threadripper Pro mit 64 Cores ist der Unterschied zwischen 2 und 8 Channels erstaunlich gering. Warum Apple ein breites Interface baut, wurde erklaert.
 
Zurück
Oben