News Intel Comet Lake: Acht CPUs mit zwei bis sechs Kernen bei 4,5 bis 25 Watt

Tech_Blogger schrieb:
In 14nm wäre so ein Rome gar nicht machbar und in 7nm wäre die Kosten wohl selbst für Intel zu hoch.

Das ist korrekt, weshalb auch Intel nun auf die Modulbauweise umstellt. Es ist aber nicht korrekt zu behaupten, die EPYCs wären grundsätzlich billiger zu fertigen, als ihre aktuellen Intel Pendants. Allerdings kann Intel hier mit der aktuellen Fertigung nicht mit den High-End AMD CPUs mitmischen.

Tech_Blogger schrieb:
Milchmädchenrechnungen bringen mir aber nichts;)

Was für eine "Milchmädchenrechnung"?
1x Rome I/O DIE (12nm): 416 mm²
8x Zen 2 CCD (7nm): je 74 mm² (gut 592mm² Waferfläche)

Skylake XCC (14nm): 694 mm²

694mm² in 14nm gegen 592mm² in 7nm, die Kosten für 7nm hat AMD selbst in der Folie präsentiert, den IO Chip und die Kosten für den Interposer lassen wir erst einmal außen vor. Ich glaube auch ein Drittklässler wird hier leicht erkennen, dass AMD hier wesentlich teurer produzieren lässt, als Intel es kann.
 
Zuletzt bearbeitet:
xexex schrieb:
Das ist korrekt, weshalb auch Intel nun auf die Modulbauweise umstellt. Es ist aber nicht korrekt zu behaupten, die EPYCs wären grundsätzlich billiger zu fertigen, als ihre aktuellen Intel Pendants. Allerdings kann Intel hier mit der aktuellen Fertigung nicht mit den High-End AMD CPUs mitmischen.



Was für eine "Milchmädchenrechnung"?


694mm² in 14nm gegen 592mm² in 7nm, die Kosten für 7nm hat AMD selbst in der Folie präsentiert und den IO Chip lassen wir erst einmal außen vor. Ich glaube auch ein Drittklässler wird hier leicht erkennen, dass AMD hier wesentlich teurer produziert.

Du vergisst die Yields. Mein Gott. Denkst du auf dem Intel Wafer sind alle Chips ok? Was denkst du was passiert wenn am IO an der falschen Stelle defekt ist? Wegwerfen! Amd deaktiviert den Kern bzw CCX usw. Der Abfall ist Ryzen 3000..
 
  • Gefällt mir
Reaktionen: Leon_FR, Oberst08 und v_ossi
Floppes schrieb:
Du vergisst dir Yields. Mein Gott. Denkst du auf dem Intel Wafer sind alle Chips ok? Was denkst du was passiert wenn am IO an der falschen Stelle defekt ist? Wegwerfen!

Wenn bei AMD das Die an der falschen Stelle defekt ist, dann ist es genauso Müll wie bei Intel. Umgekehrt verkauft Intel auch nicht nur den Xeon® Platinum 8180 Processor, sondern aus dem selben teildefekten Die werden noch zig weitere CPUs hergestellt.

Wie ich schon sagte, geht es bei Intel durch die Masse.
 
Wahrscheinlichkeiten? Ist dir ein Begriff? Ansonsten bräuchten wir den Chiplet Ansatz nicht, weil erstmal ist der Ansatz schlechter für z.B Speicherlatenzen
 
Floppes schrieb:
Ansonsten bräuchten wir den Chiplet Ansatz nicht, weil erstmal ist der Ansatz schlechter für z.B Speicherlatenzen

Ich habe es glaube ich schon weiter oben geschrieben, je schlechter die Yields sind, desto mehr Sinn macht eine Chipletfertigung. Sie ermöglicht auch ein einfacheres Binning.

Es steht außer Frage, dass es für AMD der richtige Weg gewesen ist und auch für Intel sein wird. Das war aber auch nicht der springende Punkt, in dem es einzig um die Behauptung ging ob die aktuelle AMD Fertigung einer EPYC CPU billiger oder teurer als die Fertigung einer Intel CPU ist.
 
Es ist interessant, dass Comet Lake nun plötzlich LPDDR4 unterstützt - ich dachte das geht erst ab Ice Lake.

Comet Lake ist ja nur ein aufgemotzter Coffee Lake, was ja an sich der x-te Skylake ist. Das war doch ewig ein Problem und deshalb mussten sich die Notebook-Hersteller in den letzten Jahren zwischen Power (DDR4) und Energieeffizienz (LPDDR3) entscheiden. Merkwürdig, dass Intel sich jetzt erst gezwungen sieht die Speicher-Unterstützung anzupassen. Aber gut, man hatte ja auch keine Konkurrenz...
 
Für LPDDR4(X) sind größere Änderungen am Speichercontroller notwendig. Vermutlich hat Intel das für Icelake-U entwickelte IMC Design auf 14nm portiert und in Comet Lake integriert. Die Vorlaufzeit hierfür dürfte bei um die zwei Jahre liegen. "Jetzt" ist im Kontext komplexer Mikrochips ziemlich relativ.

Tech_Blogger schrieb:
Woher glaubst du das denn bitte zu wissen?

Wie schon gesagt sind TSMC und GF eigenständige Unternehmen welche Gewinne erwirtschaften wollen und müssen. Hinzu kommt das Intel um Faktoren höhere Stückzahlen als AMD hat. Volumen drückt immer die effektiven Kosten. Sowohl bei interner als auch externer Fertigung.

Das Problem mit 10nm hat Intel Milliarden gekostet, was man da aber halt schon einrechnen muß!

Spielt bei der Betrachtung der 14nm Designs keine Rolle. Aber auch sonst lässt es sich nicht so pauschal runter brechen. Zum einen läuft der Absatz der 14nm Produkte weiterhin sehr gut (bei noch immer traumhaften Margen) und zum anderen handelt es sich in erster Linie um R&D Ausgaben. Das Design und/oder Prozess am Ende einer langen Entwicklung (erstmal) nicht im anvisierten Zielfenster landen passiert in dieser Branche immer wieder. Bedeutet aber nicht das die R&D Ausgaben für die Tonne (->Verlust) waren denn es gibt immer eine nächste Generation welche darauf wieder aufbaut.

Richtig teuer wird es nur dann wenn man durch den Markt gezwungen ist mit einem Design wie beispielsweise Cannon Lake bei miserabler Ausbeute in die Massenfertigung gehen zu müssen. Sprich sehr hohe Produktionskosten und gleichzeitig zu geringes Volumen um die Nachfrage bedienen zu können. Das war aber nicht notwendig.
 
Zuletzt bearbeitet:
xexex schrieb:
Ja und nein! Während Intel in Notebooks auf neueste Technik setzt, liegt der Fokus bei AMD klar bei den Desktops und Servern.
Betrachtet man alleine den mobilen Sektor, hinkt AMD hier Intel gehörig hinterher und dazu kommt noch, dass sie derzeit weder Thunderbolt unterstützen, geschweige denn in der CPU integriert haben, noch WiFi mitliefern können. Sie reden von einem SoC, sind aber in diesem Sektor weit davon entfernt.
Wenn es um die Schnittstellen geht, dann stimmt das vielleicht (wobei AMD's Chips natürlich SoCs sind, was sollte denn für ein SoC fehlen?).
Aber die Frage ist halt auch, ob das immer so relevant ist. Bei AMD hat der OEM die Möglichkeit, sich von den Konkurrenten abzusetzen, indem er z.B. ein billigeres oder besseres WLAN oder LAN verwendet. Auch TB wäre theoretisch möglich. Aber da ist natürlich die Frage, ob man unbedingt TB braucht, bzw. für was. Über USB-C kann man auch Displayport ausgeben, TB bietet daher nur höhere Datenraten zur Anbindung externer Geräte. Und für so was ist die Nachfrage aktuell eigentlich noch zu gering (Externe GPU Gehäuse nutzen nur wenige, schnelle externe SSDs, die USB3.1 überfordern gibt es kaum).
Abgesehen von den Schnittstellen, was bietet Intel sonst noch moderneres als AMD? Weil du ja explizit zwischen den Schnittstellen und dem Rest unterscheidest (erster Satz im 2. Absatz des Zitats).
 
Oberst08 schrieb:
Aber die Frage ist halt auch, ob das immer so relevant ist.

Relevant ist es wenn es um den Stromverbrauch geht!

Schaue dir mal so eine kleine AMD CPU an.
813974


Zum Vergleich nimmst du dann eine Intel CPU.
813973


Der maximale Takt ist höher, LPDDR4 Unterstützung ist gegeben und in den 15W ist eben auch ein DSP, Thunderbolt, WLAN und Ethernet dabei. Flexibel zu sein ist schön, auf einem (Sub)Notebook aber 3-4 Chips verbauen zu müssen, ist was anderes als nur einen zu verbauen.

Was AMD als SoC bezeichnet, deckt zwar den Desktopbereich ab, im mobilen Sektor ist das aber nicht mal ansatzweise genug. Ein Qualcomm SoC beinhaltet nicht nur Grafik und CPU Einheiten, sondern auch DSP, Bluetooth, WiFi, Sound, LTE usw. Manches wird für Notebooks zwar nicht zwingend benötigt, andere Sachen hingegen schon und da kann AMD schlichtweg nicht mithalten.

Am Ende zählt das Ergebnis! Für den OEM ist es wesentlich einfacher ein Intel Notebook zu bauen und der Kunde bekommt ein leistungsstarkes und stromsparendes Gerät mit allen modernen Schnittstellen und Komponenten aus "einer Hand". Bei AMD müssen beide Seiten hingegen derzeit Kompromisse eingehen, was nicht gerade zuträglich für die Verbreitung solcher Geräte ist.

Mit "vielen Kernen" und damit verbundener Leistung kann AMD hier derzeit nicht punkten, also geht es nur über dern Preis. So landen diese CPUs meist in irgendwelchen Billiggeräten mit einer entsprechend schlechter Ausstattung. Die Grafikeinheit ist gut, aber hier steht man wie bei dem Desktops vor dem gleichen Problem. Wer keine schnelle Grafik benötigt, dem reicht die integrierte Grafik der Intel CPUs meist aus, wer schnelle Grafik benötigt, der greift lieber zu einem Notebook mit Zusatzchip. Ein richtiger "Spagat" ist AMD hier bis heute nicht gelungen. Wie es "richtig" geht, hat Intel mit den Kaby-Lake G CPUs gezeigt, auch wenn sie für Notebooks weniger geeignet sind.
 
Zuletzt bearbeitet:
xexex schrieb:
Relevant ist es wenn es um den Stromverbrauch geht![...]
Am Ende zählt das Ergebnis! Für den OEM ist es wesentlich einfacher ein Intel Notebook zu bauen und der Kunde bekommt ein leistungsstarkes und stromsparendes Gerät mit allen modernen Schnittstellen und Komponenten aus "einer Hand". Bei AMD müssen beide Seiten hingegen derzeit Kompromisse eingehen, was nicht gerade zuträglich für die Verbreitung solcher Geräte ist.
Das Problem an deiner Theorie ist, dass das nicht der Fall ist. Schau dir mal auf Notebookcheck die Tests des E495 oder des aktuellen Dell Inspiron 15 an. Da sind die Laufzeiten bei gleichem Akku höher oder mindestens gleich hoch als bei Intel. Also muss der Verbrauch auch gleich oder besser sein. Bei Intel gehen in die TDP auch nur die CPU Teile rein, der Chipsatz und alles was daran hängt wird da nicht mit gerechnet (ich bin mir sogar nicht mal sicher, ob Intel den Uncore Bereich mit rein rechnet).
Wenn man mal explizit das Inspiron heraus pickt:
NBC hatte hier das Intel und das AMD Modell im Test (also optimale Vergleichsbedingungen) und gerade im WLAN Test (was laut deiner Theorie ein klarer Vorteil für Intel sein müsste) hält das AMD Modell doppelt so lange (nämlich 421 Minuten statt 212 Minuten!) durch.
Beim E495 im Vergleich zum E490 (Intel Variante) ist es nicht ganz so krass, da hält das AMD Modell 460 Minuten, das Intel nur 383 Minuten (bei wieder gleich großem Akku).
Intel ist also nicht zwingend sparsamer durch die hohe Integration, es ist nur für den OEM vielleicht einfacher, ein Intel Modell zu bauen (weil man vermutlich weniger Platz auf dem PCB braucht).
xexex schrieb:
Der maximale Takt ist höher, LPDDR4 Unterstützung ist gegeben und in den 15W ist eben auch ein DSP, Thunderbolt, WLAN und Ethernet dabei. Flexibel zu sein ist schön, auf einem (Sub)Notebook aber 3-4 Chips verbauen zu müssen, ist was anderes als nur einen zu verbauen.
Dir ist schon klar, dass du gerade einen Intel Prozessor, den es noch nicht gibt mit einem bereits veralteten AMD Prozessor vergleichst? Comet Lake muss vermutlich gegen Ryzen 4000U ran, da ist nicht klar, ob Intel noch einen Taktvorteil beim Boost hat. Und bei Last auf vielen Kernen ist AMD aktuell schon vor Intel (die von mir oben genannten Geräte sind in Cinebench 20-30% vor dem Intel Schwestermodell mit i7, in anderen Anwendungen ist der Unterschied vermutlich geringer, aber bei MT Lasten wohl immer da). Und beim Rest: Was bringt mir LPDDR4 und die ganze Integration, wenn der Verbrauch trotzdem nicht besser ist? So ganz nebenbei, welchen "DSP" meinst du eigentlich?
 
YforU schrieb:
Das ist bezogen auf die Kosten eine praktisch nicht haltbare Behauptung:

1x Rome I/O DIE (12nm): 416 mm²
8x Zen 2 CCD (7nm): je 74 mm² (gut 592mm² Waferfläche)

Skylake XCC (14nm): 694 mm²

Pro mm² kostet 7nm grob Faktor 2 gegenüber 14/12nm. Hinzu kommt das die Kosten für AMD pro mm² bei GF/TSMC auch effektiv in jedem Fall höher sind als bei Intel (in-house) denn die Auftragsfertiger produzieren nicht zum Selbstkostenpreis. Also allein für die Chiplets mindestens die Kosten von 2x XCC@14nm DIEs. Dazu der nicht gerade kleine I/O DIE.
ah ja , dir ist schon klar das es nicht allein um reine Kosten pro mm2 geht , oder ? oder denkst du alle 694mm2 XCC Die sind absolut zu 100 % in Ordnung ? = Das ich nicht lache .....
XCC Die stehen für alle Server CPUs bis hinunter zu 20 Kernen , warum wohl ? was passiert wenn mehr als 8 Kerne defekt sind ?
Deine Milchmädchenrechnung ist unhaltbar , nicht nur das sich mehr 8C Chiplets mit insgesamt mehr Gesamtoberfläche aus einen Wafer schneiden lassen , selbst die teildefekten lassen sich gut vermarkten als Ryzen 3000 und nebenbei , bei in House Produktion fallen noch ganz andere Kosten an als der reine Wafer Preis , nennt sich R & D , denn mit 10 nm hat sich Intel bisher ein Milliardengrab geschaufelt die dieser Prozess in den 1-2 Jahren die dieser in verringerter Form ( Rückbau einiger Fabs von 10 auf 14 nm ) nie und nimmer wieder einspielen kann bis zum 7 nm mit EUV .
Nur weil Forschung und Entwickung incl Ausbau oder Rückbau von Fabs in anderen Sparten der Bilanz stehen heißt das nicht das die Kosten nicht vorhanden wären .

Warum denkst du hat AMD auf eine eigene Produktion verzichtet ? ja man kann sogar sagen das die eigene Produktion in mitte der 2000er Jahre AMD fast in den Ruin geführt hätte ...

Klar , der reine mm2 Preis ist bei TSMC teurer als Intels 14 nm in House , nur ist das nur die halbe Wahrheit ...
AMD hat nicht mehr das Problem sich mit einem nicht oder nur schlecht funktionierenden Fertigungsprozess rumschlagen zu müssen , nach der größtenteils Lösung von GF können sie frei wählen zwischen Samsung und TSMC .
AMD hat weiterhin eine Abnahmeverpflichtung gegenüber GF , daher auch der I/O Die in 12 nm bzw sein Gegenstück in 14 nm als X570 Chipsatz , die Überreste aus der grandios gescheiterten eigenen Fertigung von AMD , dank I/O Die schlagen sie da 2 Fliegen mit einer Klappe , der braucht nicht 7 nm zu sein und man kann den 12/14 nm Wafern die man abnehmen muß noch eine sinnvolle Verwendung geben

Nochmal : Dank der wesentlich besseren Verwertungskette für 8C Chiplets hat AMD bei den Produktionskosten der Server CPUs deutlich die Nase vorn , man muß sich nur vor Augen halten das eine 48 C CPU aus 6*8 Kern oder aus 8*6 Kern Chiplets bestehen kann .. oder ein 32C aus 4*8 Kernen oder 8 x 4 Kernen .
Selbst die 8 x 4 Kern Variante hätte eine deutlich niedrigere Verlustleistung als Intels 28C XHCC , eine vergleichbare Rechenleistung und kann wesentlich günstiger angeboten werden . Ich glaube nicht das Intel noch XHCC Die anbietet bei denen 50 % der Kerne defekt sind , also 14 C statt 28 C , andererseits ist es bei der hohen Anzahl der Server CPU Varianten und deren Unübersichtlichkeit dann doch wieder möglich ... , habs nicht überprüft .

Einfach gesagt : Selbst mit eigentlich schrottigen 8 C Chiplets bei denen die Kerne zu 50 % defekt sind läßt sich noch eine Server CPU zusammenbasteln die größtenteils mit einem 28C XHCC Die mithalten kann , während anderseits die Ausbeute an 100% tig funktionierenden XHCC Dies vergleichbar gering ist .
 
Oberst08 schrieb:
Bei Intel gehen in die TDP auch nur die CPU Teile rein, der Chipsatz und alles was daran hängt wird da nicht mit gerechnet (ich bin mir sogar nicht mal sicher, ob Intel den Uncore Bereich mit rein rechnet).

Die TDP gilt für das Package, ist allerdings durchaus flexibel konfigurierbar, das Kühlsystem muss letztlich darauf auch ausgerichtet werden und im Gegensatz zu Desktop-CPU wird hier meist auch hart eingegriffen und die TDP auch gehalten.
814024


Bei Ice Lake ist man da sogar nicht einen Schritt weiter gegangen und hat Thunderbolt auf dem selben Die integriert.
814028

https://en.wikichip.org/wiki/intel/microarchitectures/ice_lake_(client)#Die

Oberst08 schrieb:
Dir ist schon klar, dass du gerade einen Intel Prozessor, den es noch nicht gibt mit einem bereits veralteten AMD Prozessor vergleichst? Comet Lake muss vermutlich gegen Ryzen 4000U ran, da ist nicht klar, ob Intel noch einen Taktvorteil beim Boost hat.

Da wären wir wieder bei meiner ursprünglichen Aussage! AMD ist im Desktopsegment Intel 1-2 Jahre im Voraus, im mobilen Bereicht gilt das aber umgekehrt für Intel, zumindest wenn man die Ice Lake CPUs betrachtet. Deshalb ist es für die OEMs derzeit auch schlichtweg uninteressant, AMDs Komponenten in diesem Sektor zu verbauen.

Mit USB4 mag manches anders werden, mit 7nm+ APUs mit Navi GPU Einheiten mit Sicherheit auch, nur werden diese nicht vor 2020/21 kommen in diesem Segment schläft Intel auch nicht. Dazu fehlt AMD natürlich auch die Breite, neben CPUs und GPU stellen sie praktisch nichts anderes her. Intel kann hier also auch in der Zukunft wesentlich stärker integrierte SoCs anbieten, erst recht wenn sie deren Grafiksparte wie geplant noch weiter ausbauen werden.
 
Zuletzt bearbeitet:
YforU schrieb:
Wie schon gesagt sind TSMC und GF eigenständige Unternehmen welche Gewinne erwirtschaften wollen und müssen. Hinzu kommt das Intel um Faktoren höhere Stückzahlen als AMD hat. Volumen drückt immer die effektiven Kosten. Sowohl bei interner als auch externer Fertigung.
Trotzdem kann man deine Milchmädchenrechnung nicht ernst nehmen, weil du da eben einiges nicht berücksichtigst!

MK one schrieb:
AMD hat weiterhin eine Abnahmeverpflichtung gegenüber GF , daher auch der I/O Die in 12 nm bzw sein Gegenstück in 14 nm als X570 Chipsatz , die Überreste aus der grandios gescheiterten eigenen Fertigung von AMD , dank I/O Die schlagen sie da 2 Fliegen mit einer Klappe , der braucht nicht 7 nm zu sein und man kann den 12/14 nm Wafern die man abnehmen muß noch eine sinnvolle Verwendung geben
Korrekt und da AMD die nächsten Jahre sicher weiter IO-Dice brauchen wird, kann amn da weiter bei GF bleiben.
Dafür wäre in Zukunft auf 12FDX denkbar, weil FD-SOI da einfach sehr sparsam ist.
AMD muß nur Wafer von GF abnehmen, aber das müßen keine in 14/12nm Bulk sein sondern es dürfen auch SOI-Wafer sein!

GF's new 12FDX technology is built on a 12nm fully-depleted silicon-on-insulator (FD-SOI) platform, enabling the performance of 10nm FinFET with better power consumption and lower cost than 16nm FinFET. The platform offers a full node of scaling benefit, delivering a 15 percent performance boost over today’s FinFET technologies and as much as 50 percent lower power consumption.
 
tom77 schrieb:
Es wird wirklich Zeit, dass die neuen 10nm CPUs von Intel kommen. Es ist schon mehr als peinlich, dass aus dem Tick-Tock von Jahr zu Jahr nun schon 5-6 Jahre werden.
Hm ist nicht peinlich sondern war längst klar dass es so wie früher nicht weiter gehen wird.
Wohl eher 3-3,5 Jahre! Vor 5 Jahren war noch nicht mal der erste 14nm draußen.
Und wenn man mit höheren nm immer noch AMD überlegen ist, kann man den Punkt ruhig etwas gelassener sehen und muss nicht so auf diese eine Zahl abgehen.
 
Mit 14nm sind sie AMD aber nicht überlegen sondern leiden an einem Fertigungsnachteil;)

Wenn Intel JETZT einen funktionierenden 10nm Prozess hätte, wäre alles wieder anders, das ist aber halt nicht so!

Und TSMC schläft halt nicht.
 
xexex schrieb:
Die TDP gilt für das Package, ist allerdings durchaus flexibel konfigurierbar, das Kühlsystem muss letztlich darauf auch ausgerichtet werden und im Gegensatz zu Desktop-CPU wird hier meist auch hart eingegriffen und die TDP auch gehalten.
Anhang anzeigen 814024

Bei Ice Lake ist man da sogar nicht einen Schritt weiter gegangen und hat Thunderbolt auf dem selben Die integriert.
Anhang anzeigen 814028
https://en.wikichip.org/wiki/intel/microarchitectures/ice_lake_(client)#Die

Da wären wir wieder bei meiner ursprünglichen Aussage! AMD ist im Desktopsegment Intel 1-2 Jahre im Voraus, im mobilen Bereicht gilt das aber umgekehrt für Intel, zumindest wenn man die Ice Lake CPUs betrachtet. Deshalb ist es für die OEMs derzeit auch schlichtweg uninteressant, AMDs Komponenten in diesem Sektor zu verbauen.
Äh, nein... Die Mobiles dürfen natürlich auch über ihre TDP, machen sie ja auch regelmäßig. Du hast offensichtlich nicht die von mir genannten Reviews gelesen... Intel verwendet quasi die selbe Boost Mechanik wie im Desktop, nur im Mobile wird die Boost Zeit nicht auf Unendlich gesetzt (wie es viele Desktop Boards machen). Entsprechend dürfen die Mobiles bei Intel für bis zu 2 Minuten grob 30W verbraten und werden dann erst auf 15W gedrosselt.
Und du widersprichst dir mit den 2 Bildern gerade selber, das ist dir schon klar, oder? Im Comet-Lake Bild ist auch TB3 mit drin und deine Behauptung war, dass die TDP für's Package gilt (damit wäre TB3 mit inbegriffen). Dann behauptest du aber, dass TB3 bei Ice-Lake neu mit rein gekommen ist. Also was jetzt? Soweit ich weiß, ist alles was am Chipsatz hängt nicht in der TDP mit dabei (würde auch dazu passen, dass TB3 bei Ice-Lake neu reingekommen ist).

Dein Vergleich war ein Ryzen7 2700U mit einem Comet-Lake. Und der 2700U ist nun mal schon seit einem halben Jahr abgelöst durch den 3700U, während Comet-Lake noch nicht verfügbar ist. Auch Ice-Lake gibt es noch nicht zu kaufen.
Fakt ist, dass die APUs bei AMD immer grob 6-9 Monate nach den reinen CPUs kommen, da sind wir uns ja wohl einig. Aber wenn du nun sagst, dass AMD im Desktop Bereich 1-2 Jahre voraus ist, dann können sie nicht im Mobile 1-2 Jahre hinter Intel sein, das passt rein mathematisch nicht. Nach deiner Logik müsste AMD 2021 die APUs auf 7nm umstellen, geplant ist aber Q1 2020. Insofern kann AMD maximal ein halbes Jahr hinter Intel sein, und das auch nur, wenn Ice-Lake jetzt verfügbar ist. Gleichzeitig läuft bei Intel aber auch noch Comet-Lake, der ist vermutlich nicht besser als Ryzen 3000U. Insofern ist deine Aussage sowieso viel zu pauschal.
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: Floppes
https://semiaccurate.com/2019/08/26/intels-comet-lake-is-meh-the-launch-was-not/

Sollte AMD die 7nm APU irgendwie noch dieses Jahr released bekommen, hieße es FLAWLESS VICTORY - FATALITY.
Ich glaub es ja nicht und so hat Intel noch etwas Schonfrist. Die OEMs werden die Aufgüsse und Fake-Verbesserungen schon an den Mann kriegen. Die Zeichen stehen geschrieben. Das Richturteil vollstreckt und der rottende Korpus Intel schon bald genüsslich ausgeweidet. Ein Labsaal, ein Schmaus erster Güte.
 
MK one schrieb:
ah ja , dir ist schon klar das es nicht allein um reine Kosten pro mm2 geht , oder ? oder denkst du alle 694mm2 XCC Die sind absolut zu 100 % in Ordnung ? = Das ich nicht lache .....
XCC Die stehen für alle Server CPUs bis hinunter zu 20 Kernen , warum wohl ? was passiert wenn mehr als 8 Kerne defekt sind ?

Siehe: https://www.computerbase.de/2019-04/intel-cascade-lake-sp-lcc-hcc-xcc-avx-512-takt/
XCC SKUs gibt es für Spezialanwendungen bis runter auf 4C. Grob überschlagen sollten ~700mm² in einem etablierten Prozess bei 60-70% (voll funktionsfähig) liegen.

Warum denkst du hat AMD auf eine eigene Produktion verzichtet ? ja man kann sogar sagen das die eigene Produktion in mitte der 2000er Jahre AMD fast in den Ruin geführt hätte ...

AMD hatte weder die hierfür notwendige Marge, Stückzahlen noch eine stabile Absatzmenge um die Investitionen aufrecht zu halten. Hinzu kam die ATI Übernahme welche zum einen sehr viel Kapital verbrannt hat und zum anderen war es am Ende nicht möglich die Produktion der GPUs von TSMC in die eigenen FABs zu verlagern. Man hatte sich hier derart verkalkuliert das die ersten APUs bei TSMC produziert werden mussten und Llano viel zu spät und lange in nur zu geringer Stückzahl verfügbar war.

Klar , der reine mm2 Preis ist bei TSMC teurer als Intels 14 nm in House , nur ist das nur die halbe Wahrheit ...
AMD hat nicht mehr das Problem sich mit einem nicht oder nur schlecht funktionierenden Fertigungsprozess rumschlagen zu müssen , nach der größtenteils Lösung von GF können sie frei wählen zwischen Samsung und TSMC .

Es ist auf jeden Fall sehr viel besser als komplett an GF gebunden zu sein. "Frei wählen" ist aber ein Übertreibung. Die Entscheidung ob ein Design bei Samsung, TSMC oder beiden gefertigt werden soll wird Jahre im Vorfeld getroffen. Man entscheidet sich hier auf Basis von Projektionen. Das Risiko gibt es weiterhin.

Nochmal : Dank der wesentlich besseren Verwertungskette für 8C Chiplets hat AMD bei den Produktionskosten der Server CPUs deutlich die Nase vorn , man muß sich nur vor Augen halten das eine 48 C CPU aus 6*8 Kern oder aus 8*6 Kern Chiplets bestehen kann .. oder ein 32C aus 4*8 Kernen oder 8 x 4 Kernen .

Hier unterschlägst du den nicht gerade kleinen I/O Die. Der entspricht gut 3/5 der Fläche eines XCC. Bezüglich der Verwertungskette ist das Bild recht einfach. Intel hat 95% Marktanteil und deckt mit den Xeon SKUs praktisch jeden Edge Case ab. Vier Chiplet + I/O kostet inkl. Packaging mit Sicherheit mehr als ein XCC. Erst recht bei der eklatanten Differenz beim Volumen. Das ist aber nicht schlimm da AMD hierüber trotzdem endlich mal ordentlich verdient.
 
Zuletzt bearbeitet:
@YforU
da Intel sich über den Yield ausschweigt bei den XCC sind deine 60-70 % eine reine Annahme , ich glaube er ist wesentlich geringer, unter 50 % , denn bei CPU s ist es nicht so einfach Fehler auszubügeln wie bei GPUs von denen nur recht wenige im Vollausbau vertrieben werden , die dann schweineteuer sind .. , ich denke da an die Titan Modelle von NV ..
Fakt ist jedenfalls , zu Anfang lief der 14 nm schlechter als erwartet ..
https://www.pcgameshardware.de/CPU-CPU-154106/News/Intel-14-nm-Yield-1178435/

Fakt ist auch das Intel beim 10 nm immer noch Probleme beim Yield hat , ich denke nicht das der Rückbau einiger Fabs ausschließlich wegen der hohen Nachfrage nach 14 nm Chips passiert ist , denn der Engpass war vorhersehbar wenn man einen Teil der Fertigungsstrecken offline nimmt um sie auf 10 nm umzustellen .. , wäre man in der Lage gewesen 14 nm Chips durch 10 nm Chips abzulösen , hätte Intel dies getan , anstatt einen Rückbau zu betreiben

Übrigens unterschlage ich nicht den Epyc I/O Die , nur muss AMD eh 12/14 nm Wafer bei GF abnehmen und anstatt Billig Produkte daraus zu fertigen , werden halt die I/O Die daraus gefertigt .
Was fertigt denn AMD noch in 12/14 nm ?
Die Mainstram CPUs sind dank Ryzen 3000 7nm , NAVI ist 7 nm , die Radeon Instinct Karten sind 7 nm .
Grade mal die APU/Mobil Chips sind noch 12/14 nm und auch das ändert sich Anfang 2020
Die Absatzzahlen für PS4 und X Box Custom Chips sind rückläufig da der Nachfolger in Form von PS5 und XBox Scarlett vor der Tür stehen , die dürften auch 7 nm sein , damit die Leistungsaufnahme möglichst niedrig ist , damit die Konsolen keine aufwendige Kühlung brauchen und möglichst leise sind
 
Zurück
Oben