News Intel-Fabriken: Eher die Lizenz eines Foundry-Prozesses als Verkauf der Fabs

Lustig ist Intel macht mit Notebooks Geld und verteufeln Apple klasse 👍
 
M4573r_0D schrieb:
Und wenn dein Hörensagen korrekt wäre, warum macht das dann die Konkurrenz nicht auch einfach so?
Weil Apple, soweit ich weiß, alles an 5nm bei TSMC auf Jahre gekauft hat, genauso wie die 3nm Kapazität.
Und das auch noch viele Jahre bevor der Prozess verfügbar war. Da war Zen1 gerade so im Release begriffen, AMD konnte damals dadurch den Bankrott gerade so abwenden.
Man kann es sich einfach leisten, AMD ist ein Zwerg dagegen. AMD würde sicherlich sehr gerne mehr verschiedene Monolithen bauen, kann es sich aber nicht leisten ein Dutzend Masken(unglaublich teuer) in 7nm und drunter bauen zu lassen. Apple braucht weniger Varianten.

[wege]mini schrieb:
Da er in 10nm gebaut werden soll und auch noch (nur) kleine Kerne mit großen vermengt, wird die Fläche natürlich deutlich kleiner.
Genau, deswegen bin ich da schon gespannt. Auch ob das BIG.little da was bringt oder die Flächenvorteile wieder vernichtet. Ich denke beides kann passieren.

Gr.mm schrieb:
ch glaube du verkennst da gerade etwas. Durch den verlust des quasi-cpu-monopols für macbooks hat intel gerade auf einen schlag ca 10% des gesamten laptopmarkts verloren. Das tut ihnen deutlich mehr weh als die "kleinen" zugewinne von AMD
Hm ja das kann natürlich sein das dies gerade von Sicht Intels mehr weh tut.
Aber mir drängt sich der Vergleich, des im lauwarmen befindlichen Frosches im Wasser auf, der erhitzt wird. Bis er tot ist.
Insgesamt hat AMD längst einen größeren Umsatzeinfluss auf Intel.
Intel hat auch Glück das der Gesamtmarkt wächst und es daher nicht weiter auffällt. Aber seit Jahren knabbert AMD da immer weiter was weg und ist im Grunde in jedem Bereich in denen man Produkte anbietet Intel in Leistung und Leistung/Watt vorraus. Das kann von mir aus solange bleiben bis 50/50 Marktanteil herrscht.

Wenn Intel sich aber auch plötzlich 5nm und 3nm Kapazität bei TSMC zum (ich spinne mal) doppelten Preis von AMD kaufen will, dann geht bei AMD sofort das Licht aus.
 
  • Gefällt mir
Reaktionen: Mcr-King
Draco Nobilis schrieb:
Weil Apple, soweit ich weiß, alles an 5nm bei TSMC auf Jahre gekauft hat, genauso wie die 3nm Kapazität.
Und das auch noch viele Jahre bevor der Prozess verfügbar war. Da war Zen1 gerade so im Release begriffen, AMD konnte damals dadurch den Bankrott gerade so abwenden.
Man kann es sich einfach leisten, AMD ist ein Zwerg dagegen. AMD würde sicherlich sehr gerne mehr verschiedene Monolithen bauen, kann es sich aber nicht leisten ein Dutzend Masken(unglaublich teuer) in 7nm und drunter bauen zu lassen. Apple braucht weniger Varianten.
Und das auch ein A12, A13 und A14 ohne "viel Cache angebaut" in Schlagdistanz zu so mancher Desktop CPU von Intel & AMD kam bei 5W Thermal Envelope lassen wir unter den Tisch fallen?
Du machst es dir viel zu einfach es auf den Fertigungsprozess zu schieben. Wir schauen mal ob 2022 AMD in 5 nm ähnlich in Benchmarks performt und dabei ähnlich wenig Energie verbraucht.

Spiel aber eigentlich auch keine Rolle. JETZT kann ich als Kunde so ein Notebook kaufen was als Macbook Air (ohne Lüfter und nur handwarm bei 13W Geräteverbrauch). Wo anders sehe ich das nicht. Auch nicht Ende 2021.
 
  • Gefällt mir
Reaktionen: Berry2k und Mcr-King
@RogueSix

Seit etwa 2 Jahren wiederhole ich gebetsmühlenartig, dass die "alte" Core Architektur am Ende ist und ihr Big-Chip Design keine Zukunft mit 14nm hat.

Aktuell haben sie gute Zuwächse in der "IPC" und das Big.Little Konzept ist tatsächlich eine vernünftige Entscheidung. Ab 7nm oder 5nm (Intel Zahlen) kann man auch wieder über 24 echte (große) Kerne oder mehr nachdenken (wenn man sie nicht "zusammenklebt" ), mit 14nm ist das totaler Unsinn.

Der Herr Gelsinger ist mal wieder ein funktionierendes Rädchen oder auch gerne Schmierfett. Jedenfalls kein Sand im Getriebe.

mfg
 
M4573r_0D schrieb:
Und das auch ein A12, A13 und A14 ohne "viel Cache angebaut" in Schlagdistanz zu so mancher Desktop CPU von Intel & AMD kam bei 5W Thermal Envelope lassen wir unter den Tisch fallen?
Du machst es dir viel zu einfach es auf den Fertigungsprozess zu schieben. Wir schauen mal ob 2022 AMD in 5 nm ähnlich in Benchmarks performt und dabei ähnlich wenig Energie verbraucht.
Das Thema ist etwas zu komplex um es hier auszubreiten, aber auch Igorslab hat schon ein paar Worte zur "Single Thread" Performance (ja da gibt es technisch nämlich Unterschiede) des M1 verloren.
Warum Apples M1 Single “Core” Vergleiche grundlegend fehlerhaft sind (mit Benchmarks) | Gastbeitrag | igor´sLAB
Die Leistungsaufnahme des M1 ist auch nicht 5W. Apple ist halt Meister im Marketing, genauso wie Geekbench zur Messung in meinen Augen immer noch zweifelhaft ist.
Hardware- und Nachrichten-Links des 4. Dezember 2020 | 3DCenter.org

Immer bitte daran denken das hier ein echter Fullnode dazwischen liegt.
wikichip_tsmc_logic_node_q2_2019.png (1184×556)
Die Marktkapitalisierung AMD vs Apple darf man auch nicht vergessen. Es wird noch Jahre dauern bis AMD so Sattelfest ist. Demzufolge ist es löblich das AMD gegenüber Apple/intel überhaupt mithalten kann. Jetzt nur hoffen das TSMC AMD nicht "verhungern" lässt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cruentatus und [wege]mini
Draco Nobilis schrieb:
Das Thema ist etwas zu komplex um es hier auszubreiten, aber auch Igorslab hat schon ein paar Worte zur "Single Thread" Performance (ja da gibt es technisch nämlich Unterschiede) des M1 verloren. Die Leistungsaufnahme des M1 ist auch nicht 5W.
Hardware- und Nachrichten-Links des 4. Dezember 2020 | 3DCenter.org
Hier nochmal das wichtige hervorgehoben:
Und das auch ein A12, A13 und A14 ohne "viel Cache angebaut" in Schlagdistanz zu so mancher Desktop CPU von Intel & AMD kam bei 5W Thermal Envelope lassen wir unter den Tisch fallen?
Der Artikel auf Igors Seite ist Augenwischerei. Eine akademische Fingerübung die in der Praxis keine Relevanz hat.
genauso wie Geekbench zur Messung in meinen Augen immer noch zweifelhaft ist.
Joa, GB kann höchstens nur ein Bench unter vielen sein um die Leistung einer CPU zu beurteilen.
Draco Nobilis schrieb:
Demzufolge ist es löblich das AMD gegenüber Apple/intel überhaupt mithalten kann.
Das ist sicherlich eine anzuerkenennde Leistung, da bin ich bei dir. Aber was hat das jetzt mit Intel vs. Apple zu tu
 
M4573r_0D schrieb:
um die Leistung einer CPU zu beurteilen.

Ich sage jetzt einmal ganz ketzerisch: Eine CPU, die kein SMT braucht, ist niemals "schnell".

Wenn man nur 1+1 rechnet, sind alle CPUs sowieso gleich schnell, wenn sie den gleichen Takt haben. Dann braucht man auch keinen Cache.

RISC ist halt nicht CISC und X86 hilft bei vielen Anwendungen nicht mehr wirklich.

Apple hat sich konsequent über die Jahre von allen Altlasten getrennt. Das hilft.

Richtig vergleichen kann man beide trotzdem nicht. So ein Apple ist halt keine Melone, auch wenn beides Früchte sind.

mfg
 
[wege]mini schrieb:
MTr/mm² ist z.B. ein schöner Anhaltspunkt.

Da steht Intel mit aktuellen 37,5 in 14nm zu 113,9 von TSMC bei N7FF+ echt schlecht da. Die 10nm Intel mit 100.76 sind dann schon nicht schlecht,
Du schmeißt da Zahlen durcheinander.
37,5 MT/mm² für 14nm++ sind real auf dem Die über das ganze Die gemessen.
Die anderen beiden Angaben sind theoretische Werte.

Real sehen wir bei Intel bisher 49,4 MT/mm² für 10nm+ (ich kenne noch keine Zahlen für "SuperFin").
Von N7+ gibt es bisher nur eine Zahl für die HD-Variant: 90,9 MT/mm².
Ein besserer Vergleich wäre N7 HP; AMD schafft da 62,8 MT/mm².
 
  • Gefällt mir
Reaktionen: Draco Nobilis und [wege]mini
M4573r_0D schrieb:
Hier nochmal das wichtige hervorgehoben:
Und das auch ein A12, A13 und A14 ohne "viel Cache angebaut" in Schlagdistanz zu so mancher Desktop CPU von Intel & AMD kam bei 5W Thermal Envelope lassen wir unter den Tisch fallen?:
Naja AMD vergleichte Ihren 4800H auch gerne mit Intel 9700K... darauf gibt man normal nicht alzu viel, gerade jetzt da das Rad sich wieder schneller dreht. Es ist aber Eindrucksvoll, ja. Jedoch vergleicht auch Apple ausschließlich gegen Intel, da Marktführer (und hilfreicherweise ist Intel dort AMD unterlegen).

M4573r_0D schrieb:
Der Artikel auf Igors Seite ist Augenwischerei. Eine akademische Fingerübung die in der Praxis keine Relevanz hat.
Ich kann Igors Anmerkung dazu leider so nicht einfach wegwischen.
Bis jemand was gegenteiliges belegt heißt es für mich dabei auf jeden Fall Obacht bei Benchmarks zu geben.
Alles ohne SMT Verwendung ist daher so kein sinniger Vergleich.

M4573r_0D schrieb:
Joa, GB kann höchstens nur ein Bench unter vielen sein um die Leistung einer CPU zu beurteilen.
Apple / sämtliche Medien haben primär Geekbench zum pushen genommen, mir ist natürlich klar das da mehr ist. Nur da ist das Bild dann ausgewogener. Apple User bringen halt Klicks und Geld.

M4573r_0D schrieb:
Das ist sicherlich eine anzuerkenennde Leistung, da bin ich bei dir. Aber was hat das jetzt mit Intel vs. Apple zu tu
Intels (Haupt)-Konkurrent ist doch eher AMD, oder etwa nicht?
 
smalM schrieb:
Real sehen wir bei Intel bisher 49,4 MT/mm² für 10nm+

Wenn man hohen Takt will, muss der Transistor größer sein, weil so ein kleines Fitzelding sonst zu viele Leck Ströme produziert oder das hässliche Elektron einfach in den falschen Transistor "fliegt".

Intel hat seine 10nm Produktion immer noch nicht unter Kontrolle. Die Zahlen auf dem Papier stimmen daher leider nicht mit der Realität überein. Da baut man dann in 10nm einfach nur ein wenig kleiner, mit dickeren "Mauern" zwischen den Transen, was die Anzahl der Transen senkt.

Wenn es so funktionieren würde wie geplant, könnten sie die Anzahl der Transen pro Fläche erhöhen und den Takt trotzdem hoch fahren. Geht halt aktuell (noch) nicht.

Die Tatsache, dass ihr 14nm Produkt aber nicht mehr konkurrenzfähig ist und auch mit noch mehr Optimierung werden kann, bleibt jedoch bestehen.

Betrachte die 100 MT/mm² als das, was den Entscheidern in der obersten Etage seit Jahren als "fast fertig" von ihren eigenen Ingenieuren verkauft wird.

mfg
 
Draco Nobilis schrieb:
Jedoch vergleicht auch Apple ausschließlich gegen Intel, da Marktführer (und hilfreicherweise ist Intel dort AMD unterlegen).
Habe da eine andere ganz ketzerische Vermutung: Apple vergleicht mit Intel, da genau von diesem Hersteller die CPUs kommen, die durch Apples eigenes SoC ersetzt werden. Aber evtl. ist das ja auch zu weit hergeholt....

Ich kann Igors Anmerkung dazu leider so nicht einfach wegwischen.
Bis jemand was gegenteiliges belegt heißt es für mich dabei auf jeden Fall Obacht bei Benchmarks zu geben.
Alles ohne SMT Verwendung ist daher so kein sinniger Vergleich.
Ich finde es gerade nicht mehr, aber im 3dc wurde das auch schon angesprochen und für ein rein theoretisches Gedankenspiel erklärt - ohne Widerspruch.

Nur da ist das Bild dann ausgewogener.
Zeig doch mal. :)

Intels (Haupt)-Konkurrent ist doch eher AMD, oder etwa nicht?
Siehe oben.
Ergänzung ()

[wege]mini schrieb:
Richtig vergleichen kann man beide trotzdem nicht. So ein Apple ist halt keine Melone, auch wenn beides Früchte sind.
Vergleiche Macbook H1-2020 vs H2-2020 kann man also nicht vergleichen? Und auch andere Laptops kann man nicht vergleichen? Das musst du mir näher erklären.
 
[wege]mini schrieb:
Aktuell haben sie gute Zuwächse in der "IPC" und das Big.Little Konzept ist tatsächlich eine vernünftige Entscheidung.

Abwarten und nicht dwn Tag vor dwm Abend loben ich bin da sehr skeptisch Lapi okay aber HDET oder echter Gaming PC sehe ich da nicht so gut.

Hauptproblem wird wie auch beim Ryzen oder Bulldozer ohne SW und OS wird es nicht wirklich gut Funktionieren.

Auch spielt die Aufteilung eine Rolle kann gut bach hinten losgehen sage nur Samsungs Enyox. 😉
 
  • Gefällt mir
Reaktionen: Cruentatus und [wege]mini
Mcr-King schrieb:
HDET oder echter Gaming PC sehe ich da nicht so gut.

Für Gamer wird das Konzept ausreichen, im HEDT muss die Fertigung aus dem Arsch kommen.

16 große Kerne mit 16 kleinen Kernen werden schnell genug sein. Das Ganze noch einmal zu vervierfachen wird selbst mit Intels 10nm schwer (wenn sie funktionieren würde), wenn man in einer DIE bauen will.

Hier hat AMD wirklich eine super Lösung gefunden.

M4573r_0D schrieb:
Vergleiche Macbook H1-2020 vs H2-2020 kann man also nicht vergleichen?

Nein. Apple hat immer seine Software auf die Hardware angepasst. Erst Motorola, dann PowerPC, dann X86. Mit dem Rückenwind von den Smartphones, konnten sie erstmals die Hardware auf die Software anpassen. Das ist etwas völlig anderes. Auch wenn immer CPUs verbaut worden sind.

Ein Apple Chip in einem Windows würde dir keinen Spaß machen, auch wenn das Programm, was du nutzt das gleiche ist. Die Unterschiede in der Software sind signifikant und die armen Programmierer tun mir leid.

mfg
 
[wege]mini schrieb:
Nein. Apple hat immer seine Software auf die Hardware angepasst. Erst Motorola, dann PowerPC, dann X86. Mit dem Rückenwind von den Smartphones, konnten sie erstmals die Hardware auf die Software anpassen. Das ist etwas völlig anderes. Auch wenn immer CPUs verbaut worden sind.

Ein Apple Chip in einem Windows würde dir keinen Spaß machen, auch wenn das Programm, was du nutzt das gleiche ist. Die Unterschiede in der Software sind signifikant und die armen Programmierer tun mir leid.
Jetzt wirds interessant. Lese ich das richtig, es verbietet sich jeder Vergleich zu anderen Geräten, auch zu den direkten Vorgängern?
Also ein Kunde (dem, wie den allermeisten Kunden, die Technik dahinter erstmal egal ist) sieht Leistung A und Akkulaufzeit B in einem Gerät (egal ob Mac oder PC) und Leistung X und Akkulaufzeit Y in einem anderen Gerät und darf das nicht vergleichen?
Ich zitiere mal Helmut Kohl: "Wichtig ist was hinten rauskommt"
 
M4573r_0D schrieb:
Wichtig ist was hinten rauskommt

Und hier sind wir bei CPUs von Intel.

Du darfst gerne jeden Macintosh mit jedem anderen Vergleichen. Die Geschwindigkeit der einen CPU aber von dem, was hinten rauskommt, mit der Geschwindigkeit von einer völlig anderen CPU zu vergleichen ergibt keinen Sinn.

Jede X86 CPU wurde jahrelang im Macintosh missbraucht und für die Dinge, die Apple braucht, ist sie einfach zu groß, zu stromhungrig und nicht gebaut. Zu viel der aktuellen Core Architektur braucht Apple überhaupt nicht.

Apple hat jetzt endlich genug Geld, ihre eigene CPU nach eigenem Wunsch bauen zu lassen und ich wünsche ihnen alles Gute.

mfg
 
M4573r_0D schrieb:
Habe da eine andere ganz ketzerische Vermutung: Apple vergleicht mit Intel, da genau von diesem Hersteller die CPUs kommen, die durch Apples eigenes SoC ersetzt werden. Aber evtl. ist das ja auch zu weit hergeholt....


Ich finde es gerade nicht mehr, aber im 3dc wurde das auch schon angesprochen und für ein rein theoretisches Gedankenspiel erklärt - ohne Widerspruch.
Natürlich ist das kein theoretisches Gedankenspiel, ohne SMT kriegst einen Kern des Intels oder des AMDs nicht ausgelastet.
Was bei Apple geht. Im Zahlen schön fürs Marketing machen war Apple schon immer gut.

Damit ist der Vergleich nur mit SMT wirklich relevant wenn man die Leistung Kern VS Kern sehen will.
Womit der Apple mit 1-2 Fullnodeshrinks Vorsprung nicht mehr besonders toll aussieht.

Es gibt jetzt schon Renoir und Cezanne NB die eine Akkulaufzeit von an die 16-19h haben.
Da beeindruckt mich der M1 mit einem Fullnode Vorsprung in der Fertigung (also in dem Fall wohl mehr als doppelte Transistorendiche) nicht besonders.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DirtyHarryOne, Draco Nobilis und [wege]mini
[wege]mini schrieb:
---Vollzitat entfernt---
bitte Zitierhinweise beachten
Evtl. bin ich dazu nicht in der Lage oder zu naiv oder sonst was aber warum kann ich das wie oben beschrieben nicht vergleichen? Dann kann ich auch iPhones und Android Geräte nicht vergleichen? Nun gut, dann brauche ich ja nicht mehr abwägen beim nächsten Handykauf und lasse die Scheuklappen zu.:)
Ergänzung ()

modena.ch schrieb:
Natürlich ist das kein theoretisches Gedankenspiel, ohne SMT kriegst einen Kern des Intels oder des AMDs nicht ausgelastet.
Was bei Apple geht. Im Zahlen schön fürs Marketing machen war Apple schon immer gut.

Damit ist der Vergleich nur mit SMT wirklich relevant wenn man die Leistung Kern VS Kern sehen will.
Womit der Apple mit 1-2 Fullnodeshrinks Vorsprung nicht mehr besonders toll aussieht.
Ich zitiere mal robbitop aus dem 3Dc:
Die Analyse selbst zweifelt niemand an. Jedoch aber die Auswirkung auf die Realworld Anwendungen. Nur bringt es die Balance ja nur in 100% MT limitierten Szenarien zurück. Und selbst bei diesen greift auch Amdahls Law relativ schnell. (overhead und synchronisation)
Die Wahrheit ist jedoch, dass der Großteil der Software nunmal nicht beliebig parallelisiert arbeitet. Entsprechend gibt es einen oder wenige kritische Threads. Und diese profitieren nun mal von maximaler Leistung pro Thread.
Den Anwendungen bringt es dann wesentlich weniger, wenn die kumulierte MT Leistung pro Kern höher ist.

Natürlich gibt es auch Anwendungen die 1:1 von purer MT Leistung profitieren und in denen würde x86 das mit SMT wohl wieder ausgleichen. Diese sind für die meisten Anwender aber wohl in der Unterzahl.

Auch scheint es für die Energieeffizienz auch zuträglich zu sein, lieber kleine Cores zu nutzen statt SMT. Diese arbeiten auf einem völlig anderen Designauslegungspunkt. Intel scheint das seit spätestens Alder Lake auch so zu sehen.

Ja das ist ein inhärenter Nachteil der x86 ISA bzw ein Vorteil von RISC ISAs wie ARM oder RISC-V. Das streitet niemand ab und genau das ist der Grund, warum diese immer mehr Verbreitung finden. RISC-V findet stetig mehr Firmen und Unterstützer. Im Cloud und Serverbereich gehen immer mehr große Firmen auf ARM - z.B. Amazon hat einen eigenen SoC entwickelt.
Google IIRC auch.
In sämtlichen mobile Devices sitzen RISC ISA SoCs. Mit x86 hat Intel und AMD es oft genug versucht und kam einfach nicht an die gleiche Perf/W bei sehr limitierten TDP Envelopes.

Und selbst Microsoft und Qualcomm sehen da ähnliche Vorteile.

Apple ist hier nicht der Erste - aber es scheint einfach sinnvoll zu sein. Würde mich nicht wundern, wenn x86 in den nächsten Jahrzehnten immer mehr Bedeutung verliert und auch AMD und Intel die ISA zu zu RISC wechseln (ARM, RISC-V o.ä).
 
Zuletzt bearbeitet von einem Moderator:
M4573r_0D schrieb:
iPhones und Android Geräte

Beides sind RISC basierende CPUs.

Die Unterschiede liegen im Betriebssystem und der Optimierung der CPUs für das jeweilige BS.

Sie sind quasi "Brüder" und nicht Hund und Katze (wie beim X86 zum ARM).

Vergleichen darfst du natürlich auch Hund und Katze, zielführend ist das aber nicht wirklich bei der Qualitätsbewertung.

Möglicher Weise kann man vergleichen, wer schneller rennen kann. Dies wäre dann aber leider Populismus, wenn es um die "Leistung" des Tieres geht. Willst du Mäuse fangen, nimmst du eine Katze, willst du Einbrecher abschrecken, einen Hund.

Wir werden sehen, wo sich Apple hin entwickelt. Aktuell sehe ich da aber tatsächlich nur "Lifestyle", als was er ja gerade auch verkauft wird. Für Dinge, die ein Apple können muss, ist ein X86 schlecht geeignet, dafür kann er halt deutlich mehr.

mfg
 
[wege]mini schrieb:
16 große Kerne mit 16 kleinen Kernen werden schnell genug sein. Das Ganze noch einmal zu vervierfachen wird selbst mit Intels 10nm schwer (wenn sie funktionieren würde), wenn man in einer DIE bauen will.

Hier hat AMD wirklich eine super Lösung gefunden.
16 Big und 16 Small ist etwas übertrieben und dass Problem ist wie die kleineren CPUs aufgebaut sind.

Also zum Beispiel 2 Big und 4Small oder 4Big und 8 Small bei den größeren sehe ich dort keine Probleme.

Des weiteren für Ältere Games und SW wäre es gut wenn man die Kleinen Cores zum Beispiel deaktivieren kann sowas wie Game Mode bei AMD. ;)
 
  • Gefällt mir
Reaktionen: [wege]mini
[wege]mini schrieb:
---Vollzitat entfernt---
bitte Zitierhinweise beachten
Aus Anwendersicht zu bewerten ist Populismus? Von mir aus, dann nennen wir es so.
Ich möchte weder Mäuse, Katzen, Hunde oder sonstige Tiere. Ich möchte das beste Gerät für (m)einen Zweck. Ist das wirklich so unüblich?

Klassiker: Autoanalogie
Da werden doch auch EVs und Verbrenner verglichen. Oder darf man das da auch nicht weil ja zwei völlig verschiede Konzepte?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben