Bericht Lakefield: Intels gestapelte Hybrid-CPU bietet 5 Kerne bei 7 Watt TDP

Jeder der mich kennt, weiß dass ich kein Fanboy bin und dass ich versuche möglichst objektiv zu bleiben.

Aber sollte Intel wirklich hier Lakefield in die Breite Masse bekommen, dann sieht vor allem Qualcomm alt aus. Und diesen SoC in einem Tablet oder einem Ultra Mobile könnte hier massiv an den Snapdragons knabbern und ggf sogar Apples A12X oder wie er heißen wird, den Wind aus den Segeln nehmen. Man kann nur hoffen, dass Intel hier nicht wie damals mit Atom @Mobile auf die Fresse fliegt, denn das Konzept ist bahnbrechend. Aber es bedeutet am Ende auch schlicht weg, einen Dualcore für Power, also Produktiv geht damit noch wenig im Mobile Markt.. Warum hier wieder manche mit Renoir vergleichen, verstehe ich nicht. Und warum sollte Intel alles auf Lakefield umstellen, dieser ja zu teuer ist, um in im Massenmarkt zu verramschen? Derzeit reichen Icelake und Comet Lake und 14nm könnte vllt sogar noch bis 2022 im Mobilemarkt sein..

Ich bin gespannt, ob in 2-3 Jahren Lakefield auch in den Normalen Markt Einzug hält. Und ich bin sehr gespannt, wie der Windows Sheduler das hinbekommen soll. Aber es klingt sehr spannend, was Intel da zeigte.

Und wenn es echt 2,5mW im Standby sind, dann wäre dieser CPU für alles mit Akku prädestiniert.. Und da reden wir auch von E-Mobilty.
 
  • Gefällt mir
Reaktionen: Ned Flanders
Qarrr³ schrieb:
Software wird meistens pro core bezahlt, glaube also eher nicht daran. Vielleicht für Supercomputer irgendwann.
Das kann Intel ja egal sein. Man taktet ja im Server auch schnell 25% niedriger als im Desktop Umfeld, also geht eh diese geringere Single Thread Performance gezielt ein. Mit den nur etwas langsameren Little Cores hat man etwa dasselbe Pro Kern Defizit, packt dafür aber 3-4 Mal so viele auf die gleiche Fläche. Man könnte also je nach Anwendungsfall eine CPU mit brutal vielen Little Kernen anbieten oder eben nur wenig hochtaktende Big Cores wenn die Software zu teuer und Low Threaded ist.

Oder eben auch da und Mix aus beidem.

Edit. Ich denke die Kühlung ist gerade bei moderatem Takt kein Problem. Statt die Core Die nebeneinander zu packen kann man sicher mindestens 2-4 Schichten stapeln, Silizium leitet die Wärme auch gut durch eine weitere Schicht durch. Die Wege wären viel kürzer als zB ala bei MCM bei AMD. Aber vermutlich auch komplexer.

Was Intel ka hier macht ist quasi die Core Chiplets auf und nicht neben die IO Die zu packen.

Ganz unabhängig von Big Little ist es in meinen Augen hochinteressant, gerade da Intel so die große GPU oder IO auf die 2. Die darunter verlagern kann.

Möglich dass man bei vielen neuen Desktop Modellen das genau so handhaben wird, Xe GPU und IO unter den CPU Kernen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
andi_sco schrieb:
Gab vor langer Zeit mal einen Artikel, warum man bei der Atom Architektur wieder von SMT auf Normal umgestiegen ist. Den finde ich aber nicht mehr :(


Ich könnte ja jetzt ketzerisch sagen, bei den Atom lungern nicht so viele Rechenwerke ohne HT nutzlos rum, da die Dinger von Hause aus davon nicht so wahnsinnig viele haben.

HT wird doch nur bei sinnlos aufgeblähten Riesenchips wirklich wirkungsvoll, die dann auch noch am besten mit ultralanger p4 Netburst schwachsinns pipeline betrieben werden.

" Insbesondere bei der NetBurst-Mikroarchitektur belastet ein typischer Thread nur etwa 35 % der Ausführungsressourcen. " :stock:

https://de.wikipedia.org/wiki/Hyper-Threading

btt.

Für den ersten Versuch nicht schlecht und über Wärmeleitung würde ich mir keine Gedanken machen, dass kann Silizium erstklassig.

mfg
 
  • Gefällt mir
Reaktionen: Rockstar85
Krautmaster schrieb:
Bei AmberLake sagt man meine ich 8+8 was ja dem 10er Ring entsprechen würde mit zB 2x4 Atom Clusters anstelle der Big Cores

Meine GlasKugel sagt Amber Lake hat auch 2 Ebenen, oben klassisch 8 Cores Big am Ring (wie bisher). Darunter wie bei Lakefield große GPU, IO und 8 kleine Kerne.
Denke das ist sehr naheliegend.
 
Endlich mal wieder, in meinen Augen, richtig Geiles von Intel. Sehr gut! Viel Konkurrenz belebt das Geschäft und nutzt uns Kunden. AMD soll ja auch noch in die Mobile Ecke schielen und zumindest die Marke Radeon mit Samsung zusammen anbieten. Bin gespannt auf die nächsten Jahre.
 
  • Gefällt mir
Reaktionen: Rockstar85
@ro///M3o

Gerade das Thema Radeon RDNA und Samsung ARM könnte sehr sehr spannen werden. FÜR PC Nutzer nicht, aber wenn ich alleine an Diagnoseelektronik für Medizinische Bereiche denke, dann nimmt man gerne solche Low Power Zwerge..
Und sollten die Gerüchte stimmen und AMD arbeitet an einer ARM Version, dann gibts echten Fortschritt
 
  • Gefällt mir
Reaktionen: Apocalypse und ro///M3o
Das Big.Little Prinzip wird auf jeden Fall dazu führen, dass Windows einen deutlich smarteren Scheduler benötigt und das kann ja mal nicht schaden. :D
 
  • Gefällt mir
Reaktionen: Schtefanz, Jan, Cruentatus und 4 andere
ro///M3o schrieb:
Endlich mal wieder, in meinen Augen, richtig Geiles von Intel. Sehr gut! Viel Konkurrenz belebt das Geschäft und nutzt uns Kunden. AMD soll ja auch noch in die Mobile Ecke schielen und zumindest die Marke Radeon mit Samsung zusammen anbieten. Bin gespannt auf die nächsten Jahre.
Was bringt das schielen wenn OEM's AMD unter "ferner laufen" führen? 🤷‍♂️
 
  • Gefällt mir
Reaktionen: ro///M3o
Krautmaster schrieb:
Das kann Intel ja egal sein. Man taktet ja im Server auch schnell 25% niedriger als im Desktop Umfeld, also geht eh diese geringere Single Thread Performance gezielt ein. Mit den nur etwas langsameren Little Cores hat man etwa dasselbe Pro Kern Defizit, packt dafür aber 3-4 Mal so viele auf die gleiche Fläche. Man könnte also je nach Anwendungsfall eine CPU mit brutal vielen Little Kernen anbieten oder eben nur wenig hochtaktende Big Cores wenn die Software zu teuer und Low Threaded ist.
Das ist unwahrscheinlich. Jeder CPU Kern bedeutet Aufwand bei der Kommunikation, damit werden Monster aus vielen kleinen Kerne bei Zeiten recht ineffizient. Das ist ja bereits jetzt schon bei Intel und AMD so, dass die Bussysteme bzw. der "uncore" Teil mitunter mehr elektrische Leistung fressen als die Rechenwerke. Da bringt es wenig am Core zu sparen und uncore aufzublähen.
Zudem große Kerne ja auch fröhlich Threads durchwechseln können. Da gibt es zwar einen kleinen Overhead, aber das ist auch mal wieder so ein Fall, wo SMT hilft.
 
  • Gefällt mir
Reaktionen: peru3232 und Rockstar85
Hahaha, zusammengeklebte Chips... Ernsthaft, Intel, was soll das bringen? :lol:
 
  • Gefällt mir
Reaktionen: Bccc1
Piktogramm schrieb:
Das ist unwahrscheinlich. Jeder CPU Kern bedeutet Aufwand bei der Kommunikation, damit werden Monster aus vielen kleinen Kerne bei Zeiten recht ineffizient.
Sehe ich ähnlich.. Deswegen wird Sowas auch nicht mal eben eingeführt, Geschweige denn im Massenmarkt durchgedrückt.. Zudem ist es bei Pro Core Lizenzen auch noch mega teuer und Ineffizient was die Core Lantency und Inter Corre Communication betrifft.
Auch würde im PC Bereich ein Tremont Kern ebenso wenig Sinn machen, wie im Server... Also unnötiger Ballast am Ende.

@chuckie

Zusammengeklebt ist da nichts... Das sind Stapelchips ;) Nur ohne Paprikageschmack
Das ist Nebenbei angemerkt, Absolute Championsleague in der Fertigung und Konzeptionierung.
 
  • Gefällt mir
Reaktionen: Chismon
@Rockstar85 Für Foveros an sich, siehts da allerding schon anders aus. Wenn man die Kühlprobleme in den Griff bekommt, kann das für sehr viele Lösungen verwendet werden.
 
Foveros wird aber nicht auf Lakefield Basieren, oder anders rum.. Der Aufwand wäre schlichtweg nicht Wirtschaftlich.
Ich kann mir aber sehr gut vorstellen, dass man Sunny Cove dann eben stapeln wird, um am Ende auch die Wärmeübergänge effizienter zu gestalten. Und Unten Drunter dann die Voltage Controller und vllt ja auch den PCH (wie heisst das bei Intel eig?)
 
LamaMitHut schrieb:
Mal ne andere Frage: wäre ein SoC mit 4 ARM + 4 x86 Kernen + GPU möglich / sinnvoll?
Nette Idee... allerdings stelle ich mir da gerade die Frage: Wozu?
Was sollte dadurch besser werden wenn eine CPU verbaut wird deren Kerne zwei komplett verschiedene Befehlssätze haben? Wie sollte das funktionieren in der Realität?
 
  • Gefällt mir
Reaktionen: LamaMitHut
Piktogramm schrieb:
Das ist unwahrscheinlich. Jeder CPU Kern bedeutet Aufwand bei der Kommunikation, damit werden Monster aus vielen kleinen Kerne bei Zeiten recht ineffizient. Das ist ja bereits jetzt schon bei Intel und AMD so, dass die Bussysteme bzw. der "uncore" Teil mitunter mehr elektrische Leistung fressen als die Rechenwerke. Da bringt es wenig am Core zu sparen und uncore aufzublähen.
Zudem große Kerne ja auch fröhlich Threads durchwechseln können. Da gibt es zwar einen kleinen Overhead, aber das ist auch mal wieder so ein Fall, wo SMT hilft.

Das ist richtig, aber es kommt etwas ggf die Hirachie an. Wenn man versucht jeden Kern 100% gleich schnell an alle anderen anzubinden entsteht schnell overengineering.

Bei AMD funktioniert der CCX Ansatz ja auch gut.

Die kleinen Cluster aus 4 Atom Kerne die Intel hier nutzt muss man nicht so gut anbinden wie die einzelnen Big Cores am Ring. AMD hat von CCX zu CCX und Die zu Die auch sehr hohe Latenzen, aber man hat gelernt dass es bei Tasks wie Rendern quasi irrelevant ist da alles im Cache abläuft oder jeder Kern sein Set unabhängig von anderen rechnen kann. L3 federt das gut ab.

Wann immer das der Fall ist funktierte Multithread auch über PCs hinweg. Dann ist die Kommunikation der Kerne untereinander weniger relevant und wenn eben doch dann sind es meist weniger Threads und die sind innerhalb des CCX sehr kurz angebunden.

Wenn Intel als zB das Mesh nicht auf einzelne Atom Kerne durchzieht und zb sie AMD 4er Cluster eine Ebene Darunter platziert die über den L3 reden dann hält man den Overhead klein, bindet statt einem Big die immer 4 kleine bei quasi gleicher Infrastruktur an.
 
Zuletzt bearbeitet:
Bigfoot29 schrieb:
Der Sunny-Cove bringt nur 18% mehr Leistung? Und dafür der Aufriss? Und dann auch noch ohne aktuelles AVX? Kopfkratz
18% höhere IPC im Vergleich zu Skylake, vermutlich mit besseren Spectre, Meltdown & Co. Migitations, aber ohne Hyperthreading u. ohne AVX-512 bei Lakefield.
 
Ich finde bei Intel sieht man das mit dem UnCore Problem super beim Mesh. Braucht viel Saft, für wenig Kerne. Das Mesh wird effizienter wenn man statt 24 Kernen 100 oder gar 1000 anbindet. Noch besser wäre ein 3D Mesh das Intel theoretisch jetzt schon machen kann.

Extrem viele Kerne bei sehr kleiner homogener Latenz.

Edit. AMD fährt ja quasi eine Baum Topologie, bis runter aufs CCX.
Intel fährt bei allen Desktop CPU nen Ring.
Bei den Server CPU nen Mesh.
Beim Stapeln wären Mesh dann schnell ziemlich gut.
zB eine Die mit IO und SI Controllern, darüber 3-10 Die mit je zB 5x5 = 25 Kernen.

Was halt thermisch machbar ist. Ggf kann man mit Kohlenstoff Nano Material die Wärme auch horizontal zur Seite abführen.
 
Zuletzt bearbeitet:
WinnieW2 schrieb:
Nette Idee... allerdings stelle ich mir da gerade die Frage: Wozu?
Was sollte dadurch besser werden wenn eine CPU verbaut wird deren Kerne zwei komplett verschiedene Befehlssätze haben? Wie sollte das funktionieren in der Realität?

Ein Gerät auf dem 2 Betriebssysteme gleichzeitig laufen z.B.

Auf dem einen läuft halt ARM optimierte Software, auf dem anderen x86.

Ein Handy, das man am Monitor angeschlossen auch als PC verwenden könnte?
 
Floppes schrieb:
Da hat einer nur die Wiki Seite gelesen. Der eigentliche Urvater ist der P3 und darunter, aber gut.
Also der Urvater der heutigen Architektur bei Intel ist als Produkt der Pentium Pro und als Architektur der P6. Richtiger Urvater ist dann die Ausbaustufe Pentium 2. (Pentium 3 ist ja, mit böser Zunge, nur nen umgelabelter Pentium 2 ist, nur eben mit SSE.)

Okay, Klugscheissermodus aus.
 
  • Gefällt mir
Reaktionen: Shoryuken94 und andi_sco
Zurück
Oben