News Intel-CPU-Gerüchte: Alder Lake-S mit 16 Kernen nach big.LITTLE-Prinzip

Finde das Konzept relativ langweilig, sowohl für Mobil- als auch für Desktop-Rechner, da es am Ende nur eine Halbherzige und frickelige Sache sein wird, die wieder massiv Treiberabhängig ist und primär Ärger bereitet.

Etwas anderes wäre es, wenn man kleine 1-2 "Host-CPU" hätte die ausschließlich durch das OS genutzt werden, für Scheduler, Connectivity (WLAN etc...), IO und das ganze Zeug. Also quasi alles was im Kernel/Ring-0 läuft und den Rest (Userland/Ring-3) halt auf den dicken Dingern. Aber das ist ein ziemlich komplexes Thema, da auch oft OS-Sachen aus Sicherheitsgründen im Userland ausgeführt werden etc...

Ich denke beim "klassischen" PC ist der Zug in die Richtung abgefahren, da ist alles aus historischen Gründen viel zu verwaschen. Man sehe sich nur diese ganzen "Management-Engine"-Lösungen an, die auf einem eigenem OS und eigenen CPU im Hintergrund des OS laufen, die an das klassische PC-Konzept rangefrickelt wurden. Wo das hingeführt hat, wissen wir ja auch.

Für soetwas muss es m.E. mal einen harten Schnitt geben, sonst läuft das wieder wie diese ganzen tollen Stromspar-Techniken und "Optimierungen" für IO die z.B. nur dann funktionieren, wenn irgend ein spezieller RAID-Treiber installiert und RAID im BIOS/UEFI aktiviert ist (ein freundlicher Gruß an Intels "Rapid Storage"-Zeug). Um mal ein Beispiel zu nennen.
 
  • Gefällt mir
Reaktionen: derSafran, yummycandy und peru3232
adny schrieb:
mit pci-e 5.0 würden sie AMD wieder überholen und was neues, besseres als erster einführen, wer weiß :D
unnötig wie ein Kropf, aber warum nicht

komplett sinnlose für consumer und kommt garantiert nicht so schnell. jetzt gibts pcie4 ja erst ein jahr.
 
Bin mal gespannt, könnte zB für den Enterprise-Markt interessant sein, wenn es denn vernünftig funktioniert (Sowohl rein technisch als auch Treiber/Scheduler-mäßig).
Server laufen viel im Idle, weil i.d.R. so skaliert, dass sie Lastspitzen auch abkönnen. Wenn die in der Zeit durch die "kleinen" Cores deutlich weniger Verbrauchen, wäre das zumindest für einige Anwendungszwecke durchaus praktisch. Nicht nur in Desktops, auch in NAS u.ä.
Und bei meinem 3950X würden 4 kleine Kerne auch nicht schaden, die übernehmen, wenn die Kiste im Idle läuft.
 
  • Gefällt mir
Reaktionen: Transistor 22 und andi_sco
nagus schrieb:
jetzt gibts pcie4 ja erst ein jahr
Bei Intel gibt es PCIe 4.0 noch gar nicht und dass der Nachfolger bereits vor der Tür steht, ist auch nicht erst seit gestern bekannt.

Wegen mir kann Intel auch PCIe 4.0 komplett überspringen und dann 2021/22 direkt auf DDR5 und PCIe 5.0 setzen. Den Zwischenschritt braucht eigentlich eh kaum jemand wirklich.
 
  • Gefällt mir
Reaktionen: icetom, Transistor 22, KlaraElfer und 2 andere
xexex schrieb:
Bei Intel gibt es PCIe 4.0 noch gar nicht und dass der Nachfolger bereits vor der Tür steht, ist auch nicht erst seit gestern bekannt.
Es steht immer der nächste Nachfolger vor der Tür. Logisch.
xexex schrieb:
Wegen mir kann Intel auch PCIe 4.0 komplett überspringen und dann 2021/22 direkt auf DDR5 und PCIe 5.0 setzen. Den Zwischenschritt braucht eigentlich eh kaum jemand wirklich.
Im Datacenter wird PCIe 4.0 aktuell mehr als dringend benötigt. 100G Interface-Karten sind auf dem Vormarsch - und welch Wunder: Für eine 2x100G Karte benötigst du 16x PCIe 4.0.
Bei GPUs kommen wir bald an ein Limit von PCIe 3.0 -> PCIe 4.0 muss also her. Aber für PCIe 5.0 gibt es noch keinen Bedarf. Warum sollte man also direkt auf PCIe 5.0 springen? Wenn Intel direkt auf PCIe 5.0 springen sollte, dann weil sie PCIe 4.0 einfach nicht mehr gebacken bekommen. Aber daran glaube ich nicht. Ich denke das wir Ende des Jahres 2020 die ersten PCIe 4.0 Produkte (vermutl. Ice-Lake SP) sehen werden. Alles andere wäre überraschend.
 
  • Gefällt mir
Reaktionen: derSafran, Transistor 22, PS828 und 3 andere
PCIe 4.0, 5.0 wozu? Die Computer-Hardware ist imho generell so schnell, das braucht kein (normaler) Mensch. Das Intel jetzt krampfhaft versucht, noch irgendwie ein paar MHz aus der veralteten CPU-Architektur rauszuholen, kann ich auch nicht so richtig nachvollziehen. Intel soll lieber ihre Energie+das Geld in neue CPU-Architekturen stecken, gerade im Desktop-Bereich. Da ist der Zug für sie doch im Moment eh abgefahren. So sehe ich das zumindest.

Edit: Ohh, ich glaube, ich bin mit meinem Kommentar in der falschen "News" gelandet.:freaky:
 
Snowi schrieb:
Bin mal gespannt, könnte zB für den Enterprise-Markt interessant sein, wenn es denn vernünftig funktioniert (Sowohl rein technisch als auch Treiber/Scheduler-mäßig).
Server laufen viel im Idle, weil i.d.R. so skaliert, dass sie Lastspitzen auch abkönnen. Wenn die in der Zeit durch die "kleinen" Cores deutlich weniger Verbrauchen, wäre das zumindest für einige Anwendungszwecke durchaus praktisch. Nicht nur in Desktops, auch in NAS u.ä.
Und bei meinem 3950X würden 4 kleine Kerne auch nicht schaden, die übernehmen, wenn die Kiste im Idle läuft.
Dein 3950X hat zu 99% der Zeit seine Kerne im Sleepmode, wenn Idle - 0,2V Spannung drauf = praktisch kein Verbrauch.
Die wirklichen Verbraucher bei Ryzen sind die IO Chips, meiner liegt konstant bei 13W, da muss AMD nochmals ran.
Ansonsten dürfte ein extra NIC wohl so viel saft ziehen, wie diese Lowpower-Cores einsparen können - also auch hier, lieber ein Board kaufen mit wenig extra Features bzw. nicht genutzte deaktivieren, ist sicher effektiver.

Wenn du im Idle noch ein paar Watt sparen und trotzdem keine Leistung verlieren möchtest, dann probiert mal den Energiesparplan (V3) von @sz_cb aus
 
  • Gefällt mir
Reaktionen: Transistor 22
Das erste was mir gleich auffällt ist der neue Sockel. Intel bekommt es einfach nicht gebacken. AM4 kann von 2 bis 16 Kernen alles. Das ist schon etwas lächerlich, dass es Intel nicht packt.

Discovery_1 schrieb:
PCIe 4.0, 5.0 wozu?

Recht einfach. Weniger Lanes bei gleichem Speed :) Gehen wir mal von PCIe 4.0 aus. Bsp.:

GPU: 8 Lanes
M.2 SSD: 2 Lanes
Capture-Card: 4 Lanes

Damit wäre man auf 14 Lanes die man benötigt. Wäre das PCIe 3.0 wären es 28 Lanes die man benötigt für die gleiche Bandbreite. Also auch wenn man nicht umbedingt den Speed Vorteil spürt kann man durchaus mehr fürs Geld bekommen :)
 
  • Gefällt mir
Reaktionen: Transistor 22, Onkel Föhn, yummycandy und eine weitere Person
Nizakh schrieb:
...
Bei GPUs kommen wir bald an ein Limit von PCIe 3.0 -> PCIe 4.0 muss also her....

Und ich dachte, der Unterschied ist marginal...


Zur CPU: beim kleinen Big.little mit 4+1 Kernen gibt es wohl kein AVX, um beim umschalten keine Probleme zu verursachen, wie es wohl hier aussieht?

Ansonsten haben sich die intel eigenen Alternativen auch nie durchgesetzt.
iAPX 432

Itanium
 
Tulol schrieb:
Im mobilen Bereich kann ich das nachvollziehen, da zählt jedes Watt.
Aber im Desktop? Den Löwenanteil des Stromverbrauchs tragen andere Komponenten im "trödelbetrieb" bei.

da geht es nicht nur um den Verbrauch. Schau dir mal an wie viel die Kerne wachsen für ein paar % mehr Leistung. Auch da kann man schon fast das Paretoprinzip ansetzen. 20% Kern Größe für 80% Kern Leistung.

Wenn ich jetzt also auf selber Fläche 5 Kerne unterbringe, dann erreich eich neben höherer Vollast Effizienz auch eine viel bessere Flächeneffizienz.
 
  • Gefällt mir
Reaktionen: Transistor 22, Nitschi66 und Shoryuken94
Discovery_1 schrieb:
PCIe 4.0, 5.0 wozu? Die Computer-Hardware ist imho generell so schnell, das braucht kein (normaler) Mensch. Das Intel jetzt krampfhaft versucht, noch irgendwie ein paar MHz aus der veralteten CPU-Architektur rauszuholen, kann ich auch nicht so richtig nachvollziehen. Intel soll lieber ihre Energie+das Geld in neue CPU-Architekturen stecken, gerade im Desktop-Bereich. ..

du brauchst weniger Lanes, was z.B. interessant für eGPUs ist, so Sachen bindest du per x4 an und nicht x16.
oder Grafikkarten Hersteller können pci-e 4.0 x8 Grafikkarten anbieten, die dann günstiger werden ..
generell braucht man nur die halbe Anzahl an pci-e Lanes für dieselbe Bandbreite -> ergo, macht schon Sinn

Intel arbeitet schon länger hart an Architekturen, dauert aber halt, das geht nicht von heute auf Morgen.

pci-e 5.0 vs 4.0 hätte auch den Vorteil, dass man nur einmal eins davon anbieten muss, macht die Entwicklung einfacher^^
Intel hätte JETZT gern 4.0 Angeboten, aber nicht rechtzeitig fertig bekommen, ob es 2021 noch viel Sinn macht 🤷‍♀️, oder besser direkt 5.0 ..
 
  • Gefällt mir
Reaktionen: Transistor 22
0xffffffff schrieb:
Etwas anderes wäre es, wenn man kleine 1-2 "Host-CPU" hätte die ausschließlich durch das OS genutzt werden, für Scheduler, Connectivity (WLAN etc...), IO und das ganze Zeug. Also quasi alles was im Kernel/Ring-0 läuft und den Rest (Userland/Ring-3) halt auf den dicken Dingern. Aber das ist ein ziemlich komplexes Thema, da auch oft OS-Sachen aus Sicherheitsgründen im Userland ausgeführt werden etc...


ich denke dass kann man wie im heutigen Mobile Segment relativ einfach optimieren.

Zum einen kann der Entwickler schon beim Coden schnell in Libs festlegen welcher Prozess auf Big und welcher auf Litte laufen soll. Zum Anderen dürfte es aber auch schnell quasi Listen für den Sheduler geben die auch ständig aktualisiert werden, in denen dann vermutlich genau das drin steht - welche Prozesse eher auf Litte, welche eher auf Big verlagert werden. Und für unbekannte Prozesse muss eine gewisse Logik herhalten, abh von der Last die ein Prozess verursacht.
 
Verstehe die bemühungen von Intel überhaupt nicht, Stromverbrauch im Idle ist im Desktop total egal und mit 8 Kernen werden sie niemals die 16 Ryzen 5000 Cores schlagen. Dafür brauchen sie ja die doppelte IPC oder sie verdoppeln einfach nochmal den Stromverbrauch :D ..... 8Ghz Hochfrequenz Kerne
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Big-Little? Dieses Prinzip hat doch AMD schon mit Bulldozer versucht. Wie gut das funktioniert hat, haben wir ja gesehen.
Der eigentliche Grund ist eher, Intel spart dadurch Chipfläche, da sie eben nicht wie AMD in Chipletten fertigen und somit extreme Probleme mit der Ausbeute bekommen würden, wenn sie einen echten 16-Kerner produzieren müssten, vorallem bei ihrem wackeligen 10nm Prozess und somit dank Marketing trotzdem 16-Kerner verkauft können.

Lasse mich aber gerne überraschen, wenn dem nicht so sein wird. 😊

P.S. Dieses Wortspiel... Alder Lake-S...Köstlich! 🤪
 
  • Gefällt mir
Reaktionen: Rockstar85
DarkerThanBlack schrieb:
Big-Little? Dieses Prinzip hat doch AMD schon mit Bulldozer versucht.
Wie...was? Bulldozer bzw die daraus entstehenden Prozessoren basierten nicht auf dem big.LITTLE-Prinzip soweit ich weiß.
 
  • Gefällt mir
Reaktionen: Miuwa, Transistor 22, Hayda Ministral und eine weitere Person
Warum eigentlich die gleiche Anzahl großer und kleiner Kerne?

Wechselt der Chip dann je nach Lastzustand die Kerne welche rechnen groß<>klein? Klingt so! Andernfalls würden ja vermutlich 2-4 Kleine für Background und Firlefanz Zeug reichen und dazu dann 4-XX Große für alles was Arbeit macht :confused_alt:
 
Krautmaster schrieb:
Zum einen kann der Entwickler schon beim Coden schnell in Libs festlegen welcher Prozess auf Big und welcher auf Litte laufen soll.
Naja, viele Entwickler sind schon mit mehr als einer CPU überfordert, denen traue ich das ehrlichgesagt nicht zu. Außerdem sehe ich keinen Vorteil darin normale Anwendungen auf einem Little-Kern laufen zu lassen, die gehört immer auf die schnellen Cores um schnell die Arbeit zu erledigen um sich dann wieder ASAP schlafen zu legen.

Wie gesagt, für bestimmte Treiber und OS-Sachen macht es in meinen Augen durchaus Sinn, insb. für die Barbeitung von Interrupts, IO und Scheduling.
 
Krautmaster schrieb:
da geht es nicht nur um den Verbrauch. Schau dir mal an wie viel die Kerne wachsen für ein paar % mehr Leistung. Auch da kann man schon fast das Paretoprinzip ansetzen. 20% Kern Größe für 80% Kern Leistung.
Tun sie das? Mit den ganzen Shrinks habe ich eher das Gefühl, dass die immer kleiner werden. Das einzige was die aufbläht sind größer werdende Caches.
Im Desktop sehe ich das auch nicht sonderlich vielversprechend.
 
Klar Shrinks sind hier außen vor, ich meine den reinen Bedarf an Transistoren und Fläche innerhalb einer Fertigung.
Ergänzung ()

0xffffffff schrieb:
Naja, viele Entwickler sind schon mit mehr als einer CPU überfordert, denen traue ich das ehrlichgesagt nicht zu
Im Mobile Umfeld geht's ja auch irgendwie. Der Entwickler kommt hier erst zum Tragen wenn es perfekte werden soll, auch ohne diesen muss eine Scheduler Logik das wie zB auch bei Android lösen können. Der Shift zwischen Big und Little passiert da vermutlich fortlaufend. Anders als Multithread funktioniert es auch vollkommen ohne dass der Entwickler hier was bewusst anpassen, aber er könnte ggf um die Sache noch effizienter zu gestalten.
Ergänzung ()

Lakefield Die Shot
https://www.tomshardware.com/news/intel-lakefield-die-shot-shows-82mm-square-chip

Sieht man auch gut die Größenunterschiede beim Kern. Man darf nicht vergessen dass neben Cache auch sowas wie AVX usw schmaler bei den kleinen Kernen ausfällt oder ganz wegfällt.
i3hBqtJ2sMisqQ7ypfgDvK-970-80~2.png


Und die Nachfolger Kerne von SunnyCove sind ja nochmal ne ganze Ecke gewachsen, siehe Tiger Lake Die Shot.

Interessant ist auch dass Intel wohl diese 4er Cluster der kleinen Kerne macht und diese ggf mit am Ringbus in der Mitte hängen, ggf aber alle als eine Station wie ein CCX dass dann über zB den L3 kommuniziert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Transistor 22
Krautmaster schrieb:
muss eine Scheduler Logik das wie zB auch bei Android lösen können
Joa, hast Du dir mal angeschaut wie moderne Android-Scheduler ihren Job machen? Die suspenden oder killen deine Anwendung bzw. Task einfach nach x-Zeiteinheiten... so wird da "effizient" Strom gespart. Stichwort: Race-To-Sleep :)

Da laufen auch einfach nur ein paar OS-Tasks auf den Little-Kernen.
 
Zuletzt bearbeitet:
Zurück
Oben