News Intel-CPU-Gerüchte: Alder Lake-S mit 16 Kernen nach big.LITTLE-Prinzip

Wo ist hier der Vorteil?
Man könnte doch auch bei einem 8/16 einfach 7 Kerne parken/abschalten und den verbleibenden Kern entsprechend dem Leistungsbedarf Takten oder?
 
  • Gefällt mir
Reaktionen: Ned Flanders
Neulich bei Intel:
"Oh verdammt, wir schaffen es nicht mit unserer Fertigungstechnologie 16 Kerne in einen CPU Die zu packen ohne dass er schmilzt" - "Ja dann lass einfach 8 schnelle und 8 lahme Kerne nehmen. Unsere Marketingabteilung schafft es bestimmt irgendwie das den Kunden als Killerfeature zu verkaufen"
 
  • Gefällt mir
Reaktionen: LukS, PS828, nagus und eine weitere Person
v_ossi schrieb:
Und Energiesparen lohnt sich nur mobil? Hast du darum auch Glühbirnen statt LEDs im Haus?

Noch mal, es muss ja nicht jede CPU betreffen. Wenn 24/7 gerendert wird oder VM durchlaufen, nimmst du halt weiterhin eine 'klassische' CPU mit ordentlich Power.

Wer die Power aber nicht (immer) braucht, freut sich evtl. über den niedrigeren Verbrauch, der je nach Gestaltung des Rechners in kompakteren Ausmaßen oder passivem Betrieb resultieren kann. Vlt. schaltet man seinen Rechner zukünftig auch gar nicht mehr aus, wenn der Stand-by Verbrauch auf nahezu 0 runter geht.

Denn auch die LITTLE Cores werden ja ein Power Management besitzen. Nur wird das eben absolut noch sparsamer sein, wenn schon die Ausgangslage entsprechend auf sparsamen Betrieb ausgelegt ist.

Aber klar, einen 'neuen' technischen Ansatz direkt zu verteufeln ist natürlich sinnvoller, als erst mal zu gucken, wohin sich das entwickelt/entwickeln könnte. Intel hat sich bestimmt nix dabei gedacht.

was braucht eine moderne CPU (ohne "LITTLE" cores") an strom im idle oder unter wenig last????? eh fast nix bitte. falsche sparsamkeit finde ich zum brechen.

die leute die das geil finden, fahren dabei ihren stinkendel vw schummel-diesel oder irgend eine uralten karren, die alles andere als effizient sind. aber hauptsache großen wert auch energiesparen beim desktop legen.

was ich damit sagen will: die paar watt sind im alltag kompllett WURSCHT. ultra-light notebooks, smartphones, OK. überall anders: ein Lösung für ein nicht-Problem.
 
  • Gefällt mir
Reaktionen: Benji21, peru3232 und USB-Kabeljau
Mensch Leute ich weiß garnicht war ihr habts. Denkt doch mal logisch. Durch kleinere fertigungen sinkt auch der takt. Intel schrieb ja selbst das der hohe takt nicht mehr gehalten wird. AMD geht vom takt auch nicht mehr so hoch. Takt ist halt eben ein Problem. Wenn Intel also auf ihre 7 nm geht, dann wird der takt noch weiter sinken. 4,2 GHz wurden bei 10 nm prognostiziert. Bei 7 nm sind es dann wohl nur noch 3,6 GHz als maximal möglichen. Wenn die kleineren Kerne also 3 GHz als maximal möglichen packen würden, ist das auch schon beachtlich. Die werden durchaus sich auf diesen takt übertakten lassen von 2,4 oder 2,6 GHz standard takt. Wir werden also langfristig nicht mehr Leistung durch takt mehr erleben. Aber ipc und massive Optimierung der Kerne werden den Nachteil schon etwa abfedern können. Wer weiß, wenn die kleinen Kerne massiv optimiert sind, dann werden diese kleinen Kerne dann nicht mehr bremsen. Man kann also durchaus was machen. Ist ja nicht so das Intel verlernt hätte zu optimieren oder?
 
D0m1n4t0r schrieb:
Neulich bei Intel:
"Oh verdammt, wir schaffen es nicht mit unserer Fertigungstechnologie 16 Kerne in einen CPU Die zu packen ohne dass er schmilzt" - "Ja dann lass einfach 8 schnelle und 8 lahme Kerne nehmen. Unsere Marketingabteilung schafft es bestimmt irgendwie das den Kunden als Killerfeature zu verkaufen"
und wie man hier im Forum sieht: es funktioniert gar nicht mal so schlecht!

Macht absolut Sinn zusätzlich noch langsame Kerne rein zu pressen, damit die CPU im Idle 0,8W statt 1W braucht, sprich im Gesamtsystem 30 statt 30,2W - wow!
Bedingt tauglich im Laptop, aber auch da bietet AMD dann nun vollwertige 8/16 mit iGPU bei 15W TDP - da kann auch nicht mehr die Welt drinnen sein... vom Verwaltungsaufwand und Handling der unterschiedlichen Kerne abgesehen
Wenns um jedes einzelne mW geht, verständlich - aber sicher nicht mehr in dieser Dimension - da macht alles andere mehr aus

Aber Intel muss ja was bringen und offensichtlich haben sie keine Idee oder Plan was das sein könnte - also irgendwas machen und versuchen es marketingtechnisch attraktiv zu verkaufen
 
  • Gefällt mir
Reaktionen: LukS und USB-Kabeljau
Das big.LITTLE-Prinzip hätte Nvidia auch bei der GTX 970 (3,5+0,5) GB marketingtechnisch verkaufen können.
Dann hätten sie sich ein bisschen Ärger erspart
.
 
Klingt interessant. Ich bin zwar nur Laie, aber ich könnte mir vorstellen, dass das Potenzial für Optimierungen bringt, gerade auch mit Blick auf Fertigungstechnologie. Man kann mitunter 14nm/10nm mit 7nm/5nm Chips kombinieren. Und es birgt die Möglichkeit bestimmte Rechenprozesse zu optimieren, indem man einzelne Chips für bestimmte Aufgabe auslegt/optimiert.
 
ZeroStrat schrieb:
Macht das für den Desktop wirklich Sinn?

Hab da meine Zweifel. Im Allgemeinen werden Desktops wohl nur genutzt wenn damit gearbeitet werden soll. Ob sich da wirklich viel einsparen lässt?
Vielleicht hofft man ja auf eine Reduzierung der Umweltbelastung über die Gesamtmenge der verkauften CPUs, allerdings sollte man da genau darauf achten ob die zusätzliche Belastung durch die Produktion die Einsparungen beim Verbrauch nicht komplett auffrisst.
 
v_ossi schrieb:
Hat ja auch niemand behauptet, dass big.LITTLE die Lösung für jeden Anwender und alle Szenarien ist.
Die wenigsten hier haben wirklich Ahnung davon, wie CPUs und aktuelle Sheduler arbeiten und was da so alles abläuft.

90% der Beiträge hier sind unfundiert, und das merkt man sofort. Ich wollte eine Person zitieren, nach dem ich aber die weiteren Beiträge gelesen habe, merke ich: Es ergibt keinen Sinn und deswegen lasse ich es auch. ;)

v_ossi schrieb:
Die "Core Wars" lassen sich zwar nach oben heraus beliebig fortsetzen, aber abgesehen von unserer Enthusiasten Filterblase und professionellen Workstation Rechnern, nutzt Max Mustermann für Office/Internet/Netflix/etc. ein Rechner mit mehr als 4 oder 6 Kernen herzlich wenig.
Selbst auf Workstations kommt es darauf an, was genau gemacht wird und was benötigt wird. Wenn es nach den meisten hier geht, kann man ja nur an Kern und GHz Monster wirklich arbeiten, was absoluter Bullshit ist.

Ich kenne genug Animationstechniker, 3D- und 2D-Artist, die teilweise an Workstations arbeiten, die 4 - 5 Jahre alt sind und die dennoch super Arbeit abliefern und in der Industrie immer und immer wieder genommen werden, weil sie einfach sehr gut arbeiten.

Ich kenne auch genug Filmemacher - Cutter und Co - die an Workstations arbeiten, die auch mal 7 - 8 Jahre auf den Buckel haben, weil sie die Leistung nicht brauchen und ihre Systeme gut funktionieren.

Viele freie Künstler - und gerade in dem Bereich gibt es weit mehr als viele Denken - kaufen sich ihre Hardware auch nur, wenn sie sie wirklich brauchen und dann kaufen sie sich auch nicht immer die absolute Highend-Hardware, sondern kaufen nach Bedarf.



USB-Kabeljau schrieb:
Woron genau besteht der Vorteil von "langsamen" Kernen (mit weniger maximal-Takt) gegenüber normaler Kerne, die einfach nicht auf dem maximal-Takt laufen?
Das Problem mit dem Takt eines Kerns ist, dass er eine gewisse Grundspannung benötigt, damit die Transistoren überhaupt schalten. Es ist ab dem Zeitpunkt dann egal, ob die CPU mit 800MHz oder 1000MHz läuft, sie benötigt immer (fiktiv) 0,9V bei 3A. Wie gesagt, ist das Fiktiv. Das heißt, ab einem gewissen Zeitpunkt ist es egal, ob du noch Takt wegnimmst, es wird nicht weniger Energie benötigt.

Kurz um, bei den P-States gibt es ein "Minimum" an Leistung, dass der Kern benötigt und es bringt nichts noch niedriger zu gehen.

Im Übrigen sollte man jetzt nicht mit den C-States kommen, dort werden nach und nach die Bestandteile des Kerns deaktiviert bis der Kern quasi aus ist.
USB-Kabeljau schrieb:
Oder sind die Spar-Kerne sonst noch irgendwie anders strukturiert?
Genau darum geht es in diesem Fall. Die aktuellen Kerne bei AMD als auch Intel sind, wenn man sie genau betrachtete, wahre Monster. Pipeline-Längen um ca. 15 Stages. Dazu eine Breite von ca. 4 ALUs und 3 AGUs, dazu kommen 2 Vektor-ALUs mit 256Bit - bei Intel sind sie jetzt auf 512Bit angewachsen.

Um höhere Leistung zu erreichen werden die Kerne immer komplexer und fetter und all das benötigt - wie geschrieben - eine gewisse Grundspannung und Grundstromstärke. Innerhalb eines Kernes kannst du dem nicht wirklich mit Power-Gating arbeiten.

Einen kleinen Kern kannst du nun - im einfachsten Schritt - um gewisse Funktionseinheiten vollständig beschneiden, z.B. nur noch 1 Vektor-ALU und die statt 512Bit nur 256Bit. Genau so könnte man von OoO (Out of Order) in ein In-Order-Design wechseln und so weiter.

Solche Kerne haben dann merklich weniger Schaltungen und statt 0,9V bei 3A benötigen sie halt nur noch 0,9V bei 1A wenn den minimalen P-State haben auch über weitere P-States geht das erst mal so weiter.

USB-Kabeljau schrieb:
Z.B. wenn sich der Scheduler verschätzt oder nicht schnell genug die Threads verschieben kann.
Nun, könnte durchaus ein Problem sein, aber MS arbeitet ja konstant an seinem Scheduler und dieser wird auch immer besser.

Selbst HT stellt heute für Spiele keine Probleme mehr da, weil Windows weiß, dass sie die Spiele primär auf die "logische-physischen" Kerne setzt, statt auf die "logisch-logischen" Kerne.

Klar ist hier der Schwachpunkt der Scheduler aber Intel wird wohl mit MS zusammenarbeiten und Linux der Scheduler wird auch immer recht schnell an solche Gegebenheiten angepasst.

Zu mal man nicht vergessen darf, das so gut wie keine Software in Echtzeit ausgeführt wird.
 
  • Gefällt mir
Reaktionen: Pjack, Paradox.13te, s0UL1 und 4 andere
peru3232 schrieb:
und wie man hier im Forum sieht: es funktioniert gar nicht mal so schlecht!
[...]
Aber Intel muss ja was bringen und offensichtlich haben sie keine Idee oder Plan was das sein könnte - also irgendwas machen und versuchen es marketingtechnisch attraktiv zu verkaufen

Sorry, dass ich deinen Post als Aufhänger nehme, aber...

Wie kann man eigentlich so arrogant und ignorant sein, dass man hier in Forum so despektierlich und überheblich daher quatscht?

Klar, hunderte Ingenieure bei Intel mit tausenden Stunden individueller Ausbildung und zusammen Millionen Stunden an Erfahrung haben sich bestimmt nur gedacht "Hur Dur, 14nm schlecht, Marketintrick incoming."

Es erschließt sich mir nicht, wie man eine reine Idee mehrere Jahre vorm Marktstart so durch den Kakao ziehen kann.
Zweifel sind erlaubt!
Skepsis ist in Anbetracht von Intels jüngster Vergangenheit sogar hilfreich um keine falschen Erwartungen zu wecken!

Aber ein Urteil (gerne auch vernichtend, wenn die Produkte nichts taugen) sollte man erst fällen, wenn die Dinger ausgiebig getestet wurden.

Als AMD mit dem Chiplet Design um die Ecke gekommen ist, war das auch eine drastische Änderung und man sieht, wie sehr wir davon momentan profitierten.
Wer da von 'billig verklebten CPUs' gesprochen hat, bekommt dieser Aussage heute noch (zurecht) um die Ohren gehauen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: smalM, Pjack, MrNejo und 4 andere
Vielleicht geht Intel damit den Weg von (noch) mehr Produktdiversifikation. Möglichwerweise sehen wir dann mal eine auch hardwaretechnisch speziell aufgebaute CPU z.B. für Gamer oder Streamer oder was weis ich. Geht zwar alles auch mit der jetzigen Architektur, aber wer weiß? Ein Modell, welches 2 bis 4 hochtaktende, relativ große, damit gut zu kühlende "Gamingcores" bereithält, die restlichen Kerne für das Beiwerk wie Multitasking, OS etc., welche nicht so warm werden und deshlab wenig Oberfläche verbrauchen können.

Zuzutrauen ist ihnen alles und vielleicht ergibt es sogar einen Sinn für einen Desktop ;)
 
8 große plus 8 kleine sind mir allemal lieber, als 8 Kerne plus 8 HT.
Strom sparen klingt Vordergründig erst mal gut und könnte durchaus für alle Systeme möglich sein. Die meisten Prozesse benötigen doch eh nicht die Power der großen Kerne, und selbst wenn: Ein Ryzen 3700 reicht völlig aus, mehr Leistung benötigt nur eine wirklich kleine Zahl von Anwendern, die diese auch wirklich voll ausreizen kann.

Aber die vielen Prozesse, die im Hintergrund laufen bzw. Office- und Internetanwendungen sind mit kleinen Prozessoren allemal gut bedient. In Summe über alle Kerne könnte so eine CPU eine spürbare Leistungs- und Effizienzverbesserung bedeuten.
 
  • Gefällt mir
Reaktionen: andi_sco und Banned
@Teralios
Danke für die ausführlichen Infos!

Ich kenne das halt noch von Spiele-Benchmarks der Vergangenheit und Erfahrungen mit Pro-Audio-Software.
Gerade da ist es mitunter ratsam, Hyperthreading auszuschalten ... oder zumindest war das so, als ich mich zuletzt damit auseinander gesetzt habe.

Im Audio-Bereich gab es sogar mal erhebliche Probleme mit den Windows-Power-Management-Settings.
Da musste man dann den Minimum-Prozessor-Takt auf 100% stellen, sonst hatte man extreme Peaks bei der DPC-Latency.

Daher meine Skepsis.
 
  • Gefällt mir
Reaktionen: DonL_
v_ossi schrieb:
Sorry, dass ich deinen Post als Aufhänger nehme, aber...

Wie kann man eigentlich so arrogant und ignorant sein, dass man hier in Forum so despektierlich und überheblich daher quatscht?

Klar, hunderte Ingenieure bei Intel mit tausenden Stunden individueller Ausbildung und zusammen Millionen Stunden an Erfahrung haben sich bestimmt nur gedacht "Hur Dur, 14nm schlecht, Marketintrick incoming."

Es erschließt sich mir nicht, wie man eine reine Idee mehrere Jahre vorm Marktstart so durch den Kakao ziehen kann.
Zweifel sind erlaubt!
Skepsis ist in Anbetracht von Intels jüngster Vergangenheit sogar hilfreich um keine falschen Erwartungen zu wecken!

Aber ein Urteil (gerne auch vernichtend, wenn die Produkte nichts taugen) sollte man erst Fällen, wenn die Dinger ausgiebig getestet wurden.

Als AMD mit dem Chiplet Design um die Ecke bekommen ist, war das auch eine drastische Änderung und man sieht, wie sehr wir davon momentan profitierten.
Wer da von 'billig verklebten CPUs' gesprochen hat, bekommt dieser Aussage heute noch (zurecht) um die Ohren gehauen.

Man kann die Idee sicherlich diskutieren und ich gebe dir recht, erstmal das Ergebnis abzuwarten, aber die letzten 10 Jahre sprechen eher eine andere Sprache bzgl. des Scheduler von MS. Die ganze Idee hängt ja nicht unbedingt an der Hardware, sondern im Endeffekt auschließlich an der Software; Zuordnung der Kerne.
Bis Heute ist der MS Scheduler bzgl SMT/HT oder "alternativen" Ansätzen wie ZEN 1 (Uma/Numa plus Speicheranbindung) eher bescheiden oder Müll. Den Absatz deines Vorposters Teralios in Sachen MS Scheduler ist an Schönschreiberei kaum zu überbieten. Insoweit stehe ich der Idee neben SMT/HT noch eine weitere "Kernzuordnung" ins Spiel zu bringen, was das ganze nochmal wesentlich verkompliziert, dann doch eher skeptisch gegenüber, bezogen auf die Software. Auf alle Fälle kein Ansatz, der sich "schnell" umsetzen lässt, sondern eher ein Jahrzehnt am Markt brauchen wird, bis er richtig funktioniert.
 
Zuletzt bearbeitet:
v_ossi schrieb:
Sorry, dass ich deinen Post als Aufhänger nehme, aber...
Wie kann man eigentlich so arrogant und ignorant sein, dass man hier in Forum so despektierlich und überheblich daher quatscht?
............
Ich würde sagen, da kannst du dich genau so gut an der eigenen Nase nehmen! Ich schrieb meine Meinung dazu, du deine, dass du das super findest. Hast du schon irgendwelche Tests dazu gelsen/selbst gemacht etc. ???
also Spekulation. Ich habe meine Vermutung sogar im Gegensatz zu dir auch dargelegt - aber ich bin überheblich? Eieiei, naja - ich sag mal lieber nichts mehr
Und ja, die Ingenieure haben sich sicher was gedacht -> aber für den Lowest-Power Bereich - und eben sicher NICHT für Desktop! Die Idee für diesen Bereich zu verwurschten kommt meines Erachtens ausschließlich nicht von Leuten die technisch nicht sehr versiert sind...
Aber du weißt das ja offensichtlich besser (womit du also als einziger deine Meinung hier kundtun darfst) Chapeau!
 
Palomino schrieb:
8 große plus 8 kleine sind mir allemal lieber, als 8 Kerne plus 8 HT.

Das wurde zuvor hier im Thread schon angesprochen und für mich klingt das auch durchaus plausibel.

So könnte man sich vieler Lücken entledigen und dabei noch die Leistung steigern.

Ich glaube eher weniger, dass das ein ernsthafter Versuch sein soll, gegen 16 große Kerne von AMD anzustinken. Das wird man anders lösen müssen.
 
  • Gefällt mir
Reaktionen: Palomino und andi_sco
Simon schrieb:
...
Nur um die Package Idle-Power von 7 auf 4 Watt runter zu bringen, ist das eine absurde Verschwendung von Silizium.
...

Nicht der Leerlauf, sondern bei kleineren Aufgaben sind die little Cores von Nutzen.

Surfen, Dokumente, Mails schreiben etc.
 
andi_sco schrieb:
Nicht der Leerlauf, sondern bei kleineren Aufgaben sind die little Cores von Nutzen.

Surfen, Dokumente, Mails schreiben etc.

Und wer ordnet das zu?!
Man möge sich die Frage stellen, warum AMD nach ZEN 1, nichts eiligeres zu tun hatte als mit ZEN 2 wieder wegzukommen von der "Abhängigkeit" eines guten Schedulers?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS und Cruentatus
Oops falscher Thread, vergesst das Wieder :D
 
Zurück
Oben