News Alder Lake: Intel bestätigt weitere CPU-Konfigurationen und Details

Volker schrieb:
Interessant wird dann ab Core i3 abwärts, und vor allem auch Pentium und Celeron.
Also ich halte es für nicht ganz ausgeschlossen dass Intel für die Pentium und Celeron CPU Linie einen eigenen Chip herausbringt welcher überhaupt keine Performance-Kerne sondern nur 8 Effizienzkerne enthält, sowie eine iGPU mit max. 32 EU, kein Thunderbolt & Co.
Müsste ein ziemlich kleiner Chip werden, da die Effizenzkerne nicht viel Platz benötigen.
Performancekerne bleiben CPUs mit Core-Branding vorbehalten.

Ist eine Spekulation meinerseits. So schlecht wäre eine solche CPU nicht falls die Effizienzkerne das halten was Intel verspricht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GeneralAnal
@ZeroStrat
Was ist ein Mainthread? Wenn es der Erste Thread im Anwendungskontext ist, dann sollte der nicht viel mehr machen als alle Subthreads spawnen und etwas Verwaltungsarbeit leisten. Das wäre eigentlich ganz sinnvoll, wenn das auf einem E-Core läuft. Hauptaufgabe eines solchen Threads wäre sowieso warten. :)
 
Piktogramm schrieb:
@ZeroStrat
Was ist ein Mainthread? Wenn es der Erste Thread im Anwendungskontext ist, dann sollte der nicht viel mehr machen als alle Subthreads spawnen und etwas Verwaltungsarbeit leisten. Das wäre eigentlich ganz sinnvoll, wenn das auf einem E-Core läuft. Hauptaufgabe eines solchen Threads wäre sowieso warten. :)
Ja.. darauf warten das CPU Leistung frei wird für Berechnungen wenn du im CPU Limit hängst..

Im mainthread ist unter anderen verweiltung, Synchronisation der Threads und alles andere was nicht parallel abgearbeitet werden kann
 
@Piktogramm Ich meine Renderthreads mit speicherlastigen Drawcalls. Das ist keine gute Idee und liegt an der Interconnect-Topologie, wie man sich sicher vorstellen kann. Details später im Test.
 
  • Gefällt mir
Reaktionen: Piktogramm
WinnieW2 schrieb:
Also ich halte es für nicht ganz ausgeschlossen dass Intel für die Pentium und Celeron CPU Linie einen eigenen Chip herausbringt welcher überhaupt keine Performance-Kerne sondern nur 8 Effizienzkerne enthält, sowie max. eine iGPU mit max. 32 EU, kein Thunderbolt & Co.
Müsste ein ziemlich kleiner Chip werden, da die Effizenzkerne nicht viel Platz benötigen.
Performancekerne bleiben CPUs mit Core-Branding vorbehalten.
Naja, das wäre ja das was Intel heute mit Pentium und Celeron Silver hat. Nur mehr Kerne.
Es gibt eigentlich keinen Grund warum Intel das auch weiter oben bringen sollte. Hybrid hat nur Vorteile. Ich denke es werden 2+4 oder eher 2+8 werden. Wenn überhaupt was kommt.
 
  • Gefällt mir
Reaktionen: WinnieW2 und xexex
bensen schrieb:
Naja, das wäre ja das was Intel heute mit Pentium und Celeron Silver hat. Nur mehr Kerne.
Intel hat auch schon sowas mit mehr Kernen, nur halt nicht für den Notebookmarkt, weil es hier keinen Sinn macht.
1634506540275.png


Die meisten Applikationen benötigen nun mal 1-2 Kerne, die kleinen Kerne sind dabei eine nette "Beigabe". Für Notebooks ausschließlich mit vielen "kleinen" Kernen müssten grundsätzlich alle Applikationen skalieren können, was so niemals möglich sein wird.

Im Smartphonemarkt sehen wir sogar schon die weitere Evolution von big.LITTLE, mit drei Leistungsstufen.
1634506799171.png

https://en.wikipedia.org/wiki/List_of_Qualcomm_Snapdragon_processors#Snapdragon_888/888+_5G_(2021)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andr_gin
Discovery_1 schrieb:
Die Hauptsache ist, das ich endlich Linux wieder vernünftig nutzen kann. Mit meinen beiden Ryzen-Systemen ist das nämlich schier unmöglich.
Dann würde ich es vielleicht mal ohne OC und xmp Speicher probieren. Hier laufen 3 ZEN Rechner mit Linux, ohne nennenswerte Probleme. Vielleicht mal den Fehler bei der eigenen Nase suchen?
Zumindest der Venegance Speicher hat mir auch einmal Probleme bereitet und ist raus geflogen.
Aber klar, wenn der Bauer nicht schwimmen kann, ist natürlich zuerst die Badehose schuld. Normal :D
 
  • Gefällt mir
Reaktionen: konkretor, AlphaKaninchen und C4rp3di3m
Also so ein Smartphonemurks auf dem Desktop, nein Danke. Gerade wenn ich mal eine Software oder ein Spiel habe was Multicore ausnutzt bin ich doch froh drüber und dann möchte ich auch z.B. 24 mal 4GHz+ anliegen haben und nicht so ein gewurschtel da.

Frage mich auch was das bringen soll z.B. Win11 hat doch massive Probleme die ganzen Kerne bei AMD richtig zu nutzen, wie soll dass dann bei so einem CPU von Intel werden? Sheduler nimmt dann die Low CPU´s oder springt ständig hin und her, wtf.

Im Smartphone werden diese Art SOC/CPU genommen um Strom zu Sparen weil der Akku sonst schnell fertig ist. Mal ehrlich im PC brauch ich so was nicht, endweder hängen alle Kerne im Idle z.B. beim hier Schreiben oder wenn ich Power brauche soll dass Ding abgehen wie eine Rakete. Wenn ich also auf dem Desktop die Wahl habe zwischen Intel und AMD, dann wäre alleine schon wegen dieser Neuerung Intel bei mir raus.
Ich Kaufe ein CPU die meine Anforderungen erfüllen muss und die sind sind bei einem Desktop ganz andere als bei einem Handy.

mfg
 
  • Gefällt mir
Reaktionen: crispychips und iron_monkey
@xexex
Das ist mir schon klar, das Intel Atom CPUs mit mehr Kerne hat. Elkhart lake geht ja bis 24.
Ich sprach ja explizit von Pentium und Celeron.

ARM kann man schlecht mit Intel vergleichen. Die A55 dienen rein für Hintergrund Tasks, sie können alle 4 zusammen nicht mal einen mittleren ersetzen. Die sollen einfach nur möglichst wenig verbrauchen und keinen Platz wegnehmen. Dauerstandby ist eben im Smartphone ein Thema.
A78 und X1 sind wiederum gleiche Architektur, nur etwas aufgebohrt. Liegen aber sehe eng beieinander.
Am ehesten kommt es Apples big.little gleich. Zumindest vom Abstand der Kerne her. Das Ziel ist aber auch hier im Smartphonesegment ein anderes.

Keine Ahnung ob es nochmal eine richtige Dreiteilung geben wird. Ich denke nicht. Bei apple.aind die kleinen sparsam genug, so dass man darunter nichts braucht.
Bei ARM könnte middle und big vielleicht weiter auseinander gehen. Da die kleinen nichts bringen (auch der A510 nicht), müssen ja eh sofort die größeren Ran. Die müssen also maximal effizient sein. Gleichzeitig will man wohl aber auch die Peak Performance erhöhen.

Eigentlich ein selbst verschuldetes Dilemma, weil die Kleinen so schlecht sind.
Ergänzung ()

C4rp3di3m schrieb:
Wenn ich also auf dem Desktop die Wahl habe zwischen Intel und AMD, dann wäre alleine schon wegen dieser Neuerung Intel bei mir raus.
Ich Kaufe ein CPU die meine Anforderungen erfüllen muss und die sind sind bei einem Desktop ganz andere als bei einem Handy.
Deswegen ist das Konzept ja auch ein anderes als bei den Smartphones.
Bei mir ist der raus, der die schlechtere Performance hat bei vergleichbaren Preis und nicht aus irgendwelchen subjektiven Gründen. Warte einfach mal Tests ab.
 
C4rp3di3m schrieb:
Gerade wenn ich mal eine Software oder ein Spiel habe was Multicore ausnutzt bin ich doch froh drüber und dann möchte ich auch z.B. 24 mal 4GHz+ anliegen haben und nicht so ein gewurschtel da.
Wirst du nur nicht bekommen, weder bei AMD noch bei Intel, weil hier das Powerbudget dir einen Strich durch die Rechnung macht. Der R9 5950X hat einen Grundtakt bei 3,4Ghz, da nützt es dir wenig, dass die CPU nur "schnelle" Kerne hat, wenn die niemals alle zusammen mit voller Geschwindigkeit laufen können.

Am Ende ist es irrelevant wie die Leistung zu Stande kommt, entscheidend ist was unterm Strich herauskommt.
 
  • Gefällt mir
Reaktionen: Pjack
ZeroStrat schrieb:
Mainthread auf den E-Cores ist eine ganz schlechte Idee.
Schlechte Idee ja aber nicht unbedingt das Ende der Welt.

Die Big Cores dürften 20% über Rocket Lake liegen, die Little Cores 20% unter Rocket Lake.
Selbst wenn der Mainthread wirklich 50% der Zeit auf einem Little Core läuft (was z.B. bei einem 12900K unter Win11 ja nur der Fall ist wenn auch wirklich durchgehend 16 Threads laufen), dann wird die Performance immer noch ca. auf Rocket Lake Niveau liegen.
Umgekehrt produziert alles über Quad Core Skylake spielbare Frameraten. Von daher halte ich die Angst hier für etwas übertrieben.
 
xexex schrieb:
da nützt es dir wenig, dass die CPU nur "schnelle" Kerne hat, wenn die niemals alle zusammen mit voller Geschwindigkeit laufen können.
So ist es. Die Leistungsdichte ist derzeit der limitierende Faktor. Stattet man die CPU nur mit großen Kernen aus, hat man eine Menge Dark Silicon. Und wenn man alle Kerne runtertaktet, um die Leistungsaufnahme in den Griff zu kriegen, dann sind die schnellen Kerne eben auch nicht mehr so schnell. Insofern machen heterogene Designs wie big.LITTLE schon Sinn. Ist aber natürlich kein Muss, man kann ja bspw. auch jedem Kern individuelle Taktraten und Spannungen verpassen. Dann hat man sicher immer noch mehr Dark Silicon, aber man ist flexibler was verschiedene Workloads anbelangt. In beiden Fällen braucht man aber einen Scheduler, der weiß, wie er die Hardware sinnvoll nutzt.
 
Das war SO was von klar mit den E Kernen, dass man die als dev flaggen muss. Und sie sonst wertlos sind. Was für ein fail, und auch jetzt die Überraschung, es wird Desktop CPUs ohne E Kerne geben. Waia.
 
dernettehans schrieb:
Das war SO was von klar mit den E Kernen, dass man die als dev flaggen muss. Und sie sonst wertlos sind.
Meine Empfehlung dazu, den Text einfach nochmal zu lesen.
Dabei kann vom Entwickler festgelegt werden, was für Anwendungen auf den E-Cores priorisiert laufen sollen. Wird dieses nur rudimentär umgesetzt, verhält sich Alder Lake wie ein normalen Prozessor mit vielen Threads, der hier und da durch das Betriebssystem angeleitet falsche Zuweisungen gibt und Kerne nicht optimal ausgelastet werden
Nichts anderes haben wir auch jetzt schon. "Schlaue" Programme erkennen ob es sich um einen echten oder einen HT Kern handelt und können die Anzahl der Threads begrenzen oder gezielt bestimmte Kerne ansteuern. Die meisten Programme verlassen sich schlichtweg auf den Scheduler und verzichten auf jedwede Optimierung.
https://eli.thegreenplace.net/2016/c11-threads-affinity-and-hyperthreading/
 
Zuletzt bearbeitet:
@xexex Was willst du mir damit jetzt genau sagen, versteh ich nicht so ganz, den Sinn deines Posts. Ändert nichts daran was ich sagte. Es ist eine Holzidee die niemals richtig funktioniern wird. Der Scheduler wird das nie richtig gut lösen könn alleine ohne flags.
 
  • Gefällt mir
Reaktionen: C4rp3di3m
dernettehans schrieb:
Ändert nichts daran was ich sagte. Es ist eine Holzidee die niemals richtig funktioniern wird.
Dann solltest du dich dringend bei Intel bewerben und ihnen das mitteilen. Ich währenddessen schaue mir gerne in ein paar Tagen das Ergebnis an und wie gut es wirklich funktioniert, auch ohne jegliche Optimierungen. Vielleicht sollte AMD auch noch erfahren, bloß nicht den gleichen Fehler wie Intel zu machen und sofort die Entwicklung von Zen 5 einzustellen.
https://www.computerbase.de/2020-08/big-little-cpu-patent-amd/

Vielleicht, aber nur vielleicht, bist aber du mit deiner Meinung auf dem Holzweg. Vielleicht hast du aber schlichtweg nicht verstanden, dass die Programmierer optimieren können es aber keinesfalls müssen.
Since Alder Lake represents a significant change in CPU architecture, you may need to fine-tune applications to take full advantage of both core types. That will be particularly important for multithreading applications with complex job managers, and multiple-use middleware. Elsewhere, the OS Scheduler is optimized to account for Alder Lake’s hybrid architecture, and the impact may be minimal.
https://www.intel.com/content/www/us/en/developer/articles/guide/alder-lake-developer-guide.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pjack, ZeroStrat und Floletni
Nur weil AMD ein Patent anmeldet und mit big.LITTLE experimentiert, muss daraus noch kein Serienprodukt entstehen. Es gibt viele Patente von AMD, die nie in ein Endprodukt mündeten.

In einem Video kürzlich wurde von Robert Hallock bereits angedeutet, dass AMD nicht auf dieses Konzept angewiesen ist, da sie ihre üblichen CPU-Kerne bereits in Relation klein bzw. flächeneffizient Designen.

Ein IPC starker P-Kern gechillt @3,0+ GHz wird immer effizienter sein, sprich mehr Leistung pro Watt erbringen, als ein IPC schwacher E-Kern auf 3,5-4GHz. Auch wenn der P-Kern etwas mehr Fläche benötigt, AMD hatte noch nie ein Problem damit für Produkte geringere Margen/höhere Kosten im Vergleich zur Konkurrenz in Kauf zu nehmen.

Aus Umweltsicht weiß ich auch nicht was besser ist, einmalig etwas mehr Material einsetzen (16 P-Kerne/@142W) oder dauerhaft mehr - u. U. dreckigen & teuren - Strom konsumieren (8+8/@250W) um die gleiche Leistung zu erzielen. Die 8 P-Kerne laufen an der Kotzgrenze um die schwächere Leistung der 8 E-Kerne auszugleichen, um mit den 16 P-Kernen im Sweetspot mithalten zu können. Zudem muss das Netzteil und die Kühlung bei 250 Watt größer dimensioniert werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C4rp3di3m
Summerbreeze schrieb:
Dann würde ich es vielleicht mal ohne OC und xmp Speicher probieren.
Summerbreeze schrieb:
Aber klar, wenn der Bauer nicht schwimmen kann, ist natürlich zuerst die Badehose schuld.
Ich habe die Freezes mit Linux auch, wenn nichts übertaktet ist. Selbst bei meinem Ryzen 2600-System mit Crucial RAM. Ich habe zurzeit gar kein Linux installiert, halt wegen dieser Freezes. Mit einer Intel-CPU konnte ich halt Linux sogar auch mit einem übertakteten System betreiben, mit AMD funktioniert das nicht einmal mit den Standard-Werten, zumindest bei mir.
 
@Discovery_1
Es laufen aber mittlerweile min. hunderttausende bzw. vermutlich Millionen Rechner mit einer Linux Distri. Und nur deine beiden Rechner (bzw so wenige, das es unter dem allgemeinen Radar bleibt) haben Freezes? Finde ich ehrlich gesagt, schon etwas seltsam.

Bei deinen Rechnern ist ja eine GTX 1060 und das Netzteil ein gemeinsamer Nenner. Vielleicht ist das ja ein Ansatzpunkt zur Problem Lösungsfindung?
 
@Summerbreeze
Nein, ich habe keine Lust mehr. Ich werde wieder umziehen. Zumindest mit dem Hauptsystem (vorausgesetzt, das die neuen Intel CPUs und die Bretter nicht zu teuer werden). Das Zweitsystem wird am Abend nur für Netflix und Prime Video genutzt, da ist es mir also egal.
 
Zurück
Oben