Bericht Intel Alder Lake: 19 % höhere IPC, Hardware-Scheduler, DDR5 und mehr

TechFA schrieb:
Ich meine, angenommen, ein Thread muss jetzt AVX-512 abarbeiten, was ja auf den Effizienz-Kernen nicht vorhanden ist. Wird der Thread dann auf AVX2 "herunter gestuft um auf einen E-Kern laufen zu können?!
AVX512 ist auf den Hybrid-CPUs gar nicht verfügbar.
 
  • Gefällt mir
Reaktionen: Slayher666
TechFA schrieb:
Ich meine, angenommen, ein Thread muss jetzt AVX-512 abarbeiten, was ja auf den Effizienz-Kernen nicht vorhanden ist. Wird der Thread dann auf AVX2 "herunter gestuft um auf einen E-Kern laufen zu können?!
Also für den Desktop hat Intel das ganz simpel gelöst: Auch bei den Performance-Kernen wurde AVX-512 gestrichen. Keine Unterschied im Instruction Set, keine Scheduling-Probleme. Bitte gehen Sie weiter, es gibt hier nichts zu sehen!
 
  • Gefällt mir
Reaktionen: Slayher666 und TechFA
Erzherzog schrieb:
Das liest sich so als wäre AMD Marktführer. Der Desktop hat zuletzt sogar Minus gemacht. Intel ist voll ausgelastet und erweitert die Kapazitäten. Nur weil AMD derzeit das schnellste Modell anbietet sagt das nichts über den Gesamtmarkt. Ich finde solche Darstellungen wie du sie hier tätigst also mehr als absurd und genau genommen ist es sogar weltfremd.
"Mann" muss hier aber auch mal differenzieren und vor allen dingen das "unglaubliche" Marktwachstum der letzten 1,5 Jahre berücksichtigen und auch davor ist der Markt trotz gegenteiliger Vermutungen gewachsen.
Seit AMD 2017 mit der ZEN Architektur erschien, haben sie kontinuierlich MArktanteile gewonnen in allen Bereichen, am Anfang besonders im Desktop. Wenn man sich dazu noch die Unternehmenszahlen von AMD anschaut, sieht man richtig wie weit es vorwärts ging, und das aller Meiste davon haben sie halt Intel "abgejagt".
https://www.planet3dnow.de/cms/6301...em-umsatzrekord-von-385-milliarden-us-dollar/
Dieses Jahr wachsen sie nochmal um 60% plus.
Klar kann man jetzt auf den Desktop Markt und sein Minus für ein Quartal abstellen, das wird aber der Realität nicht wirklich gerecht, denn einmal behindern AMD Lieferengpässe und zum anderen ist das Marktwachstum der Art groß, dass das für sie gar nicht mehr bewältigbar war.
Die nackten Zahle sagen aber das AMD, 2017 mit 5,253 Milliarden $ auf ~ 16 Milliarden in 2021 gewachsen ist und der Löwenanteil davon, "kommt von Intel" (eroberte Marktanteile), denn Anfang 2017 hatte AMD so gut wie gar keine Marktanteile mehr und war mit 80% Fremdkapital, faktisch vor der Pleite.
Insoweit hat Intel schon Federn lassen müssen, auch wenn das durch das starke Marktwachstum wesentlich weniger auffällt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA
xexex schrieb:
AVX512 ist auf den Hybrid-CPUs gar nicht verfügbar.
Boah, es ist doch bloß ein hypothetisches Beispiel zur Veranschaulichung! Stell Dich doch bitte nicht so dumm.
Ist das so schwer, eigentlich mal konstruktive Beiträge zu verfassen, oder wird nur um des Prinzips wegen auf Nichtigkeiten rumgeritten? Genauso wie im Thema mit Ponte Vecchio von Dir. -.-

… weiß TechFA
 
TechFA schrieb:
Korrigiert mich, aber bisher war es in der Vergangenheit oftmals eher so, dass die von Intel angekündigten IPC-Steigerungen in aller Praxis kaum zu erreichen waren,
Das Thema hatten wir schon. Die IPC Steigerungen bei Rocket Lake waren z.B. nicht aus der Luft gegriffen:
Volker schrieb:
Es sind 17 Prozent in Anwendungen gewesen von vorher gesagten 19 Prozent.
https://www.computerbase.de/2021-03...hnitt_ipczugewinne_in_anwendungen_und_spielen
Der 11900k mit 8 Cores erreicht in Anwendungen fast die Leistung eines 10900k, der 25% mehr Cores besitzt.
 
TechFA schrieb:
Stell Dich doch bitte nicht so dumm.
Spare dir persönliche Angriffe, wenn du selbst nichts konstruktives zur der Fragestellung beitragen willst. Der Beispiel den du genannt hast ist Blödsinn und dir anscheinend genau bekannt. Wie es im einzelnen funktionieren wird, wir dir hier niemand sagen können, aber vermutlich genauso wie Intels Speed Shift schon seit Jahren. Das System gibt Prioritäten vor, die CPU setzt sie optimiert um, nur das es hier auch einen Feedback in die andere Richtung gibt.
Inside the microcontroller as part of Thread Director, it monitors which instructions are power hungry, such as AVX-VNNI (for machine learning) or other AVX2 commands that often draw high power, and put a big flag on those for the OS for prioritization. It also looks at other threads in the system and if a thread needs to be demoted, either due to not having enough free P-cores or for power/thermal reasons, it will give hints to the OS as to which thread is best to move. Intel states that it can profile a thread in as little as 30 microseconds, whereas a traditional OS scheduler may take 100s of milliseconds to make the same conclusion (or the wrong one).
https://www.anandtech.com/show/16881/a-deep-dive-into-intels-alder-lake-microarchitectures/2
 
  • Gefällt mir
Reaktionen: Slayher666
Nolag schrieb:
Der 11900k mit 8 Cores erreicht in Anwendungen fast die Leistung eines 10900k, der 25% mehr Cores besitzt.
Nein erreicht er nicht!
Wenn er nach Spezifikation rennt genauso wie der 10900k ist er nach dem CB Parcours bei Multicore Anwendungen 16% langsamer!
 
  • Gefällt mir
Reaktionen: Slayher666 und TechFA
DonL_ schrieb:
Wenn er nach Spezifikation rennt genauso wie der 10900k ist er nach dem CB Parcours bei Multicore Anwendungen 16% langsamer!
Nicht ganz. Er ist 12% langsamer (88 zu 100):

Screenshot 2021-08-20 at 19-25-05 Intel Core i9-11900K i5-11600K „Rocket Lake-S“ im Test Bench...png


Zum einen muss man beim 10900K auch nach Spec messen, wenn man das beim 11900K tut. Der 10900K ist dann nicht mehr 16% schneller, sondern nur 13%. Zum anderen muss man für die Aussage "langsamer" die Bezugsgröße umdrehen, und aus +13% werden -12%.

Schlimmer ist eher, dass 10 Kerne einfach nicht drin waren, weil in 14nm offenbar für Intels Margenkalkulation zu groß und außerdem elektrisch nicht sinnvoll.
 
  • Gefällt mir
Reaktionen: Slayher666, Volvo480, cele und eine weitere Person
DonL_ schrieb:
Insoweit hat Intel schon Federn lassen müssen, auch wenn das durch das starke Marktwachstum wesentlich weniger auffällt.
Das ist der springende Punkt. Für AMD ist das natürlich toll wenn der Marktanteil steigt, aber bei Intel ist in der gleichen Zeit der Absatz nicht eingebrochen. Von daher ist das aktuell win - win. Es fehlen sogar Chips. Das AMD natürlich von Zero to Hero (mal wieder) aufgestiegen ist war nicht der Punkt. Es ging mir um seine Aussage das Intel quasi abgehängt sei, aus Marktsicht ist das im direkten Vergleich zu AMD natürlich ein Witz. Auch wenn die Zahlen gut sind, die Unterschiede sind nach wie vor riesig und weit weg von überhaupt auf gleichem Level, geschweige denn das Intel hinten ist.
 
  • Gefällt mir
Reaktionen: TechFA und DonL_
  • Gefällt mir
Reaktionen: Slayher666 und TechFA
Nixdorf schrieb:
Also für den Desktop hat Intel das ganz simpel gelöst: Auch bei den Performance-Kernen wurde AVX-512 gestrichen. Keine Unterschied im Instruction Set, keine Scheduling-Probleme. Bitte gehen Sie weiter, es gibt hier nichts zu sehen!
Bitte häng Dich doch nicht am AVX-512 auf, Nixdorf. Es ging doch ums Prinzip. Ich schrieb doch "angenommen". Dann nimm halt die VNNI-Erweiterungen als Beispiel. War denn nicht klar, das von einem heterogenen Umfeld die Rede war? :)
xexex schrieb:
Spare dir persönliche Angriffe, wenn du selbst nichts konstruktives zur der Fragestellung beitragen willst. Der Beispiel den du genannt hast ist Blödsinn und dir anscheinend genau bekannt.
Was denn bitte für persönliche Angriffe!? Weil ich schrieb, dass Du so tust, als wenn Du nicht wüsstest, worum es geht, obwohl ich explizit nach dem Hintergrund des Schedulers in einem heterogenen Umfeld sprach?

Es ging um die prinzipielle Arbeitsweise des Schedulers, das Prinzip wie der Intel Thread Director arbeitet.
Stattdessen reisst Du mal wieder irgendwelche Dinge aus dem Zusammenhang, um Dich daran unnötigerweise aufzuhängen. Und das ist leider für Dich typisch, xexex! Selbst mit @Holt konnte man konstruktiver diskutieren! :/

… weiß TechFA
 
TechFA schrieb:
Es ging doch ums Prinzip.
Mir ging es ebenfalls nicht um AVX-512, sondern darum, dass dies anscheinend Intels Ansatz für derlei Probleme ist. Beim Lakefield-Testballon war es auch so, da wurde sogar das reguläre AVX für den großen Kern deaktiviert, weil es die Tremont-Atom-Kerne nicht konnten.

Ich vermute mal, es bleibt so: Entweder bringt man es den kleinen Kernen bei, oder man lässt Befehle komplett weg. Das könnte sogar zu Effekten führen wo Low-End-SKUs ohne Effizienzkerne (4+0) dann mehr Befehle können. Dass Intel vor derlei auf den ersten Blick sinnfreien Dingen nicht zurückschreckt, weiß man spätestens seit den Pentiums und i3s mit ECC-Support, der bei i5 und i7 nur deswegen fehlte, damit man sie von den Xeons segmentieren konnte.
Ergänzung ()

Nolag schrieb:
Die Rocket Lake Cores sind halt auch ca. 30% größer als die Comet Lake Cores. Das wird wohl zum größten Teil an der AVX512 Einheit liegen.
AVX-512 ist nur ein Puzzlestück unter vielen. Am absoluten Flächenzuwachs dürfte der verdoppelte L2-Cache den größten Einzelanteil haben. Der L1D ist ebenfalls um 50% angewachsen. Für die verbesserte IPC musste garantiert wieder ein gutes Stück an Fläche für eine verbesserte Branch-Prediction geopfert werden. Und ja, am Ende des Tages kostet auch AVX-512 deutlich Fläche, aber sicher nicht alleine den größten Teil.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slayher666, ZeroStrat und TechFA
Nixdorf schrieb:
Meine Aussagen hatten nichts mit Open Source zu tun, sondern mit freiem Zugang zur Plattform. Und die Auswahl am Markt brauche nicht ich, sondern die braucht der Markt. Gibt es die nicht, wird alles nur im Schneckentempo besser und kostet nach einer gewissen Zeit trotzdem das Doppelte.
Ok, ich unterscheide nicht hart zwischen Open Source/Freier Zugang zu Software/Hard-
ware. Ist evtl. Definitionssache. Ändert aber nix, gesprochen wird vom gleichen Thema.

Ich brauche weniger Auswahl. Heute ein passendes Gerät zu finden ohne bei Amazon
oder Geizhals 14 Filter zu setzen, ist fast unmöglich. Viel zu hohe Streuung, unterschied-
liche Bezeichnungen für das gleiche Feature bei jedem Hersteller und vor allem jedes
Jahr so viele neue Modelle und die "alten" sind dann out und werden nicht mehr mit
Updates versorgt und müssen irgendwann ausrangiert werden, obwohl sie noch tun.

Ist das die Art von Entwicklung die wir wollen? Jedes Jahr neue, billige bunt zusammen
gewürfelte China Produkte die morgen schon obsolet sind und die bei Defekt wegge-
worfen werden weil die Reparatur in keinem Verhältnis zum Neukauf steht?
Kein Schmerz mit Innovationen, aber so wie das gehandhabt wird, dann lieber etwas
mehr zahlen und etwas langsamer voranschreiten, dafür aber länger das Produkt
nutzen. Weniger Schrott und unterm Strich auf 10 Jahre gesehen doch nicht teurer.
 
borizb schrieb:
und die bei Defekt weggeworfen werden weil die Reparatur in keinem Verhältnis zum Neukauf steht?
Davor schützt aber "weniger Auswahl" nicht. Wenige, standardisierte Geräte werden dann so gebaut wie die M1-Macs: Alles eine einzige Platine. Das Ergebnis ist dann "maintenance-free": If it breaks, it can't be fixed.

Es wäre ja schön, wenn eine sehr begrenzte Zahl von Bauteilen noch wartbar bliebe. Die Realität sieht aber so aus, dass der Hersteller Teile, die sowieso immer gleich sind, zu einer monolithischen Komponente zusammenfasst, um Fertigungskosten zu sparen. Und nope, die Ersparnisse werden nicht an den Käufer durchgereicht.

Die erzwungene Interoperabilität durch viele verschiedene Produkte garantiert erst, dass da überhaupt jemand anderer als ein Vollprofi wie der bekannte Youtuber Louis Rossmann was reparieren kann.

borizb schrieb:
Ist das die Art von Entwicklung die wir wollen?
Nö, aber es sagt auch keiner, dass die Vielfalt dazu führen muss. Hochwertige Produkte vom richtigen Hersteller halten auch weiterhin länger. Meinen Monitor habe ich zum Beispiel seit 2007, und der liefert noch immer ein Bild wie am ersten Tag.
 
Volker schrieb:
Ein Skylake-Kern benötigt 2,5 1,66 Mal soviel Energie Leistung, um die Leistung eines neuen Gracemont-Kerns bereitzustellen.

Die Prozentangaben sind additiv (subtraktiv) gemeint.
Nimmt man an, daß der Startwert der Pfeile bei 100% Power und bei 100% Performance beginnt,
so zeigen die Pfeile auf die Koordinate (100%-40% Power, 100%+40% Performance),
der Zielpunkt der Pfeilspitzen ist also (Power=60%, Performance=140%).

Um von Power=60% auf Power=100% zurückzukommen, braucht man 100%/60% = 1,66 an 'Power'.
Mit 'Power' ist hier die elektrische Leistung in Watt gemeint.

2021-08-21 09_20_53-Intel Alder Lake im technischen Detail - ComputerBase 40 Prozent Folie 33.png
 
Nach dem Thread-Director kommt noch der CPU-Director in die H/W gegossen.
Der macht dann aus Multicore+Multithread CPUs für das OS sichtbar genau 1 CPU.
Man jagt dann die Kommandos wie schon in den 70ern an die CPU und braucht sich um nichts mehr kümmern.
Intelligente Compiler übernehmen das alles alleine und der Programmierer kann sich endlich mal um das Wesentliche kümmern.
Vorrausgesetzt natürlich eine Sprache die es ermöglicht den Spaghetticode auch lesen zu können.
Bei C und Konsorten ist das ja eh nicht der Fall ^^
 
bellencb schrieb:
Die Prozentangaben sind additiv (subtraktiv) gemeint.
Das mag für die Pfeilrichtungen stimmen, aber die Beschriftungen beziehen sich dennoch auf +40% Performance oder wahlweise "nur noch 40% Power" (also -60%). Das geht aus den Anmerkungen auf der Website unmissverständlich hervor:
If we compare our Efficient-core to a single Skylake core for a single logical process, we deliver 40% more performance at the same power.
und
If we compare our Efficient-core to a single Skylake core for a single logical process, we deliver the same performance while consuming less than 40% of the power.

Alternatively, a Skylake core would consume 2.5X more power to achieve the same performance as our Efficient-core.
Die Angabe "2,5x" kommt direkt von Intel. Ich hätte es auch besser gefunden, wenn das "+40%" und "-60%" dran gestanden hätte.


Der Hinweis zu Energie vs Leistung ist hingegen richtig.
 
  • Gefällt mir
Reaktionen: bensen und bellencb
Weyoun schrieb:
Ob Microsoft irgendwann auch Win 10 dahingehend updatet, dass die Kerne wie von Intel vorgegeben mit Tasks belegt werden? Dies auf Dauer nur für Win 11 zu bieten, fände ich nicht so toll, wenn man Win 10 noch ein paar Jahre weiternutzen will.
Nein, Win11 ist ja das neue Build (22xxx?!?!? ansta 19xxxx...) plus Namens änderung und damit ohnehin nur ein Featureupdate. So wie immer schon. Windows 2000 war im grunde auch nur ein nt5.0 und win xp dann nt6.0.... wen ich das richtig in erinnerung habe.

Also so wie ich das verstanden habe, ist win11 nichts anderes als ein neuer win10 build aber mit Namensänderung. Aber korrigiert mich gerne wen das eine Fehleinschätzung ist. Aber vermutlich ändert sihc für den Konsumenten nichts außer der Namen und halt bestimmte Features wie die hier genannten. ALso Win11 ist quasi ein "nur" ein Featureupdate. Alte Builds bekommen soweit ich weiß in der Regel nur noch Service und Sicherheitsupdates. Und mit den umstieg, hat man ja auch Zeit. Den 21h1 solle ja noch bis 12-22 unterstützt werden. Man hat also für den Umstieg auf win11 noch über ein Jahr Zeit.


Bei Enterprise sieht das vielleicht anders aus. Da würde das vielleicht auch Sinn ergeben. Aber da kenne ich mich zuwenig aus.
https://docs.microsoft.com/de-de/windows/release-health/release-information
 
Zuletzt bearbeitet:
TechFA schrieb:
Bitte häng Dich doch nicht am AVX-512 auf, Nixdorf. Es ging doch ums Prinzip. Ich schrieb doch "angenommen". Dann nimm halt die VNNI-Erweiterungen als Beispiel.
VINNI wird z.B. ebenfalls von Gracemont unterstützt.
Golden Cove und Gracemont haben genau das selbe Feature Set und dazu gibt es dann noch Co Prozessoren, die aber nicht Teil der Kerne selbst sind.

Interessant ist auch der Compute Fabric interconnect von Alder Lake. Da wäre es interessant mehr drüber zu erfahren.
 
  • Gefällt mir
Reaktionen: Slayher666
Zurück
Oben