News Alder Lake: Unzählige Varianten von Intels big.LITTLE-Prozessor gesichtet

Bin schon sehr gespannt auf Alder Lake, da ich mir, insbesondere im Desktop, irgendwie einfach nicht vorstellen kann, dass es so einen großen Unterschied macht. Und im Desktop gibt es halt bei den Nutzern meist andere Prioritäten als jedes kleine Watt zu sparen. Bevor ich 8+8 nehme um 4 Watt zu sparen nehm ich doch lieber 16 dicke Kerne für mehr Leistung!
Im Notebook sieht das natürlich wieder ganz anders aus, da ist Ausdauer einer der wichtigsten Faktoren bei der Anschaffung für mich, wenn das Konzept dort funktioniert und merkbare Unterschiede in der Akkulaufzeit bringt, dann wäre das eine sehr feine Sache.

Aber bis da tatsächlich Produkte kommen, dürfte noch viel Silizium belichtet werden, was wird derzeit angenommen, 2022? 10nm?
 
  • Gefällt mir
Reaktionen: cookie_dent
@stevefrogs
Die Frage nach Preis/Leistung. Immerhin bekommst du 16 "Cores" auf die Fläche von 10 Cores. Sprich weniger Fläche. Die Frage ist, inwieweit man SMT schlägt und schneller als 10 oder langsamer im Vergleich zu 16 Big Cores ist und das in Anwendung und Produktiv Einsatz. Gaming wird es vermutluch weniger ubterschied machen.
 
  • Gefällt mir
Reaktionen: bad_sign
Ich denke für Notebooks wird das eine Tolle CPU werden.
Beim Desktop denke ich wird das Gegenteil der Fall sein, kleine Office Rechner ausgenommen.
 
Hm für gaming Laptops sollte das doch interessant sein oder? Ich meine, dass es doch nach wie vor so ist, dass 1 Kern die Hauptlast trägt und der Rest in kleineren happen verteilt wird. So könnten doch die kleinen effizienten Kerne eben diese Lasten abfedern und 1-2 starke Kerne die Hauptlast tragen um maximale Leistung bei maximaler Effizienz zu liefern. Oder sehe ich das falsch?
 
LamaMitHut schrieb:
Stell dir diese APUs einfach mal auf Zen 3 Basis vor, das könnte (wenn das Wörtchen wenn nicht wär...) AMD schon morgen anbieten.

Da bräuchte man nicht mal ein Little.Big Prinzip.

Du kannst auch eine Titan RTX auf 10 Watt limitieren, trotzdem hat Nvidia dann noch keine ultra effiziente Notebook GPU.

Der Ansatz ist ja ein völlig anderer bei big.Little. Du hast dort verschiedene Architekturen mit verschiedenen Auslegungen. Ein Zen kern bleibt von seiner Effizienz und Auslegung ein Zenkern. Ob du ihm jetzt mit 6,15 oder 200 Watt betreibst ändert nichts an den Möglichkeiten der Architektur. Alternative chips zu diesen 6 Watt ryzens hat Intel schon seit Jahren. Sind die Core Y modelle. Aber auch die brauchen den selben Platz auf dem Chip und haben die gleichen Möglichkeiten. Mit einer angepassten low Power Architektur kann man aber deutlich mehr aus dem Transistorbudget rausholen.

BxBender schrieb:
Mit 5 oder 6 Chips kann man doch eigentlich alle Käuferschichten abdecken.
Meinetwegen 3 Performance-Stufen, dazu 3 besonders stromsparende Chips, fertig.

Klar kann man das, ist aber nicht im Sinne der Hersteller ;) Es gibt einen einfachen Grund, warum Nvidia Karten mit 10% Abstand rausbringen. Die meisten kunden geben dabei mehr Geld für das "höherwertige Produkt aus". Klar braucht das keiner, ist aber ein einfacher weg der Preissteigerung und der Gewinnmaximierung. Zudem hat man als anbieter dadurch mehr Handlungsspielraum beim Preis für OEM abnehmer.

BxBender schrieb:
Ist ja fast so, als würde man Smartphones demnächst nicht mehr nur in 3 Farben, sondern gleich auch noch in je 5 Unterfarben kaufen können. "Ja, ne, Schatz, da sist mir jetzt ein wenig zu sehr Rot, versuch mal das Kaminrot..."?

Ist bei Smartphones noch viel schlimmer! Da werden Teils 1 zu 1 die gleichen geräte gebaut, die sich in 1-2 teilen unterscheiden und einen ähnlichen preis kosten. Genau aus diesem grund. Xiaomi war hier mal ganz groß und ist es in China noch immer. Samsung ist da auch nicht von schlechten eltern.
 
@Schokolade Wie der Scheduler im einzelnen arbeiten wird, ist noch nicht bekannt. Scheinbar wollen sie aber einen Teil direkt auf der CPU regeln, damit der ganze Stromsparkram automatisch funktioniert. (alles Gerüchte)
 
Sind das dann eigtl. Monolithen, oder macht Intel jetzt auch in Chiplets?
 
stevefrogs schrieb:
Bevor ich 8+8 nehme um 4 Watt zu sparen nehm ich doch lieber 16 dicke Kerne für mehr Leistung!


Strom ist immer eine begrenzte Ressource, auch im Desktop. Genauso auch Chipfläche. Nehmen wir mal an, beide Varianten schlucken 150W und sind gleich groß. Dann kann man davon ausgehen, dass die High Performance Kerne der 8+8 Variante deutlich mehr Single Core Leistung haben, weil sie im Verhältnis mehr Strom schlucken dürfen, größer sind und weil man 8 Kerne mit weniger Aufwand binnen kann als 16. Acht sehr schnelle Hochfrequenzkerne (:daumen:) mit acht langsameren Kernen für Hintergrundaufgaben und die paar Apps, die extremes Multithreading unterstützen. Da könnte ich mir als Laie durchaus einen Performancesprung in vielen Anwendungen und Games vorstellen.
 
Zuletzt bearbeitet:
Die Vergleiche mit Apple haben was von:
Der Schraubenhersteller macht das total falsch mit seinen ganzen verschiedenen Schrauben im Sortiment.
Mein Schrankhersteller nutzt für meinen Schrank genau eine Art von Schraube. So macht man das!

Gerade beim ersten Launch dieser Technik könnte es sinnvoll sein dem Markt eine breite Basis zu bieten um dem Kunden die Wahl zu lassen. Die Varianten die nicht abgenommen werden können dann für die nächste Generation einfach gestrichen werden.
Kann natürlich auch nach hinten los gehen wenn keiner mehr durch blickt, aber die Hauptabnehmer sind eh OEMs und da sollte das eigentlich egal sein.

Ich frag mich aber auch ob das im Desktopbereich wirklich sinn ergibt, moderne CPUs schalten ungenutzte Kerne eh komplett ab bzw. takten sie runter. Das Einsparungspotenzial dürfte sich daher bei Desktops in Grenzen halten.

Edit: @tidus1979 auch bei den 16 Kernen können dann 8 runtergetaktet werden um Hintergrundtasks abzuarbeiten und die anderen 8 werden automatisch übertaktet bis das Thermal/Voltage/Current/was auch immer Limit erreicht ist.
Die kleinen Kerne sind zwar in ihrem Bereich um längen effizienter als die großen, dafür opfert man aber die Möglichkeit im Bedarfsfall doch vollgas zu geben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Enigma
tidus1979 schrieb:
Nehmen wir mal an, beide Varianten schlucken 150W. Dann kann man davon ausgehen, dass die High Performance Kerne der 8+8 Variante deutlich mehr Single Core Leistung haben, weil sie im Verhältnis mehr Strom schlucken dürfen und weil man 8 Kerne mit weniger Aufwand binnen kann als 16.
Das stimmt soweit innerhalb der CPU. Extern aber nur solange, wie die besagten "dicken" Cores schneller als die der Konkurrenz sind. Denn im Multicore wird dieser Stromsparprozessor immer langsamer sein, als andere CPUs mit gleicher Kernanzahl.
 
  • Gefällt mir
Reaktionen: DonL_ und PS828
Weils hier immer wieder um den Stromverbrauch geht. Mein 3900x mit 3 m.2 ssds, 4 ssds, 2HDD, 9 120&140er Lüfter, Vega 64 und Wakü verbraucht im Idle gerade mal 75 Watt. Und wenn ich Spiele sind mir 30Watt mehr oder weniger völlig egal.

Also aus Stromspar Gründen finde ich so eine CPU im Desktop völligen Nonsens..
 
yummycandy schrieb:
Das stimmt soweit innerhalb der CPU. Extern aber nur solange, wie die besagten "dicken" Cores schneller als die der Konkurrenz sind.

Richtig, das müssen sie dann schon leisten. Aber man schafft sich innerhalb der CPU Puffer, um das hinzukriegen.

yummycandy schrieb:
Denn im Multicore wird dieser Stromsparprozessor immer langsamer sein, als andere CPUs mit gleicher Kernanzahl.

Auch nur da, wo eine App alle Kerne zu 100% auslastet. Wann passiert das denn schon mal? Selbst Apps mit Multicoreoptimierung verteilen einen Großteil der Last doch oft auf ein paar Kerne und der Rest macht nur Unterstützungsarbeit. Die paar Spezialfälle, die wirklich 100% alles auslasten, Videoexport, Encoding und so etwas, könnte man auch effizient mit Fixed Function Chips abarbeiten. Wird ja heute schon teilweise gemacht. Ich glaube, das wird sich in Zukunft noch weiter verbreiten, auch Apple geht ja erfolgreich diesen Weg.
 
Zuletzt bearbeitet:
Also kommt echt drauf an. Wenn die kleinen CPUs schneller als simulierte Kerne sind dann könnte das schon was gutes sein. Wenn man z. B dann bei der vollast z. B bei Anwendung videoumwanslung die kleinen und großen gleichzeitig verwenden kann. Dann dürfte das doch schneller sein als ein 8 Kerner mit smt oder irre ich mich denn da?
Soweit ich gelesen habe, entsprechen die kleinen Kerne 60 % der Leistung eines großen kernes. Also nicht schlechter als ein 8 kener mit smt. Also ich sehe da keine Bedenken. Viel mehr ne Verbesserung der gesammt Leistung. Bin gespannt ob man die kleinen bei vollast echt mit einbinden kann oder nicht. Dann sehe ich da ne gute Zukunft. Also halt ein Ersatz für smt. Also ich sehe da noch alles offen. Also alles ist gut.l,nur Geduld haben ist angesagt.
 
Maxxx800 schrieb:
Weils hier immer wieder um den Stromverbrauch geht. Mein 3900x mit 3 m.2 ssds, 4 ssds, 2HDD, 9 120&140er Lüfter, Vega 64 und Wakü verbraucht im Idle gerade mal 75 Watt. Und wenn ich Spiele sind mir 30Watt mehr oder weniger völlig egal.

Und warum verbraucht sie beim Spielen so wenig und nicht die maximale Leistungsaufnahme? Weil das Spiel offensichtlich nicht alle Cores zu 100% auslastet. Mit big.LITTLE könnten genau die Cores, die ausgelastet werden, mehr Chipfläche und mehr Leistungsaufnahme spendiert bekommen und somit könnte das Game schneller laufen.
 
tidus1979 schrieb:
Die paar Spezialfälle, die wirklich 100% alles auslasten, Videoexport, Encoding und so etwas, könnte man auch effizient mit Fixed Function Chips abarbeiten. Wird ja heute schon teilweise gemacht. Ich glaube, das wird sich in Zukunft noch weiter verbreiten, auch Apple geht ja erfolgreich diesen Weg.
Interessant noch nie was davon gehört oder gelesen. Erzähl mir doch mehr über die Fixed Function Chips. Was sind das denn für Einheiten bei der CPU oder ist das etwa nen extra CPU chip den man sich so kaufen kann?

Und was würde denn passieren bei dem little big Prinzip wenn man 2 x die selbe Anwendung startet und so dann sogar nen 16 Kerner mit seinen vollen Kernen mehr in Richtung 100 % geht. Kann dann die zweite software dann auf die 8 kleinen Kerne drauf zugreifen oder geht dann etwa alles nur auf die big cores und die kleinen schlafen munter weiter?
 
latiose88 schrieb:
Interessant noch nie was davon gehört oder gelesen. Erzähl mir doch mehr über die Fixed Function Chips. Was sind das denn für Einheiten bei der CPU oder ist das etwa nen extra CPU chip den man sich so kaufen kann?

Muss ja nicht zwangsläufig innerhalb der CPU sein. Beispiele sind Quick Sync von Intel, CUDA von Nvidia, der T2 Chip von Apple oder die MPX Module im Mac Pro (speziell Afterburner). Gut vorstellbar, dass man Fixed Function Module zukünftig auch für PCs kaufen kann.

latiose88 schrieb:
Und was würde denn passieren bei dem little big Prinzip wenn man 2 x die selbe Anwendung startet und so dann sogar nen 16 Kerner mit seinen vollen Kernen mehr in Richtung 100 % geht. Kann dann die zweite software dann auf die 8 kleinen Kerne drauf zugreifen oder geht dann etwa alles nur auf die big cores und die kleinen schlafen munter weiter?

Keine Ahnung, muss der Scheduler regeln. Alle Kerne gleichzeitig zu benutzen ist aber prinzipiell kein Problem, können ja die ARM Chips aktuell auch.
 
Vielleicht gibt es ja auch bei Windows mal was anderes🤔🤔 was gut dazupasseen würde.
 
ghecko schrieb:
Intel setzt scheinbar alles auf Alder Lake. Zumindest was Mobile und (Entry/OEM)Desktop betrifft. Ob Renoir dran schuld ist?

Naja, da Tiger Lake ja erst im Fruehjahr 2021 in der interessanteren H Version (mit bis zu 8 Kernen und HT) kommen soll, duerfte kurz danach Cezanne eingefuehrt werden und AMD wieder leistungsmaessig dort dominieren (denn ich gehe davon aus, dass man die Grafikeinheit aehnlich wie bei Intel Xe auch mehr mit Shadern aufbrezeln wird, zumal Cezanne ja wegen Zen3 auch noch effizienter als die Renoir APUs werden duerfte).

Renoir ist wirklich eingeschlagen wie eine Bombe (auch im Vergleich zum Picasso APU Vorgaenger basierend auf der deutlich schwaecheren Zen+ Architektur), Dank Zen2 Technik und gutem Einfuehrungspreis.

Ob Cezanne nicht deutlich im Preis steigen wird (oder man einfach auf mehr Marktanteil bei AMD vordergruendig aus ist, denn dort haben sie insbesondere wegen der Renoir APUs massiv an Intels Marktanteil geknabbert und das wird sich fortsetzen auch durch die spaete Einfuehrung aller Tiger Lake Prozessoren), wird man wohl abwarten muessen.

Alder Lake und Foveros werden dann wohl hinhalten muessen bis fruehstens mit Meteor Lake in 2022 Intel evt. wieder Anschluss schaffen kann, je nach dem was sie aus 10nm heraus holen koennen (da man die Node urspruenglich eigentlich nicht grossartig ausschlachten wollte, ist zu bezweifeln, dass man aehnlich wie mit der eigenen, ultraoptimierten 14nm Fertigung ohne Nodenfortschritt trotzdem technisch noch relativ lange mithalten wird koennen mit der in niedriger Node fertigenden Konkurrenz/AMD).

Vielleicht entwickelt sich die naechsten Core-Architekturen und Foveros zum Vorteil fuer Intel gegenueber AMD, so dass man den Fertigungsrueckstand in den kommenden Jahren damit ein wenig kompensieren wird koennen.

Die gross aufgestellte Eigenfertigung ist aber auch Intels rettender Vorteil aktuell, weil TSMC die Last einfach alleine nicht wird stemmen koennen ebenso wie Samsung die Kapazitaeten nicht hat und somit die Fabriken von Intel weiterhin auch ausgelastet werden duerften.

Hoffentlich wird von TSMC da in den kommenden Jahren noch kraeftig weiter investiert und die Kapazitaeten weiter ausgebaut (ein High-End Fertigungs-Standort in Europa (nahe ASML bspw.) waere nett, aber momentan gibt es wohl Druck auf dem chinesischen Festland ebenso einen solchen zu bauen, wie man so liest), so dass es zukuenftig nicht zu grossen Engpaessen und damit ueberproportionalen Preiserhoehungen (weil man fertigungstechnisch mit dem Vorsprung bei TSMC vor der Konkurrenz quasi konkurrenzlos werden koennte) kommen wird.
 
w0nd4bra schrieb:
Wie meinst du das? Ne Grafikkarte verbraucht aufm Desktop nix mehr.
Bitte? Meine 1080Ti genügt sich im Idle 18W. Läuft der Browser mit HW Beschleunig sind es 66W. Ist mein 60Hz und 120 Hz Monitor beides an einer Karte angestöpselt, so geht sie nicht in den Emergiesparmods > 70W Idle.
 
Zurück
Oben