News Alder Lake: Unzählige Varianten von Intels big.LITTLE-Prozessor gesichtet

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
15.626

eRacoon

Commander
Dabei seit
Aug. 2007
Beiträge
2.968
Bin echt gespannt was das an Stromersparnis für mobile Geräte bringt.
Könnte seit Jahren endlich mal wieder eine echte neue Idee in den x86 Markt bringen.
Auch wenn die Funktionsweise bei ARM natürlich schon Alltag ist.
 

ghecko

Fleet Admiral
Dabei seit
Juli 2008
Beiträge
10.160
Intel setzt scheinbar alles auf Alder Lake. Zumindest was Mobile und (Entry/OEM)Desktop betrifft. Ob Renoir dran schuld ist?

Wie dem auch sei, ich bin gespannt wie die modernen Betriebssysteme mit big.LITTLE zurechtkommen. Vielleicht wird es bei Windows wieder so ein Debakel wie bei TR? big.LITTE sieht eigentlich keinen gemeinsamen Betrieb eines Paares vor, das wäre bei MC-Anwendungen allerdings schade. Dann läge bei Volllast ein Teil des Prozessors brach. Aber vllt kann man big.LITTLE wie HT deaktivieren und hat dann zwei 8-Kerner?
We will see.
 

just_fre@kin

Commodore
Dabei seit
Jan. 2010
Beiträge
4.289
Ein spannendes Konzept, muss ich mir das vorstellen wie im ARM-Bereich? Da gibts ja auch mehrere hochgetaktete leistungsstarke Kerne im Cluster für anspruchsvolle Aufgaben und dann nochmal ein Stromsparcluster, wenn man nur wenig Leistung benötigt? Und wie ist das in Windows 10 umgesetzt? unterstützt das OS dieses „Feature“ überhaupt?
 

yummycandy

Captain
Dabei seit
März 2005
Beiträge
4.089

ghecko

Fleet Admiral
Dabei seit
Juli 2008
Beiträge
10.160
Irgendwo muss man ja anfangen Strom zu sparen :D
Und warum auch nicht? 8 Kerne mit integrierter Grafik reicht vielen. Renoir ist auch schon verkauft bevor er vom Band läuft, so groß ist die Nachfrage.
 

w0nd4bra

Commander
Dabei seit
März 2008
Beiträge
2.343
Bei Ryzen z.B. werden bei Teillast auch die schnellsten Kerne zuerst gefahren.
Daran musste ich auch denken. AMD wird einfach nachziehen, wenn es denn bei Intel läuft, vorher denke ich weniger.

Mobile ergibt das alles ja auch Sinn, aber was soll ich mit 8+2 aufm Desktop? Die ganzen Stromsparmodi werden doch von den anderen Komponenten wieder aufgefressen?
Wie meinst du das? Ne Grafikkarte verbraucht aufm Desktop nix mehr.
 

Askat86

Lt. Junior Grade
Dabei seit
Dez. 2011
Beiträge
352
Die ganzen Stromsparmodi werden doch von den anderen Komponenten wieder aufgefressen?
Kommt sehr darauf an, wo dein Schwerpunkt liegt. Moderne Grafikkarten kommen teilweise auf einen sehr geringen Verbrauch, gerade wenn man als Gelegenheitsspieler zB eine GTX 1650ti einsetzt.

Dann nur eine 1 TB SSD dazu und du hast ein gerät, das im Idle/browsen auf das komplette system gesehen vielleicht auf 25-35w kommt. Und office Rechner ohne dedizierte Grafikkarte könnten das noch unterbieten. Gerade in großen Büros kann das den Stromverbrauch stark verringern, wenn da 30 Kisten stehen. Pro Stunde 300-600 Watt sind sicher drin.
 

Enigma

Captain
Dabei seit
Apr. 2004
Beiträge
3.282
Typischer Sales-Dominierter Launch. Hier werden mal gefühlt alle technisch möglichen Varianten auf den Markt geworfen. Das macht doch wenig Sinn. Schaut euch Apple an, die machens genau umgekehrt - aus gutem Grund: Auf lange Sicht ist man besser dran.
 

Steini1990

Captain
Dabei seit
Okt. 2011
Beiträge
3.935
Ich bin da noch immer sehr skeptisch was den Nutzen für den PC betrifft. Da erwarte ich eigentlich ziemliche Priorisierungsprobleme der einzelnen Tasks. Gerade bei Windows erwarte ich da Probleme. Es gibt ja auch genug Anwendungen die mit HT/SMT Probleme haben. Das wird da mit unterschiedlich schnellen Kernen nicht anders sein.
 

eRacoon

Commander
Dabei seit
Aug. 2007
Beiträge
2.968

Shoryuken94

Vice Admiral
Dabei seit
Feb. 2012
Beiträge
6.430
big.LITTE sieht eigentlich keinen gemeinsamen Betrieb eines Paares vor, das wäre bei MC-Anwendungen allerdings schade. Dann läge bei Volllast ein Teil des Prozessors brach. Aber vllt kann man big.LITTLE wie HT deaktivieren und hat dann zwei 8-Kerner?
Im ARM Bereich können beide Cluster (gibt auch ARM CPUs mit 3 Clustern) seit Jahren ohne Probleme gleichzeitig arbeiten. Diese Einschränkung gab es nur bei den CPUs der ersten big.LITTLE Generation. Alle ARM CPUs der letzten jahre können gleichzeitig alle Cluster auslasten und in Multicore Anwendungen ausreizen.

Wie es Intel löst, wissen wir nicht. Würde mich aber stark wundern, wenn es da anders ist.
Hier werden mal gefühlt alle technisch möglichen Varianten auf den Markt geworfen. Das macht doch wenig Sinn. Schaut euch Apple an, die machens genau umgekehrt - aus gutem Grund: Auf lange Sicht ist man besser dran.
Wie möchte man Apple und Intel denn in dem Punkt vergleichen? Apple baut eigene hardware und kauft ggf. Komponenten nach Wahl zu. Intel ist eben Anbieter genau solcher Komponenten. Aus dem breiten Spektrum können dann Hersteller von Endgeräten auswählen, was Sie möchten. Diese Aufteilung erlaubt Intel sehr flexibel auf Kundenanforderungen einzugehen und auch mehr Spielraum bei der Preisgestaltung.

Die Produktvielfalt ist bei Intel nicht mit vielen Mehrkosten verbunden, da man ausgehend vom großen Ausbau einfach nach unten skalieren kann. Wenn man andere Anbieter wie Intel vergleicht, dann fahren die auch genau diese Strategie. Man sollte schon Unternehmen im selben bereich vergleichen.
 

Enigma

Captain
Dabei seit
Apr. 2004
Beiträge
3.282
man bietet hier eine sehr breite Palette an damit Hersteller wie Apple sich genau das passende raus suchen können
Das ging mir auch durch den Kopf. Aber es macht keinen Sinn ;-) Folgender Gedankengang: 8x8x1 oder 8x6x1 oder 6x8x1. Em Ende werden alle die gleiche TDP haben (müssen). Folglich sind alle bis auf kleine, einstellige Prozentpunkte gleich schnell und vermutlich nahezu gleich effizient.

Auf der anderen Seite: Hast du Bock dich mit einer Technik zu beschäftigen, bei der du zwischen einem 8x6x1 oder einem 6x8x1 Design wählen müsst? Hast du als Entwickler bock das zu programmieren oder zu optimieren?

Edit: Apple wurde am Anfang verspottet. Ich hab Apple gehasst und mich jahrelang dagegen gewehrt, bis mein Chef mir ein iPhone gegeben hat, nach dem Motto: Nimm, fresse halten. Heute kaufe ich meiner Mutter ohne Wimpernzucken ein iPhone, weil jemand zwei Schritte weitergedacht hat und am Ende ein sinnvolles Produkt rauskommt. Das vermisse ich hier, weil die Produkte NICHT sinnvoll sind, wenn man mehrere Aspekte zusammenlegt.
 

LamaMitHut

Lieutenant
Dabei seit
Nov. 2013
Beiträge
823

C.J.

Lieutenant
Dabei seit
Juni 2006
Beiträge
513
Ich sehe da keine Probleme.

Grundsätzlich ist das mit so wenigen Kernen nicht schwer zu lösen.
Sobald Last ansteht, immer zuerst die dicken auslasten.

Bei Ryzen z.B. werden bei Teillast auch die schnellsten Kerne zuerst gefahren.
Ne, bei big+little ist das komplizierter. Im Desktop kann man es so machen wie du sagst, weil da nur max. Leistung zählt und Verbrauch egal ist. Da kann man die kleinen Kerne als MT-Boost verwenden. In Notebooks hast du aber einen Tradeoff zwischen Leistung und Effizienz. Wenn da einfach immer die dicken Kerne zuerst rechnen und die kleinen schlafen, hast du unterm Strich gegenüber jetzt vermutlich nichts gewonnen, weil die kleinen Kerne dann nie arbeiten. Es muss pro Anwendung/Prozess entschieden werden, ob dieser jetzt latenzkritisch ist und schnell abgearbeitet sein muss (z.B. User-Eingaben) oder ob man den auf die kleinen effizienten Kerne schieben kann, weil es egal ist, ob das ein bisschen länger dauert (Hintergrundtasks, Video-Konvertierung).

Typischer Sales-Dominierter Launch. Hier werden mal gefühlt alle technisch möglichen Varianten auf den Markt geworfen. Das macht doch wenig Sinn. Schaut euch Apple an, die machens genau umgekehrt - aus gutem Grund: Auf lange Sicht ist man besser dran.
Daran musste ich auch denken. 8+8 macht ja vielleicht noch irgendwo Sinn, wobei das vermutlich 16 große Kerne von AMD nicht reichen wird. Aber dieses Kleinklein mit 2, 4 und 6 kleinen Kernen ist albern.
 

BxBender

Lt. Junior Grade
Dabei seit
Juli 2019
Beiträge
327
Alderlake wird das schlimmste Produkt, was Intel jemals fabriziert hat.
Ein totel undurchsichtiger Dschungel an möglichen Konstellationen, wo niemand beim Kauf sagen kann,w as man da jetzt überhaupt bekommt, und welche Leistung man wann und wo abrufen kann.
Wozu braucht man so viel Blödsinn überhaupt?
Mit 5 oder 6 Chips kann man doch eigentlich alle Käuferschichten abdecken.
Meinetwegen 3 Performance-Stufen, dazu 3 besonders stromsparende Chips, fertig.
Ist ja fast so, als würde man Smartphones demnächst nicht mehr nur in 3 Farben, sondern gleich auch noch in je 5 Unterfarben kaufen können. "Ja, ne, Schatz, da sist mir jetzt ein wenig zu sehr Rot, versuch mal das Kaminrot..."?
Und für den Desktop ist das zum Glück(?) so oder so keine Technologie.
Wenn da nur Platz für 16 Kerne ist, will man natürlich 16 mal die volle Power, und nicht so einen halben Kram, der im Idle Modus dann nur halb so viel Strom braucht, aber in Spielen und Anwendungen sowas von am A... ist, da reichen vernünftige Stromsparmechanismen also doch völlig aus.
Da sehe ich insgesamt also Schwarz bei Intel, das will ich mir nicht antun.
Dann bleibe ich jetzt einfach bei AMD, da kann ich auch gut damit leben, dass ich bei Mobilprozessoren und Desktop-APU's eine Nummer abziehen muss.
 

Syrato

Lt. Commander
Dabei seit
Juni 2012
Beiträge
1.588
Ich freu mich auf neue Ideen, aber ich hab bei Intel angst, das sie viel zu viele Varianten rausbringen können, 6+2,7+1, 6+1+1, 5+1+2 usw. usf.
 

Botcruscher

Commander
Dabei seit
Aug. 2005
Beiträge
3.022
Windows.
Wird ja heute schon in den Tests mit mehr Kernen direkt eingestampft.
Ne Grafikkarte verbraucht aufm Desktop nix mehr.
Nutzt dir nichts wenn die Stromversorgung total überdimensioniert ist. 15 bis 500W Realverbrauch lassen sich nicht vernünftig erzeugen. Dafür wären komplett neue Ansätze bei der Stromversorgung nötig. Für 10W+- X brechen sich die Hersteller aber keinen ab.
 
Zuletzt bearbeitet:

pipip

Fleet Admiral
Dabei seit
Jan. 2011
Beiträge
10.645
Es werden bestimmt drei Chips sein.

1) 8 Big 8 Small und Gt1
2) 6 Big 8 Small und GT2 für Notebooks
3) 2 Big 8 Small für low power.

Man sollt dabei bedenken, dass 4 Small Cores so groß ist wie ein Big.
Deshalb idt der dritte Chip sinnvoll. Effektiv so groß wie ein quadcore Big

@BxBender
Ja bin auch gespannt, wie das vermarktet wird. Bei ARM sagt man oft, Octa Core. Am Ende sind es aber dann 4 kleibere, 3 Perfirmance und an "Champion" Core.
Unter Volllast lassen sich dann alle Cores nutzen.
Aber man sieht schon wie schwer es AMD mit Bulldozer hatte. Die hatten verloren, weil der Kunde eine andere Vorstellung von 8 Cores auf der Verpackung haben. Wenn die das nicht ordentlich vermarkten, angeben, sehe ich in Amerika schon eine Anzeige.
 
Top