News Intel Alder-Lake-CPU: Im Notebook mit 15 bis 215 Watt Powerlimit unterwegs

Also das mit der Zeit hab ich doch nun schon dargelegt: die kürzt sich raus. Also macht es jetzt nicht viel Sinn mit der Zeit zu argumentieren. Es geht um Operationen / joule.

Sinn kann es z.b. machen, wenn man ein Haufen Grundlast aktiv halten muss, die im Verhältnis zum Mehrverbrauch sehr hoch ist. Auch das ist aber bei modernen Notebooks nicht mehr so, im Gegenteil verbraucht die cpu immer mehr im boost, während die Infrastruktur immer sparsamer wird.

Das Argument mit dauerlast lass ich gelten - hier wird der Unterschied am deutlichsten sein. Trotzdem: Ich wette um 100€, dass ein ansonsten identisches Notebook mit langsam taktender cpu bei gemischter Arbeitslast länger durchhält als einer mit intel ultimon prime PLxxx 5 TW boost.
 
Ich glaube das mit den 215W haben einige falsch verstanden.
Hier noch einmal die Erklärung zu den Limits:

PL1 (z.B. 45W): Das ist die Leistung, die von der CPU im Durchschnitt maximal verbraucht werden dürfen. Darauf muss der Hersteller sein Kühlkonzept auslegen (CPU Kühler aber auch VRM/Netzteil Kühlung)
PL2 (z.B. 115W): Diese Leistung darf von der CPU kurzfristig (z.B. maximal 60 Sekunden) verbraucht werden. Darauf muss das Netzteil ausgelegt werden
PL4 (z.B. 215W): Für einen sehr kurzen Zeitraum von ca. 2ms darf noch mehr verbraucht werden. Das ist die Zeit die die CPU nach einem schnellen Lastwechsel braucht um festzustellen, dass sie den Takt reduzieren muss. Diese 215W sind in der Regel kein Problem, da der Überlastschutz eines Netzteils in der Regel erst nach ca. 20ms anspringt bzw. solche Spikes dann durch Kondensatoren abgefangen werden.
In den meisten Fällen ist PL4 gar nicht limitiert d.h. unter 2ms kann die CPU so viel brauchen wie sie will. Das Feature zur Begrenzung von PL4 dient eher dazu, damit OEMs noch ein bisschen billigere Netzteile/ Kondensatoren etc. verbauen können, die sonst ohne Begrenzung Probleme haben würden.
Nach meinem Verständnis ist PL4 der Verbrauchen, den die CPU hat wenn sie Programmcode mit maximalem Stromverbrauch (z.B. AVX) auf allen Kernen mit dem maximal möglichen Boosttakt ausführt.

PL3 ist noch eine Zwischenstufe zwischen PL2 und PL4, wo die Zeit noch etwas kürzer als 2ms liegt. Dies wird in der Regel jedoch nicht verwendet.
 
  • Gefällt mir
Reaktionen: mkl1
Da werden sich dann wohl einige Aldi-Kunden wundern wenn ihr super-duper 10Kern Laptop kaum schneller ist als ein 4C/8T klassischer.
Hauptsache es stehen wieder große Zahlen auf dem Flyer. :D
Erinnert etwas an diese unsägliche "4 Module oder 8 Kerne" Diskussion bei Bulldozer.
Effizienztechnisch bin ich aber durchaus neugierig was das Big-little so bringt.
Alles was im mobilen Betrieb die Akkulaufzeit verlängert & weniger Abwärme produziert ist eine super Sache. :)
 
Wenn eine CPU durchs schneller sein effizienter sein soll, darf sie bei doppelter Frequenz nur das Doppelte verbrauchen und nicht mehr. Das ist aber heutzutage aber einfach nicht mehr der Fall im Bereich des Boosttaktes, dort werden vielleicht 30% höhere Frequenzen für den doppelten pro Kern Verbrauch gekauft, sprich pro Einheit Arbeit wird 2/1,3=1,53, also 50% mehr Energie verbraucht.
Der einzige Bereich wo moderne CPUs effizienter sind bei schnellerer Bearbeitung als langsamerer ist weit unter den Baseclocks, so ist ein 4700U bei 8W und 1.4GHz konstant bei CB23 deutlich effizienter als ein auf 5W und damit auf 800MHz gezwungener.
Es gibt einen guten Grund weswegen ich letzten Monat nicht ein Telefon mit Snapdragon 888 gekauft habe, sondern eins mit 865, die absurden Verbrauche von ersterem im Alltag sind mir die unspürbaren Vorteile einfach nicht wert
 
gustlegga schrieb:
Da werden sich dann wohl einige Aldi-Kunden wundern wenn ihr super-duper 10Kern Laptop kaum schneller ist als ein 4C/8T klassischer.
Hauptsache es stehen wieder große Zahlen auf dem Flyer. :D
Erinnert etwas an diese unsägliche "4 Module oder 8 Kerne" Diskussion bei Bulldozer.
Effizienztechnisch bin ich aber durchaus neugierig was das Big-little so bringt.
Alles was im mobilen Betrieb die Akkulaufzeit verlängert & weniger Abwärme produziert ist eine super Sache. :)


Fassen wir mal zusammen...

Desktop:

i9 (k) 8+8
i7 (k) 8+4
i5 (k) 6+4

Der Zehnkerner ADL-S ist ein i5 mit 6C+4C. Kannst du mir mal erklären, wieso ein 6C+4C mit neuer Architektur und verbesserter Fertigung kaum schneller sein soll als ein 4C/8T klassischer? Das erscheint mir nicht sehr logisch.

Im Notebook ist nur das U9 und U15 Segment mit exakt 10 Kernen bestückt, darüber hinaus gibt es mindestens 12 Kerne. Hier hätte man 2C+8C (12Threads) gegen TGL-U 4C/8T. Hier sehe ich auch nicht, wie der klassische 4C/8T dagegenhalten soll. 2x Golden Cove sind schneller als 2x Willow Cove, vermutlich deutlich schneller. Dann würden 8x Gracemont gegen 2x Willow antreten. Bei einer Gracemont IPC auf Höhe von mindestens Skylake sehe ich Gracemont viel besser aufgestellt. Hier muss man wissen, dass TGL-U 4C auf 15W PL1 keine hohe Taktraten fahren kann, für ordentliche Taktraten muss es mindestens Richtung 20-25W gehen. TGL-U müsste aber über mehr Takt gehen bei einem 4C Kern Defizit und das drückt wiederum die Effizienz, ich sehe 2C+8C viel besser aufgestellt im U15 Segment.
Ergänzung ()

ork1957 schrieb:
Wenn eine CPU durchs schneller sein effizienter sein soll, darf sie bei doppelter Frequenz nur das Doppelte verbrauchen und nicht mehr. Das ist aber heutzutage aber einfach nicht mehr der Fall im Bereich des Boosttaktes, dort werden vielleicht 30% höhere Frequenzen für den doppelten pro Kern Verbrauch gekauft, sprich pro Einheit Arbeit wird 2/1,3=1,53, also 50% mehr Energie verbraucht.

Kann man auch hier gut sehen: https://www.computerbase.de/forum/t...iency-suite-pes.2031876/page-10#post-25923743

Einmal Basistakt mit durchgehend 2,8 Ghz und einmal mit Boost ST 4,5+ Ghz und MT 3,3 Ghz oder so. Die niedrigere Taktfrequenz ist deutlich effizienter, über 3 Ghz nimmt die Effizienz bei TGL-U deutlich ab, die Mehrperformance steht zu keinem Verhältnis.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: or2k
@mkl1 Ich habe gerade auch Mal nachgetestet wie sich mein 5800X da verhält indem ich einfach den Boost an oder aus habe.
1.27x Performance bei 2.88x Verbrauch, sprich 2.27x Verbrauch bei gleicher Arbeit. Es ist deutlich schlimmer als ich dachte, jetzt bleibt mein 5800X fürs erste ohne Boost :p
 
bensen schrieb:
Warum totes Silizium? Ein kleiner Kern wird vielleicht 50% der Performance eines großen Kerns haben. Warum soll das Tot sein? Solange man genug Threads auslasten kann sind die hilfreich.
Weil die Leistung per Fläche dennoch weiter steigt. Außer natürlich die Kerne brauchen nur die halbe Energie.
Das wäre aber Fantasie, da es Minimalspannung zum Schalten braucht. Wodurch das ganze auch unsinnig wird. Nur über das weniger Cache lässt sich dann Energie sparen, was aber zu Hitfehlern führt, was den Energiebedarf wieder erhöht.
Die meißten Probleme werden mit steigender Core Zahl auch ineffektiver lösbar.

Naja Intel Marketing wird 10(2+8) Core CPUs schon zu verkaufen wissen.

mkl1 schrieb:
Es bringt Leistung bei überschaubaren Flächenaufwand. 2 Gracemont Cluster mit insgesamt 8 Kernen sind so groß wie 2 Golden Cove Kerne.

Hier wären wir dann also bei 4x mehr Kernen, solange die nicht nur 1/4 der Energie verbrauchen, wird mehr Energie aufgenommen und freigesetzt.
Man kann also davon ausgehen das diese nur sehr genügsam takten und nur der Fantasie-Intel-Turbo in PL2 von 228W kurz alles Boosten lässt, bis sich alles quasi "Notabschaltet".

Da gibt es noch viele andere Designkuriositäten, wenn man etwas sucht.

letztendlich zeigt Alder Lakes Unsinnigkeit im Bsp. Desktop Segment sich dadurch, das Sapphire Rapids eben ohne BIG.little Ansatz kommt. Die kommen Mitte 2022 und von denen erwarte ich das da mehr kommt.

Notebook oder Desktop CPUs sind keine Handys, bei dem der SOC nur max 5W verbraucht und den Akku superschnell leersaugt.

Und ums mal ganz deutlich zu sagen:
Probleme die mit steigender Core Anzahl ineffektiver zu lösen sind, werden mit mehr als 4 little Kernen nicht sinnig angehbar sein. Denn diese 4 verbrauchen dennoch mehr Energie als 1 großer Kern der flächenidentisch sein soll. Meine Glaskugel sagt, das das alles ein Luftschloss ist.
 
Neodar schrieb:
Im Desktop macht Alder Lake schlicht keinen Sinn. Die Stromsparmechanismen der CPUs sind bereits so gut entwickelt, dass man auch auf einer klassischen CPU ohne "Effizienzkerne" nur wenig Verbrauch verzeichnet, wenn man nur leichte Aufgaben erledigt.
Schön wär's, ist aber leider nicht so. Oder mein 6700k ist zu alt für sowas.
Der Rechner zieht 30 Watt zusätzlich aus der Wand (Messgerät ist dran) nur weil ich den Mauszeiger im Kreis bewege.
CPU boosted völlig unnötig bis ans Limit.

Wenn sich der Energieverbrauch im Desktop senken lässt ohne andere Nachteile dafür, verstehe ich nicht warum das eine schlechte Sache dein soll. Spart paar Euro im Jahr, was sich bei vielen Millionen Nutzern schon läppert. Auch zwecks Umwelt.
 
Draco Nobilis schrieb:
Weil die Leistung per Fläche dennoch weiter steigt.


Meinst du jetzt Leistungsaufnahme per Fläche? Was hat das mit totes Silizium zu tun?

Draco Nobilis schrieb:
Man kann also davon ausgehen das diese nur sehr genügsam takten und nur der Fantasie-Intel-Turbo in PL2 von 228W kurz alles Boosten lässt, bis sich alles quasi "Notabschaltet".

Das ist kein Argument, weil RKL-S einen noch höheren PL2 von 251W hat. Die 8 Gracemont Kerne takten übrigens im 12900K mit 3.7-3.9 Ghz.

Draco Nobilis schrieb:
Hier wären wir dann also bei 4x mehr Kernen, solange die nicht nur 1/4 der Energie verbrauchen, wird mehr Energie aufgenommen und freigesetzt.

Das kommt doch auf die Leistung mit drauf an, oder noch genauer auf die performance/watt.

Draco Nobilis schrieb:
letztendlich zeigt Alder Lakes Unsinnigkeit im Bsp. Desktop Segment sich dadurch, das Sapphire Rapids eben ohne BIG.little Ansatz kommt. Die kommen Mitte 2022 und von denen erwarte ich das da mehr kommt.

Ob sich das als Unsinn rausstellt, werden erst Tests zeigen.
 
mkl1 schrieb:
Meinst du jetzt Leistungsaufnahme per Fläche? Was hat das mit totes Silizium zu tun?
Das diese .little Kerne den durschnittlichen Verbrauch senken sollen, nicht steigern.
Damit das möglich ist, müssten diese, auf der selben Fläche nur ein Viertel der Energie in Wärme umwandeln. Damit diese nur ein Viertel der Energie verbrauchen, muss man sehr Fantasievoll werden. Das beachtet aber kaum wer. Das heißt das die 4 kleinen zwar im Sweetspot laufen, aber dennoch keine Wunderdinge bewirken können.

Dieses Sweetspot der 4 Kerne mit kleinen Cache (schlechtere Hitrate) muss man jetzt in Performance per Watt aber gegen das Amdahlsche Gesetz richten. Und da wird also mit 4-8 kleinen etc. Kernen nicht allzuviel zu holen sein.
Das Energiesparen der CPUs ist ja nicht erst gestern erfunden wurden. Im 15W Markt sehe ich da Potential, aber nirgendwo sonst. Wenn der Akku dann ausgehend von 18h 1-3h länger hält oder die Leistung um 10% steigt, wars das auch schon. Der Rest kommt von der verbesserten Fertigung.

Das wird vermutlich wie Intels Ultrabook Bezeichnung enden. Man nahm die Leistungssteigerung und Schwupdizität der SSDs und gibt Sie als Leistungssteigerung der Intel CPUs aus. Das war damals ein genialer Schachzug.
 
Draco Nobilis schrieb:
Das diese .little Kerne den durschnittlichen Verbrauch senken sollen, nicht steigern.


Der durchschnittle Verbrauch soll doch in etwa gleich bleiben (PL1+PL2). Wenn dann muss man hier von Leistung pro Watt sprechen.


Draco Nobilis schrieb:
Damit das möglich ist, müssten diese, auf der selben Fläche nur ein Viertel der Energie in Wärme umwandeln.

Müssen sie nicht. 4x Gracemont Kerne entsprechen 1x Golden Cove Kern wenn man der Intel Folie vertrauen kann. 4 Gracemont Kerne müssen mindestens die Leistung von einem Golden Cove Kern erreichen. Würden sie das nicht erreichen, wäre es in der Tat recht sinnlos auf die Fläche bezogen. Leistung pro mm² ist die bessere Metrik, die solltest du verwenden. Schauen wir uns das mal genauer an mit Cinebench R20 und der bekannten Raichu Formel. Zur besseren Veranschaulichung gehe ich von der gleichen Taktfrequenz aus. Die Golden Cove Kerne takten zwar deutlich höher, doch nimmt die Effizienz stark ab.

Golden Cove
162x1.275x8*3700= 6113/8=764

Gracemont
115x0.95+8+3700= 3233/2= 1616

4 Gracemont Kerne wären bei gleicher Taktfrequenz in etwas doppelt so schnell wie 1 Golden Cove Kern. Würden die 4 Gracemont Kerne jetzt gleichzeitig doppelt so viel verbrauchen bei doppelt so viel Leistung, wäre der Nutzen nicht vorhanden. Dann würde ich dir zustimmen. Das kann man jetzt aber nicht wissen.
 
mkl1 schrieb:
Müssen sie nicht. 4x Gracemont Kerne entsprechen 1x Golden Cove Kern wenn man der Intel Folie vertrauen kann.
Die sind sicherlich theoretisch doppelt so schnell, nur werden Sie auch 1,8x Strom fressen.
Woher soll die Zauberei kommen? Wieso wohl ist PL2 so spezifiziert? Werden alle Intel CPUs einfach so aus Spass doppelt so effizient?
Wenn überhaupt, dann kommt der Hauptteil aus Fertigung, nicht aus den BIG.little Kram.

mkl1 schrieb:
Ist genau das Beispiel indem Parallelisierbarkeit noch was bringt.

mkl1 schrieb:
wenn man der Intel Folie vertrauen kann
Seit x Jahren kann man nicht einer einzigen Intel Folie vertrauen. Bisher konnte man immer davon ausgehen das die Aussage einer Intel Folie in Realität genau andersherum endete. So ziemlich jeder Reviewer und eigentlich alle Fachmenschen wissen um die absolute Peinlichkeit der Folien, welche auch regelmäßig Rands bei Youtubern erzeugen.

mkl1 schrieb:
Dann würde ich dir zustimmen. Das kann man jetzt aber nicht wissen.
Sage ich ja, meine Glaskugel ist der Meinung.
Du könntest natürlich auch Recht haben. spricht halt aus meiner Sicht viel dagegen.

Bisher konnte mir keiner erklären, wie 4 Kerne auf selber Fläche eines Kerns plötzlich bei doppelter Leistung auch mit Sweetspot nicht einfach durchbrennen. Die bekommen dennoch nur den Strom den auf selber Fläche der eine Kern bekäme. Das heißt das laut der Intel Fantasie plötzlich alles doppelt so effizient wird wenn man 4 .little im Sweetspot laufen lässt. Die behauptete Effizienzsteigerung von 100% ist einfach Quark. Auch Intel Folien zeigen das nicht mehr. Ist ja nicht so, als ob die BIG Kerne nicht auch im Sweetspot laufen wenn die Temperaturlimits erreicht werden.

Währenddessen ist AMD/TSMC in 7nm Fertigung (2019!) effizienter, obwohl man Daten bis ins absurde auf dem "Interposer" energiefressend herumschiebt und das mit gigantischen Caches kompensiert. Bei gleichzeitig kleineren Chiplet DIEs.
 
Draco Nobilis schrieb:
Die sind sicherlich theoretisch doppelt so schnell, nur werden Sie auch 1,8x Strom fressen.
Woher soll die Zauberei kommen? Wieso wohl ist PL2 so spezifiziert? Werden alle Intel CPUs einfach so aus Spass doppelt so effizient?
Wenn überhaupt, dann kommt der Hauptteil aus Fertigung, nicht aus den BIG.little Kram.


Hier muss man wissen, dass Golden Cove und Gracemont zwei komplette unterschiedliche Architekturen sind. Hier muss man abwarten. Des Weiteren sind mehr Kerne mit weniger Takt generell effizienter als weniger Kerne mit mehr Takt. Intel kann auf der gleichen Fläche viel mehr Kerne unterbringen. Schau dir doch mal das MT Effizienzranking von hier an, warum wohl sind die 12C und 16C von Zen3 mit großem Abstand am effizientesten? Schon alleine daraus ergibt sich ein großer Effizienzvorteil.

Draco Nobilis schrieb:
Seit x Jahren kann man nicht einer einzigen Intel Folie vertrauen.

Es hat immerhin mehr Substanz als viele deine Beiträge.

Draco Nobilis schrieb:
Die behauptete Effizienzsteigerung von 100% ist einfach Quark. Auch Intel Folien zeigen das nicht mehr. Ist ja nicht so, als ob die BIG Kerne nicht auch im Sweetspot laufen wenn die Temperaturlimits erreicht werden.


Der 12900K soll ja auf über 11k Punkte im Cinebench R20 kommen bei einer verringerten PL2, RKL-S macht kaum über 6k Punkte. Eine doppelte Effizienz ist alles andere als unrealistisch.


Draco Nobilis schrieb:
Währenddessen ist AMD/TSMC in 7nm Fertigung (2019!) effizienter, obwohl man Daten bis ins absurde auf dem "Interposer" energiefressend herumschiebt und das mit gigantischen Caches kompensiert. Bei gleichzeitig kleineren Chiplet DIEs.

TSMC 7nm ist effizienter als Intel 10SF, das stimmt. Intel wird erst mit 10ESF/7 gleichziehen.
 
mkl1 schrieb:
Effizienzranking von hier an, warum wohl sind die 12C und 16C von Zen3 mit großem Abstand am effizientesten? Schon alleine daraus ergibt sich ein großer Effizienzvorteil.
Weil AMD 5xxx einfach mal ne höhere IPC (around 20%) bei identischen Strombverbrauch und viel wichtiger, beinahe identischer Fläche haben? Der 12c ist eine Besonderheit, wegen doppelten Cache vgl. zu 8c. Aber mit etwa 30-50% mehr Effizienz könnte man AMD auch endlich mal überholen...

mkl1 schrieb:
Der 12900K soll ja auf über 11k Punkte im Cinebench R20 kommen
Hab das Wort mal dick gemacht. Das ist es was mich an Intel stört.

mkl1 schrieb:
TSMC 7nm ist effizienter als Intel 10SF, das stimmt. Intel wird erst mit 10ESF/7 gleichziehen.
Ah da kommt also plötzlich die ganze Intel-Effizienz her, nicht das BIG.little, sondern der bessere Prozess macht den Unterscied, das hab ich ja geschrieben. Aber wir werden ja sehen. Intel hat die ganzen letzten Jahre enttäuscht. Was nicht zuletzt an deren verkorsten internen 2 Klassen Gesellschaft etc. liegt.

Das Problem Intels hat System. Und das liegt nicht an der Technik sondern am Management, mal sehen ob die das endlich mit den ganzen durchwechseln hinbekommen haben.

Wir werden uns gegenseitig nicht überzeugen können, muss man aber auch nicht. Am Ende ist es relativ egal, da Intel ohne die neue Fertigung und meinetwegen BIG.little ja nicht mal aktuelle AMD CPUs einholen kann. Da AMD in 2 Jahren auch BIG.little bringt, falls das vielversprechend wird, kann man sich ja eh zurücklehnen. Für Die 15W Klasse und stark überhypte M1 Konkurrenz kann man es ja mal versuchen. Wir als Kunden können nicht verlieren, solange Max Mustermann nicht nur auf Kernzahlen only schaut (mir wird jetzt schon schlecht-.-).
 
Draco Nobilis schrieb:
Weil AMD 5xxx einfach mal ne höhere IPC (around 20%) bei identischen Strombverbrauch und viel wichtiger, beinahe identischer Fläche haben? Der 12c ist eine Besonderheit, wegen doppelten Cache vgl. zu 8c. Aber mit etwa 30-50% mehr Effizienz könnte man AMD auch endlich mal überholen...


Ich rede nur von Zen 3. Die Modelle mit mehr Kernen sind deutlich im Vorteil. Auch der riesige Effizienzvorsprung vom 16C zum 12C sollte auffallen. Alternativ kannst du auch Tigerlake nehmen. 8C Tigerlake gegen 4C Tigerlake, die Effizienz vom 8C Tigerlake ist massiv besser bei voller Auslastung. Wie gesagt, schon alleine daraus ergibt sich potenziell ein großer Effizienzvorteil (4C Gracemont vs 1C Golden Cove oder 8C Gracemont vs 2C Golden Cove)
 
Ein paar Beispiele für den Fall das PL4 genutzt werden soll/kann wären auch hilfreich um etwas Sinn in die Diskussion zu bringen. Wenn die Intel Folien stimmen, kann dieser Burst Mode wirklich nur für ein paar Millisekunden angelegt werden. In welchen Programmen würde das bemerkbar sein, und ist das für irgendwelche Benchmarks relevant? Letztere Frage v.a., weil ja immer gleich das "ist ja nur relevant für Benchmarks" folgt. Ist das denn so?
 
Draco Nobilis schrieb:
Außer natürlich die Kerne brauchen nur die halbe Energie.
Das wäre aber Fantasie, da es Minimalspannung zum Schalten braucht.

Selbst auf der höchsten High VT Stufe (zumal Intel hier vielleicht sogar auf eine Kombi aus Long LE und HVT geht), welche man auf solchen Chips unterbringt ist man da bei den Desktop Ausführungen weit von entfernt. Das Problem hat man gerne mal im 15W TDP abwärts Segment (Tiger Lake U hat bei um die 7W schon einen sehr niedrigen Overdrive). Hier spendiert Intel wohl auch nur 2 große Kerne um dies im Zaun zu halten.

Wenn die Atom Kerne halbwegs nahe am Effizienzoptimum laufen dürfte das schon realistisch sein.
Das werden wir dann wohl sehen.
 
eastcoast_pete schrieb:
Ein paar Beispiele für den Fall das PL4 genutzt werden soll/kann wären auch hilfreich um etwas Sinn in die Diskussion zu bringen.
Könnte mir vorstellen, dass das in der Interruptbearbeitung hilfreich sein könnte um geringe Latenzen zu realisieren. Ob das in nem Desktopsystem so wahnsinnig hilfreich ist?
Gamer? Mausantworten? oder so was?
 
Für den Stromverbrauch sind nur PL1 und PL2 relevant. Woanders habe ich gelesen, dass PL3 oder PL4 auf Retail Boards meistens gar nicht aktiviert sind, sondern oft nur bei billigeren OEM Boards, um billige Netzteile verbauen zu können. Damit sollen Lastspitzen begrenzt werden.

Eine weitere Erklärung von tekdeeps.com

PL4 targets mainly laptops and more compact systems, where it is to prevent CPU consumption from exceeding the capabilities of power circuits.

PL3 und PL4 sind laut datasheet standardmäßig deaktiviert, in den allermeisten Fälle werden PL3 oder PL4 erst gar nicht zum Einsatz kommen.

1. Implementation of Intel® Turbo Boost Technology 2.0 only requires configuring
PL1, PL1 Tau and PL2.
2. PL3 and PL4 are disabled by default

Und selbst wenn PL4 aktiv ist, kann das Limit ganz anders aussehen, siehe Chromebook reference Board von ADL-P. Das PL4 Limit liegt deutlich unter Intels Standardvorgabe. Der PL4 ist für uns uninteressant, wenn müsste man das im Einzelfall bewerten.
 
Weiß man ob Alder Lake schon thunderbolt 5 unterstützt, oder erst der Nachfolger?
 
Zurück
Oben