News Intel Alder-Lake-CPU: Im Notebook mit 15 bis 215 Watt Powerlimit unterwegs

Neodar schrieb:
Im Desktop macht Alder Lake schlicht keinen Sinn. Die Stromsparmechanismen der CPUs sind bereits so gut entwickelt, dass man auch auf einer klassischen CPU ohne "Effizienzkerne" nur wenig Verbrauch verzeichnet, wenn man nur leichte Aufgaben erledigt.
Woher weißt du das?
 
Hm also die PL4 hören sich vielleicht nach höheren Anforderungen für die Hauptplatine / Kondensatoren und Leitungen an.

Kann weiterhin nicht sehen wieso Alderlake viel besser mit BIG.little fahren soll, selbst im Notebookbereich.
Es wird wohl eher vermarktetes totes Silizium sein, damit die BIG cores länger boosten können und um der Hitze pro Fläche Problematik Einhalt zu gebieten.
Siehe bsp. hier intels sehr alte Folie dazu:
https://www.anandtech.com/show/15877/intel-hybrid-cpu-lakefield-all-you-need-to-know
(klein wenig scrollen, Deep Links sind einfach unhöflich, daher sorum)
 
gaelic schrieb:
Woher weißt du das?
Das stimmt schon... mit Powergating werden sich die Kerne beim Nichtstun wenig schenken. Das ist sicherlich nicht die Motivation hinter dem bL Prinzip
 
Majestro1337 schrieb:
Lieber startet meine Applikation auf dem Notebook in 4 statt 2 Sekunden und ich hab dafür nur 35 statt 50 mWh verbraucht. Der Sinn von "immer schneller" erschließt sich mir nicht ganz...

Das ist ja der Witz die CPU verbraucht dann halt statt 35 W eben 50 W, aber nur für eine kurze Zeit,
ist schneller fertig, schläft schneller wieder und brauch für die ganze Aufgabe weniger Strom.
Bei 4 VS 2 Sekunden wie in deinem Beispiel haben wir komplett wenn nicht geboostet wird
140 Ws und wenn geboostet wird 100 Ws gebraucht, also für die Ganze Operation waren
wir mit Boost sparsamer und schneller.
 
  • Gefällt mir
Reaktionen: Mac_Leod und Zarlak
Ned Flanders schrieb:
Das stimmt schon... mit Powergating werden sich die Kerne beim Nichtstun wenig schenken. Das ist sicherlich nicht die Motivation hinter dem bL Prinzip
So ganz stimmt das ja nicht. Cores, die auf hohe Taktraten optimiert sind, werden auch trotz Powergating bei geringer Last noch deutlich höhere Leckströme aufweisen als entsprechend auf geringen Takt optimierte Cores.

Kleine Cores mit dickeren Isolationsschichten (und entsprechend niedrigerem Maximaltakt) könnten somit potentiell in Niedriglastszenarien (also pdf lesen, surfen, mails checken, ...) schon deutlich Strom sparen.

AMD scheint das Konzept bei Ryzen 6000 Zen 5 ja ebenfalls einführen zu wollen.

Ich bin in jedem Fall sehr gespannt, ob das Konzept aufgeht und wir längere Laufzeiten bekommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gaelic
@jusaca AMD wird es wohl bei Zen 5 angehen, Ryzen 6000, also Zen 3D ist wird einfach Zen 3 mit mehr Cache (Vertikal gestapelt) sein
 
  • Gefällt mir
Reaktionen: jusaca
Draco Nobilis schrieb:
Hm also die PL4 hören sich vielleicht nach höheren Anforderungen für die Hauptplatine / Kondensatoren und Leitungen an.

Kann weiterhin nicht sehen wieso Alderlake viel besser mit BIG.little fahren soll, selbst im Notebookbereich.
Es wird wohl eher vermarktetes totes Silizium sein, damit die BIG cores länger boosten können und um der Hitze pro Fläche Problematik Einhalt zu gebieten.
Siehe bsp. hier intels sehr alte Folie dazu:
https://www.anandtech.com/show/15877/intel-hybrid-cpu-lakefield-all-you-need-to-know
(klein wenig scrollen, Deep Links sind einfach unhöflich, daher sorum)


Es bringt Leistung bei überschaubaren Flächenaufwand. 2 Gracemont Cluster mit insgesamt 8 Kernen sind so groß wie 2 Golden Cove Kerne.
 
  • Gefällt mir
Reaktionen: bensen
gaelic schrieb:
Warum soll es im mobilen Bereich Sinn machen und plötzlich beim Desktop nicht?
Weil eine 14nm Intel Desktop CPU im Idle vieleicht noch 5-10W zieht. Wenn man das per bL auf 1-6W drücken kann, kräht da nach den Wanderverlusten doch kein Hahn mehr nach.

Das ist nice to have, aber wohl kaum die Motivation sowas aufzulegen. Bei mobilen Endgeräten ist das was anderes.
 
Enigma schrieb:
Ja das ist echt übel. Also kauft euch kein Latitude 7400! Das Kühlkonzept ist ein Desaster.
Anhang anzeigen 1091828

So sieht es während eines einfachen Teams-Calls aus: 100 Grad und Thermal-Thotteling sobald ich im Browser klicke. Treiber gestern auf den neuesten Stand gezogen.

auf meinem Dell 5490 Arbeitslaptop führt ein Teams Call und ein paar Programme offen auch unweigerlich zur Kernschmelze. Ich habe keine Daten aber das Gerät wird sehr heiß, Windows sehr unresponsive und es war im Hochsommer im Home Office einfach nur eine Katastrophe. Ich denke Teams haut hier ordentlich sustained load auf die cpu/igp und da haben alte wie auch neuere Intel CPUs ordentlich mit zu kämpfen.

Da hilft der 3 nanosekunden Boost-Pups nicht.
 
Ned Flanders schrieb:
... Wenn man das per bL auf 1-6W drücken kann, kräht da nach den Wanderverlusten doch kein Hahn mehr nach.
Also stimmt es nicht, daß es kein Einsparungspotential gibt ... dir ist es nur egal. Danke.

Und zu den Wandlerverlusten, bzw. Gesamtsystemverbräuchen gibt es ganz gute Threads hier im Forum:

https://www.computerbase.de/forum/threads/selbstbau-nas-im-10-zoll-rack.1932675/
https://www.computerbase.de/forum/threads/renoir-und-b550-die-idle-kuenstler.1967755/

Gesamtsysteme mit einem Idle Verbrauch unter 10W ... Das noch weiter zu drücken ist eine schöne Sache.
 
modena.ch schrieb:
Das ist ja der Witz die CPU verbraucht dann halt statt 35 W eben 50 W, aber nur für eine kurze Zeit,
ist schneller fertig, schläft schneller wieder und brauch für die ganze Aufgabe weniger Strom.
Bei 4 VS 2 Sekunden wie in deinem Beispiel haben wir komplett wenn nicht geboostet wird
140 Ws und wenn geboostet wird 100 Ws gebraucht, also für die Ganze Operation waren
wir mit Boost sparsamer und schneller.
Das ist Unfug - der sweet spot aus Leistungsaufnahme und Performance ist immer niedriger als bei dem Takt, zu dem das Produkt verkauft wird. Sonst würden die ganzen miner die Grafikkarten nicht untertakten.
Ich weiß dass das die These von Intel ist, dass man so spart, aber es geht nicht auf...
 
  • Gefällt mir
Reaktionen: or2k
Das ist sicher kein Unfung, Verbrauch enthält immer eine Zeiteinheit. KW/h, W/s
Wenn ich kurz mehr brauche und dafür mit derselben Aufgabe deutlich schneller fertig bin, habe ich in dem Fall am Ende Energie gespart. Wir müssen immer schauen, was hat die Aufgabe als Ganzes an Energie gebraucht.

Die Miner untertakten um weniger zu verbrauchen um ihren Gewinn zu maximieren
und weil ihnen die Karten mit hoher Dauerlast bei hohem Verbrauch alle verrecken würden.
Gamerkarten sind für sowas einfach nicht gemacht,
Sie übertakten ja auch den Speicher, weil dort Speicherdurchsatz deutlich mehr bringt.

Ausserdem ist es eine ganz andere Last und somit gar nicht zu vergleichen.
Minen ist eine lang anhaltende Vollast auf allen Kernen oder Shadern,
Browser starten ist eine kurze Singlecore Spitzenlast.
Das sind zwei paar Schuhe.
 
Zuletzt bearbeitet:
Ned Flanders schrieb:
Weil eine 14nm Intel Desktop CPU im Idle vieleicht noch 5-10W zieht. Wenn man das per bL auf 1-6W drücken kann, kräht da nach den Wanderverlusten doch kein Hahn mehr nach.

Das ist nice to have, aber wohl kaum die Motivation sowas aufzulegen. Bei mobilen Endgeräten ist das was anderes.


Es geht nicht nur um irgendwelche Idle Verbräuche, davon müsst ihr euch mal verabschieden. Davon abzuleiten, ob etwas Sinn macht, ist daher auch ein Fehler.
 
  • Gefällt mir
Reaktionen: bensen und gaelic
Verbrauch hin oder her. Wie schon bekannt ist kommen auf 4 Atom-Kerne ein Core-Kern. Intel hat also die Möglichkeit eine hohe Parallelisierung bei trotzdem hoher Single-Threadleistung zu liefern.
 
Volker schrieb:
So viel Fortschritt hat die Fertigung nicht gemacht, größereres Package erlaubt aber auch größere TDP
Aber vielleicht greift cb diesen Sinneswandel ja mal auf und testet nicht nur FPS und Watt, sondern auch mal Effizienz?
Mich interessiert das zumindest brennend.
 
modena.ch schrieb:
Das ist sicher kein Unfung, Verbrauch enthält immer eine Zeiteinheit. KW/h, W/s
kWh
Also kleines k für "kilo" und dann ist es für Energie eine Multiplikation aus Leistung und Zeit.
 
  • Gefällt mir
Reaktionen: jusaca
modena.ch schrieb:
Das ist sicher kein Unfung, Verbrauch enthält immer eine Zeiteinheit. KW/h, W/s

Ne. Schau dir einfach an, was eine beliebige cpu oder gpu, die sich nur durch den Takt (und dabei zb. X fps benötigt) unterscheidet an unterschieden im Verbrauch (der in Watt, also joule pro Sekunde angegeben ist) hat. Die Zeit kürzt sich raus!

Der Verbrauch steigt überproportional mit der Leistung an.
Würde er proportional steigen, dann ist es egal ob ich es schnell oder langsam mache. Würde er entgegengesetzt proportional steigen wäre es sinnvoll die Aufgabe schneller auszuführen.

Das machte damals Sinn, um überhaupt zu bewerben das CPUs herunter takten. Heute wird das hochtakten vor allem mit einer maximal schnellen reaktionszeit begründet. Länger und in Summe mehr arbeiten kann ich aber, wenn ich niedriger takte.
 
Majestro1337 schrieb:
Ne. Schau dir einfach an, was eine beliebige cpu oder gpu, die sich nur durch den Takt (und dabei zb. X fps benötigt) unterscheidet an unterschieden im Verbrauch (der in Watt, also joule pro Sekunde angegeben ist) hat. Die Zeit kürzt sich raus!
Wir wollen ja den Verbrauch für eine gewisse Aufgabe kennen. (wir starten den Browser z.B.)

Und damit müssen wir wissen wie lange man mit jeder Variante dafür braucht. (einmal mit einmal ohne Boost)

Der Verbrauch pro Sekunde ist daher nur die halbe Wahrheit, wenn ich am Ende nur die halbe Zeit für dieselbe
Aufgabe benötige, kann der Verbrauch in der Zeit in der gearbeitet wird ruhig höher sein. Es ist am Ende trotzdem sparsamer.
Also solange es sich lohnt zu boosten und man damit länger idlen kann ist man am Ende für die gleiche Aufgabe schneller und sparsamer. Es ergibt also schon Sinn!

Ich verbrauche ja nicht gleich lange mehr Energie....
 
Majestro1337 schrieb:
Das ist Unfug - der sweet spot aus Leistungsaufnahme und Performance ist immer niedriger als bei dem Takt, zu dem das Produkt verkauft wird. Sonst würden die ganzen miner die Grafikkarten nicht untertakten.
Ich weiß dass das die These von Intel ist, dass man so spart, aber es geht nicht auf...
Der Miner hat keine Idle Phasen, sondern Dauerlast.
Natürlich ist eine höher getaktete CPU ineffizienter. Bei einer Dauerbelastung macht das keinen Sinn.
Race to Idle bezieht sich auf kurze Lasten und kleinere Aufgaben. Da kann es schon Sinn machen kurz zu boosten um dann das ganze System wieder schlafen zu legen, als in einem längeren Zeitraum das ganze System wach zu halten, auch wenn die CPU selber vielleicht mehr verbrät.
Ergänzung ()

Draco Nobilis schrieb:
Es wird wohl eher vermarktetes totes Silizium sein, damit die BIG cores länger boosten können und um der Hitze pro Fläche Problematik Einhalt zu gebieten.
Warum totes Silizium? Ein kleiner Kern wird vielleicht 50% der Performance eines großen Kerns haben. Warum soll das Tot sein? Solange man genug Threads auslasten kann sind die hilfreich.
 
Zurück
Oben