MSI Intel-Mainboards: "CPU Lite Load" erklärt, Geheimtipp zum Stromsparen und für niedrigere Temperaturen

Ich habe seit Jahren nur MSI-Mainboards, daher kann ich nicht genau sagen, ob andere Hersteller eine ähnliche Einstellung haben. Bestimmt geben die auch einen Sicherheitsaufschlag auf die VCore, aber MSI ist fast berüchtigt dafür, recht viel draufzuschlagen bei den Spannnungen. Das sieht man auch, sobald man XMP aktiviert bei einem hohen Speichertakt. MSI gibt dann immer gehörig Saft drauf bei bestimmten Spannungen, damit es auch ja stabil läuft mit allen Speicherriegeln, die es so gibt.
 
I5 11400F - B560 Tomahawk.
Crucial Ballistix 16GB Kit DDR4-3600

Mode1 möchte nicht wegen dem RAM OC. XMP funktioniert nicht.
MODE2 läuft. Im Test unter 100Watt (96 - 98 Watt).
Noctua NH-D14 CPU Lüfter. Temp. 65°
Bin Happy :D
 
  • Gefällt mir
Reaktionen: CiTay
Ich möchte mich erst mal bei CiTay bedanken für diesen genialen Tip.

Ich habe mir nen neuen CPU gegönnt 11600k und war entsetzt das die Kiste im Modus mit Tower Kühler (Mugen 5 mit 2 Lüfter) binnen 2 Sek im Prime 95 mit AVX auf 100° hoch ging.

Dabei trottelte der CPU durchgehend runter von 4600ghz auf 4400ghz.

Der CPU hatte im Originalen Mode 9.

Dann habe ich angefangen mal die einstellungen zu googeln und fand diesen eintrag.

Im Mode 9 hatte ich 100° und einen verbrauch von 220W locker.
Im Mode 2 habe ich 85° und einen verbrauch von 160W. (Prime95 5 Stunden Stabil)

Das sind 15 Grad und 60W weniger verbrauch.

Hätte ich diesen eintrag nicht gefunden wäre der CPU sofort Retour gegangen und hätte mein Board verkauft und wäre auf AMD gewechselt.

Dies konnte ich dank dir mir sparen.

Danke!
 
  • Gefällt mir
Reaktionen: CiTay
Gerne, freut mich sehr, dass ich helfen konnte. Das ist mal echt ein super Resultat!
 
  • Gefällt mir
Reaktionen: toudy2004
i7 9700f msi z390a-pro standardmäßig stand das auf mode 11
lc-power cosmo cool lc-cc-120 tower kühler

bei mode 11: max. 156W - cpu package 82°C
bei mode 5: max. 135W - cpu package 73°C
 
  • Gefällt mir
Reaktionen: CiTay
Danke dir für die Rückmeldung. Die neunte Generation war ja generell noch genügsamer bzw. effizienter, da kann man nicht so Rekord-Einsparungen wie bei Rocket Lake erwarten, aber dennoch ein solides Resultat!
 
@CiTay danke für diesen kleinen Guide. Ich möchte das heute mal mit meinen 11900k testen.
Ich bin gespannt was möglich ist. Kaputt machen kann man ja eigentlich nichts?
 
BloodReaver87 schrieb:
@CiTay danke für diesen kleinen Guide. Ich möchte das heute mal mit meinen 11900k testen.
Ich bin gespannt was möglich ist. Kaputt machen kann man ja eigentlich nichts?

Nee da kann nicht viel passieren. Wenn du vorsichtig sein willst, tastest du dich von oben herab. Also erstmal zwei Stufen unter dem bei dir benutzten Standardwert einstellen, dann mit Linpack Xtreme testen. Und so weiter, bis Linpack "fail" anzeigt, und dann nicht einen, sondern zwei Stufen darüber einstellen. Dann hat man auch im Hochsommer etc. noch Reserven.

Der 11900K ist leider extrem am Limit, Intel sah sich ja genötigt, quasi "einen Stein auszuquetschen". Die Frequenzen und der VCore sind auf einem Level, der dieser Technik eigentlich nicht mehr so recht gefällt. Darum kann es sein, dass du da nicht sonderlich weit runtergehen kannst im Vergleich zu kleineren CPU-Modellen.
 
CiTay schrieb:
Der 11900K ist leider extrem am Limit
Ja das hab ich selber schon gemerkt. 😅
Deshalb hatte ich vorgesorgt und eine 420 Aio installiert. Trotzdem wird die CPU im Gamingbetrieb und offebem Powertarget (watercooling setup) ca. 70°C warm.

Wenn ich die Temperatur durch deinen Guide noch ein wenig reduzieren kann bin ich schon zufrieden.

Melde mich dann mit den Ergebnissen wieder.
 
  • Gefällt mir
Reaktionen: CiTay
Nachtrag:
Zu früh gefreut: 3D-Mark verweigert den Start und führt zu einen Bluescreen. Teste jetzt mal mit CLL3

Bis jetzt läuft alles mit CLL3, was ja immer noch sehr gut ist für einen 11900k :)
Habe jetzt mehrer Benchmark inkl. dem neuen CPU Benchmark sowie Destiny 2 und Metro Exodus enhanced edition angespielt. Soweit so gut. Morgen habe ich dann wieder Zeit und spiele etwas länger Destiny 2.

Hier noch die Werte aus dem Stresstest:

LLC 3.png





So, ich habe mich erfolgreich (bis jetzt) ans testen ran gemacht!

Der Standardwert lag bei mir bei CLL 9.

1 Test mit Linpack Xtreme gemäss deinem Guide durchgeführt:

Die Roten Zahlen sagen ja schon viel :)

(was komisch war das tool, benötigte beim erstem mal bestimmt ca 20min bis der Test fertig war. Aber nur beim 1. mal. Alle anderen waren dann nach ca. 1min durch....)

LLC 9.png



Dann habe ich mich schrittweise nach unten getastet. Gestartet habe ich erfolgreich bei CLL 6, bis ich dann schlussendlich bei CLL 1 angekommen bin. Und was soll ich sagen. Test sicherheitshalber 20x laufen lassen und das Ding lief ohne zu zicken durch! :)

Von CLL 9 auf 1 runter sind die Temperatur um ca 20°C und der Verbrauch ist einfach mal 50Watt niedriger, wahnsinn.

LLC 1_20runs.png


@CiTay vielleicht siehst du ja noch etwas auffälliges? Weil ein wenig verunsichern tut es mich ja schon. Fast zu schön um wahr zu sein. Ich werde mal schauen wie sich das in spielne verhält. Bei GPU's soll man ja auch nicht nur extrem scenarios testen sonder auch Spiele welche weniger Last erzeugen. Oder spielt das bei CPU eher keine Rolle?

Jedenfalls Danke für denn tollen Guide. Ich wäre ja schon mit CLL 6 zufrieden gewesen :)
 
Zuletzt bearbeitet:
BloodReaver87 schrieb:
@CiTay vielleicht siehst du ja noch etwas auffälliges? Weil ein wenig verunsichern tut es mich ja schon. Fast zu schön um wahr zu sein. Ich werde mal schauen wie sich das in spielne verhält. Bei GPU's soll man ja auch nicht nur extrem scenarios testen sonder auch Spiele welche weniger Last erzeugen. Oder spielt das bei CPU eher keine Rolle?

Jedenfalls Danke für denn tollen Guide. Ich wäre ja schon mit CLL 6 zufrieden gewesen :)

CPU Lite Load Mode 3 ist doch mehr als ordentlich. Ehrlich gesagt, mich hätte es auch verwundert, wenn ein 11900K den Mode 1 absolut stabil geschafft hätte, wie ich schon schrieb.

Es gibt keine Nachteile, CPU Lite Load zu verringern, außer potenziell die Stabilität, die man aber mit diversen Tests verifizieren kann. Du verringerst halt nur den pauschalen Spannungsaufschlag, den MSI draufgibt, und passt ihn auf deine individuelle CPU an.

Dies hat - neben den offensichtlichen Vorteilen wie weniger Stromverbrauch, geringere Wärmeentwicklung - auch noch Vorteile bei der Performance. Denn mit unveränderter CPU Lite Load war bei dir schon Package Thermal Throttling aktiv. Das heißt, die CPU hat gemerkt, ihr wird es zu heiß unter der Mütze, und hat zwischenzeitlich die Turbos ein paar Stufen niedriger gefahren.

Mit verringertem CPU Lite Load bist du weit vom Throttling entfernt, somit rennt die CPU besser. Des Weiteren verringert man die Belastung für die Bauteile der CPU-Spannungswandler, d.h. die Kondensatoren halten wahrscheinlich länger. Und übrigens, was du da an weniger Stromverbrauch siehst, ist ja nur die CPU an sich. Der Gesamtstromverbrauch inklusive CPU-Spannungswandler sinkt nochmal um Einiges mehr, denn die Wandlerverluste sind ja in Summe auch noch geringer.


Was mir aber auffällt, du solltest mit deinem RAM runter auf DDR4-3600 gehen. Denn mit DDR4-4000 bist du nicht mehr im 1:1-Betrieb mit dem Speichercontroller, sondern oberhalb DDR4-3600 wird ein Teiler aktiv (Gear2 mode), der alle Latenzen verschlechtert. Der Speichercontroller läuft dann nur noch mit der halben RAM-Frequenz. Ganz unten im Screenshot sieht man es, Gear Mode 2.

Um im Gear2 mode (1:2-Teiler) die selbe Performance zu erreichen wie bei DDR4-3600 im Gear1 mode (1:1-Betrieb), muss man mindestens DDR4-4400 (!) fahren. Das braucht gute Module, gut Mehrspannung, und man muss wissen, was man tut. Und dann hat man erstmal gleichstand mit DDR4-3600 im 1:1-Betrieb. Lohnt sich in Summe nicht mehr wirklich und man bleibt direkt bei DDR4-3600.

Nur mit Intel-CPUs vor der 11. Generation (vor Rocket Lake), also mit dem alten Speichercontroller, lohnt sich noch DDR4-4xxx. Wobei alles, wo eine 4 davorsteht, ist generell schon eine Hausnummer, wo man etwas Ahnung haben muss. Der neue Speichercontroller ist nur bis DDR-3600 gut und schaltet dann (wie bei AMD schon seit über 2 Jahren) einen Teiler dazwischen.

Hier habe ich das Ganze ausführlich auf Englisch erklärt, sowie auch andere RAM-Themen: https://forum-en.msi.com/index.php?...single-vs-dual-rank-stability-testing.363139/
 
  • Gefällt mir
Reaktionen: BloodReaver87 und Klever
CiTay schrieb:
Was mir aber auffällt, du solltest mit deinem RAM runter auf DDR4-3600 gehen. Denn mit DDR4-4000 bist du nicht mehr im 1:1-Betrieb mit dem Speichercontroller, sondern oberhalb DDR4-3600 wird ein Teiler aktiv (Gear2 mode), der alle Latenzen verschlechtert. Der Speichercontroller läuft dann nur noch mit der halben RAM-Frequenz. Ganz unten im Screenshot sieht man es, Gear Mode 2.

Ja ich kenne das. Dummerweise habe ich mir dazumal das 4000er Kit schon bestellt bevor die Tests zu Rocket-Lake draussen waren. Wollte lange Wartezeiten vermeiden infolge der allg. schlechten Verfügbarkeit von Hardware. Vor der Veröffentlichung war ja das mit dem Gear 1 & 2 Modus noch nicht wirklich bekannt.

Ich lasse es aber so wie es ist. Habe beides getestet. Die beiden Einstellungen nehemen sich nicht viel.

3600Mhz:

Ram 3600.png


4000Mhz:

RAM 4000.png



Die nehmen sich nicht viel. Klar die Latenz ist etwas besser bei 3600. Um noch etwas bessere Leistung bei 3600Mhz zu bekommen könnte ich bestimmt die timings noch schärfen, dazu fehlt mir aber der "Mut".

Ich hab mich dazu mal im Igorslab forum informiert. Hier hat der "Skullbringer" mit das relativ plausibel erläutert, dass in meinem Fall sich beide Einstellungen nicht viel nehmen :)

Igorslab Forum post


Gruss
 
BloodReaver87 schrieb:
Die nehmen sich nicht viel. Klar die Latenz ist etwas besser bei 3600. Um noch etwas bessere Leistung bei 3600Mhz zu bekommen könnte ich bestimmt die timings noch schärfen, dazu fehlt mir aber der "Mut".

Ich hab mich dazu mal im Igorslab forum informiert. Hier hat der "Skullbringer" mit das relativ plausibel erläutert, dass in meinem Fall sich beide Einstellungen nicht viel nehmen :)

Ich würde sagen, DDR4-3600 ist schneller.

Schau mal hier, da ist sogar von DDR4-4500 (!) die Rede, dass man erst damit Gleichstand zu DDR4-3600 Gear1 erreicht: https://www.computerbase.de/2021-07...ing_fast_unmoeglich_ram_hingegen_sehr_einfach

Am Besten testet man das mit einem Benchmark, der gut auf die RAM-Performance anspringt. Da hat sich in meinen Tests vor allem WinRAR hervorgetan, das kann man auch mit der unregistrierten Version testen: https://www.computerbase.de/downloads/office/packprogramme/winrar/

Dort einfach ALT-B für Benchmark drücken. Manchmal muss man ihn je nach Hintergrundaktivität nochmal neu starten, er ist relativ empfindlich, wie übrigens AIDA64 auch. Die Latenzen machen meiner Ansicht nach mehr aus als die Bandbreite.

Hier habe ich mal mit meinem G.Skill Trident Z Kit F4-3600C16D-16GTZKW (Samsung B-Die) dokumentiert, was bei mir die einzelnen Timings bringen, und welche Benchmarks gut auf Änderungen am RAM ansprechen: https://www.computerbase.de/forum/t...gen-auf-spiele.1849970/page-187#post-24249765

WinRAR und 7-Zip sind gut für den kurzen Speicherbench zwischendurch geeignet, bei 7-Zip taugt bloß der interne Benchmark nichts, d.h. hier muss man wie im Test reale Dateien (eine Große / viele Kleine) komprimieren, von SSD versteht sich.

AIDA64 Memory, klar, da sieht man alles gut, nur anfällig für Messfehler, je nachdem was gerade im Hintergrund geschieht, von daher nicht jede 100 MB mehr oder weniger auf die Goldwaage legen.

Fast alle Spielebenchmarks zeigen auch gut was Sache ist. Sämtliche Rendering-Benchmarks sind quasi untauglich für RAM-Bench, da fast nur die CPU-Leistung zählt (Blender, Cinebench, Handbrake etc.).


Falls dein Kit Samsung B-Die einsetzt, kann ich dir für DDR4-3600 ein Setting geben, was garantiert besser performt als was du jetzt hast, und quasi risikofrei ist, weil jeder B-Die das hinkriegt. Zudem kann ich dir erklären, wie du das innerhalb ca. einer Stunde per GSAT vollständig auf Stabilität getestet hast.
 
Wenn du es dennoch auf DDR4-4000 belassen willst (was ich wie gesagt als langsamer ansehe, weil der Gear-Modus soviel ausmacht), dann solltest du zumindest die Command Rate auf 1T stellen.

Im Gear2-Modus braucht der (mit dann halber RAM-Frequenz laufende) Speichercontroller nämlich zwei Takte, um ein Kommando anzustoßen. Das bedeutet, Command Rate 1T wird effektiv zu 2T im Gear2 mode. Tja, und wenn man jetzt Command Rate 2T eingestellt hat und der Speichercontroller mit halber Frequenz läuft (Gear2), dann wird daraus CR 4T!

Dies ist katastrophal für die Performance, die Command Rate ist ein sehr wichtiger Parameter. Im Gear1-Modus muss man oft auf CR 2T gehen, um die RAM-Stabilität zu gewährleisten, aber im Gear2-Modus sollte man tunlichst auf CR1T stellen, da daraus eh 2T wird durch den halb so schnell laufenden Speichercontroller.
 
@CiTay das ist richtig. Im Bios ist 1T eingestellt. HFinfo zeigt wohl den "eigentlich" richtigen Wert 2T an - weil ja gear2.

CPU-Z zeigt immer noch 1T an:


1628095491984.png



Ich werd wohl auch in nächster Zeit auf 4000Mhz bleiben obwohl ich natürlich deine Unterstützung gerne annehmen würde. Aber momentan bin ich ganz zufrieden und Zeit ist momentan leider auch nicht viel übrig um sich mal dran zu machen - aber ja interessieren würde es mich halt schon, noch die letzten % rauszukitzeln :)

Das wären meine Module:

https://geizhals.de/g-skill-trident-z-rgb-dimm-kit-32gb-f4-4000c16d-32gtzr-a2377329.html

Gruss
 
Zuletzt bearbeitet:
Na dann ist ja gut, dachte schon das wäre auf 2T im BIOS.

Ja, im Nachhinein betrachtet war dein Kit etwas Geldverschwendung für Rocket Lake im Speziellen, und da du nur XMP-Timings nutzt, auch im Allgemeinen. Dass Rocket Lake beim neuen Speichercontroller diesen Rückschritt macht, war vorher so nicht abzusehen, das stimmt. Dieses Samsung B-Die-Kit hätte es voll getan: https://geizhals.de/g-skill-trident-z-rgb-dimm-kit-32gb-f4-3600c16d-32gtzr-a2152645.html

Allgemein holen sich die meisten Leute Module mit B-Die, weil sie halt die Timings auch optimieren wollen. Denn da gibt es Potential wie sonst nirgendwo. Nutzt man jetzt nur die XMP-Timings, bleibt viel von dem Potenzial liegen. Glatte 16-16-16 bei DDR4-3600 (um obiges Kit als Beispiel zu nennen) sind als XMP-Timings zwar beeindruckend, und viele andere ICs kriegen das nicht hin, weil tRCD und tRP dort nicht auf einem Level mit tCL laufen können. Aber all die Timings, die danach kommen, sind trotz B-Die immer recht konservativ voreingestellt im XMP. Alleine schon tRFC macht sehr viel aus, das zu optimieren.

Was ich jedoch vermute: Selbst wenn du einfach nur manuell DDR4-3600 Gear1 einstellst und sofern dafür vernünftige Timings voreingetragen sind, wirst du schon etwas besser dastehen als jetzt von der Gesamtperformance, da die Latenzen am Ende wichtiger sind als die Bandbreite. Da rede ich also noch nicht mal von langwierigen manuellen Optimierungen.
 
  • Gefällt mir
Reaktionen: BloodReaver87
CiTay schrieb:
Ja, im Nachhinein betrachtet war dein Kit etwas Geldverschwendung
Ja durchaus, ein wenig ärgern tut es mich schon. Aber wenn man die restlichen Komponenten meines Systems anschaut (signatur) gehöre ich eher zur Kategorie unvernunft….

Was ich mich noch frage, was mit der Stabilität passiert wenn ich Adaptive boost aktiviere. Daw könnte dann durchaus sein das ich die CLL höher stellen müsste?
 
ABT (Adaptive Boost) würde ich auslassen, damit verlierst du jegliche Effizienz des 11900K, die eh schon knapp ist.

Der 11900K wurde über das normale Limit getrieben, welches mit diesen Strukturbreiten sinnvoll gewesen wäre. Die Fertigungstechnik, die hier zum Einsatz kommt, fühlt sich am Wohlsten in den mittleren 4 GHz-Bereichen. Daran sieht man schon, dass der 11900K wirklich ein extremes Modell ist, für das stark gebinnt werden muss. Beim 10900K ging es ja vorher so weit, dass man den 10850K nachgeschoben hat, weil viel zu wenige CPUs das Binning für den 10900K bestanden hatten.

ABT wurde für den 11900K zwei Wochen vor Launch (!) noch schnell aus dem Boden gestampft, um noch irgendwie die Performancekrone zu bekommen, vor allem für's Gaming. AMD hat halt mittlerweile so starke CPUs im Angebot, dass Intel nicht nur keine Reserve lassen konnte wie früher, sondern sie gingen nun so weit, dass es einem Werks-Overclocking gleichkommt.

Du musst nur mal diverse Reviews lesen, in denen ABT getestet wurde. Die Leistungsaufnahme steigt enorm an, für einen lächerlich geringen Performancezuwachs. Das ist das, was ich sagte mit der Fertigungstechnik. Jede Technik hat ihren "Sweet Spot" bei dem Spannung-vs.-Frequenz-Mapping oder salopp gesagt der Spannungskurve. Man kann sehen, wie komfortabel eine Technik mit einer gewissen Frequenz läuft, indem man schaut, wieviel VCore dafür benötigt wird. Wenn man das auf einer Kurve festhält, wird diese Kurve ab einer gewissen Frequenz immer steiler ansteigen. Das ist bei Rocket Lake noch vor 5 GHz. Jetzt will man aber mit ABT noch mehr boosten, und was passiert? Man ist auf der Spannungskurve im Bereich, wo die Kurve exponentiell ansteigt, aber man erreicht ja nur minimal höhere Frequenzen -> die Berechnungseffizienz geht zum Teufel. Weder OC noch ABT macht Sinn bei so einer CPU.


https://www.guru3d.com/articles_pages/intel_core_i9_11900k_processor_review,31.html

"As always we tried to overclock the processor. It certainly is doable but we're not sure if it is desired; proper liquid cooling is a must with this processor series. We got the processor stable at 5200 MHz all-core. 5300 MHz would boot fine, however created too many stability issues. At that point, we'd pass 1.5 Volts on the CPU. The heat production is significant. Realistically I'd say, leave tweaking for what it is as the defaults of these processors are already really close towards these performance regions.

5100 MHz all core yields 380W power consumption (system / GPU inactive)
5200 MHz all core yields 410W power consumption (system / GPU inactive)"

https://hexus.net/tech/reviews/cpu/147440-intel-core-i9-11900k/?page=14

"Rocket Lake-S requires plenty of juice at the MCE-optimised frequencies run for the benchmarks on the previous pages. Overclocking by running the highest all-core speed at a set 1.4V gave us a final frequency of 5.1GHz, which is lower than what the chip boosts to on fewer cores.
You may ask the question as to why bother? This all-core 5.1GHz speed is the same as the supposed frequency the chip runs at with Adaptive Boost Technology enabled, while CPU-only power consumption rises to around 300W and puts our impressive Noctua cooler under tremendous pressure. The differences are minor, insofar as manually overclocking guarantees the frequency is applied at all times, not just when ambient conditions are correct.

Running all-core this way, the low-load PiFast result is actually slower.
Multi-thread benchmarks show a small gain in performance, intimating it's not really worth overclocking as one increases the chances of failure without a decent reduction in rendering time."

https://www.kitguru.net/components/cpu/leo-waldock/intel-core-i9-11900k-review/8/

"The real jaw-dropper comes when you enable Adaptive Boost and watch the all-core speed push to 5.0GHz or 5.1GHz. The bad news is the five or six percent increase in clock speed requires 25 percent more power. These figures suggest that Intel has felt obliged to push way beyond the point of efficiency in a desperate scramble for clock speed and performance."

https://www.thefpsreview.com/2021/03/30/intel-core-i9-11900k-cpu-review/12/#ftoc-heading-38

"Turning on Adaptive Boost increases the CPU Package Power by a whopping 28%. Now, we in no way shape, or form saw a 28% uplift in performance. Therefore the power demand for the small percentage in performance we got across the board in our benchmarks is completely and wholly inefficient, and just quite insane to be honest."
 
  • Gefällt mir
Reaktionen: BloodReaver87
Klever schrieb:
Bei Asus gibt es die ähnliche Einstellung von CPU SVID Behavior, je nachdem wie man sie einstellt, verändert sich die von der CPU benötigte Spannung und somit wiederum die Stromaufnahme, die Modi rangieren dabei genauso wie bei MSI von best case to worst, sprich von der besten CPU mit der niedrigsten benötigten Spannung bis hin zu Modi für Samples mit mehr Spannungsaufnahme sowie den VID Stock Werten.
Wo finde ich das bei Asus im Bios? Würde das mal testen wollen.
 
@SERGE4NT

Kannst du im UEFI unter AI Tweaker finden, SVID Behavior befindet sich da zwischen Multicore Enhancement und AVX negative Offset.
 
Zurück
Oben