Diskussion: Geplanter Leserartikel zu Verbrauchsoptimierung bei Desktop-PCs

Müritzer schrieb:
Was wäre da besser da dokumentieren, HWINFO oder CapFramX?
Die greifen im Grunde auf die gleichen Sensordaten zu.
HWInfo ist gut, weil es so viele Infos vereint, aber CapFrameX hat den Vorteil, dass es sowohl Frametimes als auch Sensoren für die genaue Dauer der Messzeit aufzeichnet.

Daher würde ich CapFrameX bevorzugen....Mit diesen Programmen musst du ja auch nocht ewig testen....die Messen ja nicht nur alle 15 min.
 
CapFrameX habe ich auf 10 Minuten Überwachung und Aufzeichnung eingestellt, das müsst ja eigentlich reichen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Ich habe jetzt übrigens etwas Fortschritt bei den Energiemessungen.

Ich habe mehrer Launcher, Discord und JDownloader in den Autostart gepackt und kann dann mit Startup Timer messen wie lange es dauert bis alles fertig geladen hat.....plus natürlich extern den Verbrauch messen.
Die Zeiten variieren noch ziemlich, aber das kann man ja mit mehr Wiederholungen fixen.

Dann mache ich die Programme wieder zu und messe für 5 Minuten den Idle Zustand.

Dann habe ich zwei Skripte erstellt.
Eines mit einer leichen Last wie beim Arbeiten...etwas im Browser...zwei PDFs...4 Tabellencalculationen...Thunderbird...immer wieder kurze Pausen wie wenn man das PDF oder eine Internetseite liest.

Das andere Skript hat mehr zu tun....Launcher werden geöffnet, ein Video wird abgespielt...Jdownloader und Discord sowie Thunderbird sind offen... FastStoneImage Viewer ist offen....und dann gehe ich durch einige Internettabs....Computerbase, Nachrichtenseiten, Forenseiten, und es werden einige Youtube Videos geöffnet und angespielt....Twitch, ChatGPT, Github, Netflix....dann werden die Videos pausiert und ich lasse einen Browserbenchmark laufen....der läuft eine Weile, erzeugt aber nicht so viel Last wie ich dachte.....aber der Vorteil ist, dass der Benchmark eine Punktzahl angibt, die so halbwegs die Internetleistung zeigen könnte.

Ich habe auch noch PCMark10 überlegt....mal sehen...
Ergänzung ()

...ein paar Messungen habe ich soweit fertig aber nur grob ausgewertet.....da kann sich nochmal was dran ändern...ich musste z.B. die Skripte öfters anpassen, weil diese sich manchmal beim wechseln der Anwendungen aufgehangen haben...ich hoffe sie laufen jetzt zuverlässig.


Ich habe einmal mein schnell erstelltes "stromspar" Bios Profil genommen.
Ein paar Sachen im Bios deaktiviert(Sata, Parralel, COM)...PPT auf 45W...negativer Offset für den Boost von 450MHz...XMP(3000 Cl15 16 16) ist aktiv, aber ich habe die Spannung auf 1,3V gesenkt und das scheint stabil.
ASPM konnte ich im Bios nicht finden...
fTPM ist deaktiviert....CPU Lüfter habe ich durch einen bequiet ersetzt und diesen auf 40% gelockt.


Und dann habe ich als zweites Profil die Bios defaults geladen...auch XMP aktiv und fTPM deaktivert...und den Lüfter auf 40%.

Startzeiten lagen mit defaults bei ca 52s und es wurden dabei im Schnitt 47 W +- 0,9 benötigt.
Im Idle waren es 28,3 +- 0,01 W.

Für die Skripte habe ich hier im Moment nur jeweils eine Messung:
leicht waren 31,9 W und höhere Last waren 34,7 W und ein WebXPRT4-Benchmark score von 255.

Mit dem Stromsparprofil:

Startvorgang... 58,1s +- 3,4 bei 38,6 +- 0,9 W

Idle 21 +- 0.1W

leichte Last 25,3 +- 0,2 W

höhere Last 31,9 +- 0,2 W bei einem Browser score von 233 Punkten
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schmarall und Müritzer
Also der Startvorgang zeigt die höchsten Verbräuche, da hier viele Dinge gleichzeitig starten.
über 8W sparen die Stromsparbemühungen hier und im Schnitt dauert es 6 Sekunden länger.
Also 22% mehr Durchschnittsverbrauch bei 11% weniger Dauer(Default)....macht ca. 8% weniger verbrauchte Energie(im Stromsparprofil).

Im Idle sind es 7W weniger....ziemlich gut, da man hier ja keine Leistungseinbußen hat, aber dafür verbringe ich auch nicht so viel Zeit im richtigen Idle.

Die leichte Last ist realistischer.....hier sind es auch ca. 7W

Für die höhere Last sind es nur 3W weniger....der score ist 9% niedriger, ich kann da aber keinen Unterschied spüren.
Ich vermute, dass der Unterschied größer wird, wenn ich nur den ersten Teil bis zum WebXPRT Test auswerte....denn dieser scheint vor allem single core Last zu sein und nicht ins Stocken zu kommen wie das Öffnen/spielen von mehren Videos.
Ergänzung ()

Ich denke ich muss noch testen wie es mit anderem RAM läuft und ob ich die iGPU verbessern kann.

Auch Core Optimizer steht auf dem Plan.... usw.
 
Zuletzt bearbeitet:
Ich habe sehr viel Zeit darin versenkt, dual Channel zum laufen zu bringen.
Ich hatte den PC bis jetzt mit einem 16GB dual ranked Dimm mit Micron-E Chips laufen, da mir hiervon der zweite Dimm kaputt gegangen war und 16GB eigentlich reichen.

Ich hatte noch gute 8GB Dimms mit 3600 Cl15 15 15 rumliegen gehabt, die im dual Channel der iGPU beine gemacht hätten. Aber ich habe es auf diversen Wegen versucht und konnte nie beide Dimms erkannt bekommen.
Entweder A1 oder B1 haben gestreikt. :(

Ein 8GB Dimm in Kombi mit dem 16GB Dimm hat immer nur den 16GB Dimm ergeben.

Dann habe ich noch einmal ein anderes Kit genommen, das eigentlich an einen Freund gehen soll und tadaaa...2x16GB wurden erkannt....jetzt habe ich Angst diese auszubauen, da ich nicht weiß ob ich je wieder das Glück habe dual Channel hinzubekommen.

Das Kit ist schlecht gebinnter Samsung B-Die den ich schon in meinem update zu meinem Anno 1800 Artikel verwendet hatte und so hatte ich schon ein funktionierendes OC dafür ausgelotet....das konnte ich problemlos übernehmen....3666 Cl 18 20 20..Timings alle ausgelotet bei 1,45V

Dann habe ich noch CPU und iGPU übertaktet...die CPU hat 200MHz mehr Boost und 120W PPT erhalten.....die iGPU wurde von 1900 auf 2300 MHz übertaktet.

Naja und mit 32GB RAM wollte ich natürlich wissen, ob Anno 1800 damit zufriedenstellend läuft. ;)
Das Benchmarkskript läuft noch, aber erstmal sieht es überraschend gut aus!! :)

Ich habe gleich meine optimierten Grafikeinstellungen verwendet und gar nicht erst die maximalen probiert.
Auflösung ist 1080p ohne FSR....sieht optisch einwandfrei aus. :)

Eigentlich hat sich das Spiel auf dedizierten GPUs ca. 6GB VRAM genommen und nun scheinen nur 480 MB für die iGPU reserviert zu werden.
Da hätte ich erwartet, dass ich massenhaft Texturen sehen würde, die nicht auf die richtige Auflösung aktualisiert werden...aber es ist kein Stück schlechter als mit den 16GB VRAM der Radeon VII oder den 11GB VRAM der GTX 1080Ti...Es gibt immer Textruen die verspätet laden, aber vermutlich ist es der iGPU egal, ob die Daten in den reservierten 480MB liegen oder im restlichen RAM....ich bin sehr positiv überrascht. :)

Hoch werden die FPS nicht sein, aber ich hatte nicht gedacht, dass es überhaupt spielbar sein würde...und nach spielbar sieht es im Moment aus.....mal sehen was die harten Fakten sagen...
 
  • Gefällt mir
Reaktionen: Schmarall
Also ich habe auch verschiedene Dinge getestet.

Nur 65W ECO Mode UND XMP OHNE andere Einstellungen vorzunehmen:
IDLE Verbrauch gesamtes System 134 W

Alle Einstellungen die ich immer vornehme aber diesmal immer nur eine nach der anderen und immer wieder neu gestartet.

Nachdem alle Einstellungen vorgenommen waren:
65W ECO Mode + RAM OC + ASPM ( L1 ) + LCLK DPM ( Enabled ) + die anderen ( kann gerne alle Einstellungen posten ).
IDLE Verbrauch gesamtes System: 108,3 W ( das sind 25,7 W weniger mit allen Einstellungen, das ist schon sehr gut finde ich )

Drucker ausgeschaltet: 106,2 W

RGB LED off ( alle ): 95,1 W

Monitor off: 65,3 W

Da bleibt jetzt nur der Tower mit 9 Lüfter wobei die AiO automatisch 2 Lüfter abschaltet und auch ein Display hat wenn unter einer bestimmten Temperatur.
4 x M.2 NVMe und 2 x SATA SSD

Bei der Excel Tabelle war eine komische Formatierung, irgendwas osteuropäisches, jetzt ist das auf System gestellt:
Jetzt kommt der Verbrauch hin.
1689804849767.png1689805094596.png

1689805216726.png
1689805271413.png

Das werde ich mal probieren, damit lässt sich der Verbrauch sehr viel besser auslesen.

http://dectread.de

P.S. Mein alter G4560 eignet sich als Überwachungsmaschine ausgezeichnet, da kann ich dann alles mit loggen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
...So...Benchmark ist durchgelaufen.

Wie schlägt sich der 5600G in meinem Anno-Skriptbenchmark?​


20,2 +-0,1 FPS
1% low Frametimes von 9,4+- 0,1 1/s
0,1% low Frametimes von 4,21 +- 0,13 1/s

Die durchschnittlie GPU load gibt CapFrameX mit 95% an....wie erwartet ist die GPU meist der limitierende Faktor.
Die Sprünge zwischen den Welten und die größeren Inseln sind jedoch weiterhin CPU limitiert.
Der RAM wurde zu 88% ausgelastet.

Ich hatte keine PMD Messung mitlaufen lassen, aber das Display am PMD und das Steckdosen-Verbrauchsmessgerät zeigten beide um die 100W an.

Vergleiche ich das mit 5700X und 5800X3D(mit Radeon VII), dann schaffen diese mit 40,4 und 59,4 FPS ganz andere Regionen.
Werden beim 5700X nur JEDEC 2133 beim RAM verwendet, schafft dieser aber nur 30,5 FPS...immer noch deutlich besser, aber keine Verdopplung mehr.
Auch das System mit dem 3950X und Vega64 schaffte nur 34,6 FPS und bei den 0,1% low Frametimes liegt die CPU mit 4,8 zu 4,2 1/s nicht mehr so weit auseinander.

Ich habe das Spiel jetzt noch offen und teste das Spielgefühl....
Es läuft definitiv träge, wie man es von 20 FPS erwarten kann.
Kameradrehung und Kamerasprünge...sogar Weltensprünge laufen überraschend flüssig...natürlich nicht so gut wie mit meinem 5800X3D aber es stört mein Auge nicht groß.

Die Trägheit ist aber nicht von der Hand zu weisen und so öffnen sich Menüs verzögerter...Kamerabewegungen sind zwar recht flüssig, aber doch verzögert....das setzen von Gebäuden ist dadurch erschwert, dass die Vorschau der Gebäude dem Mauszeiger stärker hinterherhinkt.

Vergleiche ich das mit den alten Ergebnissen vom Laptop der Freundin welche noch mit weniger DLCs und damit etwas besserer Leistung entstanden waren....dann schlägt der 5600G den Laptop um Längen.
Die Laptop Messungen hatte ich mit FSR gemacht, damit die GTX 1050 Max-Q mit 4GB nicht völlig überfordert ist und das sieht dann wirklich schlecht aus....der verbaute i7-8750H hat auch 6 Kerne, aber auch nur 2x8 GB 2666er RAM zur Seite.
So lagen die FPS dank FSR zwar bei 21,2 +- 0,2
Aber die 1% Lows nur bei 3,7 +- 0,7
und die 0,1% low Frametimes bei grausigen 0,91+- 0,26

... Beim Spielgefühl dreht der 5600G Kreise um den Dell XPS.

Würde ich Anno mit dem 5600G spielen?​

Also wenn ich nur dieses System hätte, könnte ich trotzdem mit dem Spiel Spaß haben...es sieht gut aus und die Trägheit ist vor allem eine Folge des lategame Spielstandes....da kommt man ja sonst erst nach vielen vielen Stunden hin.

Ich habe gerade mal eine frische Kampagne gestartet und da sind die FPS um die 26
Da fühlt es sich auch reaktionsschneller an...wenn auch nicht wirklich gut....ist halt spielbar.

Da ich aber ein richtiges Gaming System habe, werde ich logischerweise dieses verwenden. ;)
Ergänzung ()

Müritzer schrieb:
Das werde ich mal probieren, damit lässt sich der Verbrauch sehr viel besser auslesen.
Denke ich auch....Durch das ganze übertakten ist der Idle Verbrauch laut dem Steckdosenmessgerät von 17 auf 30 W angestiegen...und da kommen ja noch die 17W für den Monitor mit drauf, wenn man den mit reinrechnet.
Ergänzung ()

Müritzer schrieb:
Monitor off: 65,3 W

Da bleibt jetzt nur der Tower mit 9 Lüfter wobei die AiO automatisch 2 Lüfter abschaltet und auch ein Display hat wenn unter einer bestimmten Temperatur.
4 x M.2 NVMe und 2 x SATA SSD
65 W für 6 SSDs, Waku und 9 Lüfter ist gar nicht schlecht.

Ich werte gerade noch grob den OC Zustand aus...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Müritzer
Baal Netbeck schrieb:
65 W für 6 SSDs, Waku und 9 Lüfter ist gar nicht schlecht.
Na ja die GPU und die CPU nicht vergessen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Zwei Startvorgänge lagen mit OC bei 51s und 58,4 W statt 52s und 47W mit Bios Defaults....keine gute Effizienz. ;)

Der Idle ist mit 32,5W nur leicht über den 28,3 von vorher.....die Stromsparbemühungen lagen bei 20,8 W.
Vergleiche ich die einzelnen Stromschienen, dann gibt es keinen Unterschied bei den 3,3 V...im Schnitt 3W werden benötigt.
Die 5V Schiene geht vom Stromsparen zum OC von 6,2 auf 10,2W hoch....eigentlich noch sehr moderat, weil ja jetzt 32 statt 16GB RAM verbaut sind und diese bei 3666MHz@1,45V statt 3000@1,3V laufen.
Die 12V Schiene des Mainboards geht von 5 auf 7W hoch...hier kann auch der Lüfter eine Rolle spielen, den ich nun auf 100% statt 40% laufen habe, da mir das OC sonst nicht geheuer war.

Die 12V Schiene für die CPU ist von 6,7 auf 12,3 W hochgegangen....hier hatte ich nicht gedacht, dass es im Idle solche Unterschiede gibt, da ja weiterhin CPU und iGPU Takt im Idle absinken....jeder kleine Pups scheint aber den Boost zu triggern.

Der Test mit der leichten Arbeitslast kommt auf 38,5 W statt 31,9 mit default bzw. 25,3 W mit stromsparen.

Der Test mit der höheren Last läuft gerade noch...
42,3 W statt 34,7 W bzw. 31,9.
Der WebXPRT4 score liegt bei 282 statt 255 bzw. 233

Ich habe noch einen 3DMark Timespy laufen lassen...also mit den Ladescreens waren es im Schnitt 70W.
Graphics Punkte sind 1607 und CPU score ist 8089....macht zusammen 1826, was ich ganz ordentlich finde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Müritzer
Ich habe nochmal an den PMD Messungen gefeilt.

Die Daten vom PMD werden per I²C Bus an ein EVC2 geleitet und dann per USB ausgelesen.... Dazu gibt es von Elmor auch ein fertiges Programm, dass ich nutzen werde, da ich keine Lust habe sowas selbst zu programmieren.

Leider waren die Ausleseintervalle recht ungleichmäßig und von verschiedenen Faktoren abhängig....kurz nach dem Start war es z.B. schneller und dann irgendwann langsamer.
Es macht einen Unterschied, ob das Fenster mit der Darstellung des Verlaufs offen ist und ob ich mit der Maus über einem der Diagramme bin.

Oft gingen so 100-120ms Intervalle, aber dann ist es auch manchmal auf 160-180 hochgegangen und zwischendrin Peaks auf 300+.

Auch muss man bei jedem Start erstmal den data logger öffnen...den Bus auf 400Hz stellen...das PMD finden lassen...die Fenstergröße ändern damit man alle Werte sehen kann...die gewünschten Werte einzeln zum Data logger hinzufügen....den data logger refreshen..das Fenster mit den Diagrammen minimieren.

Ich habe dann jetzt das ganze mit einem Skript automatisiert. :)

Auch für die Messungen habe ich verschiedene Skripte, die entsprechend der Messedauer automatisch starten und stoppen.

Und ich habe mit Process Lasso das Programm optimiert.
Jetzt ist es fest auf Thread 6&7...hat Echtzeit Priorität und eine hohe IO Priorität.

Das hat die Ausleseintervalle auf ca 15-18 ms mit seltenen Peaks verbessert...ein riesen Schritt im Vergleich zu 100ms+.

Jeder Messwert im CSV-Datalog hat einen Timestamp aus Datum und Uhrzeit, was sich auch einfach in libre calc einlesen ließ...aber libre office hat scheinbar einen Bug, wo es nicht mit Nullen bei den Millisekunden klarkommt.:stock:

So muss ich Datum und Uhrzeit erst zerlegen und neu zusammensetzen. :(

Dann kann ich die Daten in OriginPro einfügen und Auswerten.
Ergänzung ()

Hier der Libre Calc Bug:
libre office bug.PNG

Wie man sieht verrechnet sich das Programm jedes Mal wenn einer der Werte bei den Millisekunden 0XX stehen hat....XX0 funktionieren.
So ergeben sich aus 1023-944 keine 79 ms sondern 331 ms.
Und aus 102-023 werden keine 79 ms sondern -148 ms.

Wenn ich die beim Einlesen trenne und dann selbst zusammenfüge, passt es:
libre office bug umgangen.PNG


Das war noch ein Zwischenstand mit meinen Verbesserungen der Ausleseintervalle...hier die aktuelle Version:
verbessertes Ausleseintervall.PNG

Meist ist man zwischen 15-17 ms ...manchmal nur 11 oder 18/19, aber relativ konstant....und am Anfang wie auch hier nach 27 tausend Einträgen.

In dem orange markierten Bereich läuft es kurz nicht so gut....hier schwankt es von 9 bis 28 ms, was auf die Masse an Daten aber keinen Einfluss haben dürfte.

Wenn jemand eine Idee hat, wie man das noch weiter verbessern kann...immer her damit, aber für meine Zwecke ist das mehr als ausreichend.....ich erwarte nicht, dass ich den echten Verlauf darstellen kann, weshalb man diese starken statistischen Schwankungen in den Messwerten sieht...dafür bräuchte ich ein Oszilloskop.

Ich kann diese Nachteile durch eine längere Messdauer ausgleichen und bis jetzt sind die Durchschnittswerte gut reproduzierbar.
 
Zuletzt bearbeitet:
Hier wäre mal eine Darstellung meines "Höhere Alltagslast-Tests" der ein paar Programme, Webseiten und Videos beinhaltet...und das mit OC ....der 5600G hat 200 MHz mehr Boost und das PPT wurde auf 120W erhöht.
Die iGPU läuft mit 2300 MHz @1130mV statt 1900 MHz. ....der RAM sind 2x16GB 3666 Cl18 20 usw...@ 1,45V.
höhere Last OC.png

Die Originaldaten schwanken so stark, dass man nix erkennen könnte, daher habe ich die Daten über lokale Durchschnittswerte geglättet.

Wie man sieht passiert bei 12V ATX und 3,3V ATX so gut wie nix.
Die 12V ATX sind wohl Chipsatz, Lüfter und was da sonst so dranhängen mag.
Die 3,3V sind irgendwelche Extrachips, BIOS und die M2 SSD.
Mit 6,8 und 3,6 W haben sie wenig Einfluss auf den Gesamtverbrauch.

Es dominiert die 12V EPS Leitung, die CPU und iGPU versorgen sollte.
Die 5V Leitung versorgt USB und den RAM....man kann erkennen, dass die Leistungsaufnahme des RAM meist leicht hochgeht, wenn die CPU Leistngsaufnahme deutlich ansteigt....soweit so logisch.

25,5 W für CPU/iGPU und 12,1 W für USB+RAM klingen durchaus einleuchtend und die Summer von 48 W ist gar nicht mal so hoch, wenn ich bedenke, dass ich versucht habe einen anspruchsvolleren Test zu kreiren und der Rechner übertaktet lief.
Wie man am Maximalwert von 126W sieht, ist der PC kurzzeitig gut ausgelastet, wobei ich in Zukunft eher das Maximum von den geglätteten Daten nehmen würde...

Ich müsste Mal ein Video filmen, dass den Skriptablauf zeigt, damit ich benennen kann, was bei den intensiven Phasen am Rechner passiert.

Gibt es von eurer Seite aus Anmerkungen, welche Auswertung man mit den Daten noch anstreben könnte?​

Also grundsätzlich möchte ich mich auf die Durchschnittswerte konzentrieren, aber ich denke ich werde noch andere interessante Vergleiche finden.
 

Erste Erkenntnisse auf die Frage, ob man Energie sparen kann, wenn man die Spannungswandler(VRM) auf dem Mainbaord besser kühlt....​


Wenn ich das richtig interpretiert habe, ist der Bereich links von der CPU die VCore Versorgung und oberhalb die SOC Versorgung für Ramcontroller und iGPU....beides sind ungekühlte Mosfets.

Da Computerchips(CPU/GPU/DRAM) bei weniger Betriebstemperatur effizienter laufen, dachte ich mir, dass das auch für diese Mosfets gelten könnte.

Also habe ich einen Test bei Cinebench R23 im 30Min Stresstest genutzt und 3DMark Timespy im Stresstest(die 20 loops dauern grob 18 Min).

Dann habe ich passive Kühlkörper aufgebracht und den Test wiederholt.
Als das wenig eindeutig war, habe ich noch zusätzlich den Lüfter der Wraith Prism Kühlers(100% rpm) über den CPU/SOC-VRMs positioniert.

Da mein Infrarotthermometer die Temperaturen von so kleinen Bauteilen nicht zuverlässig messen kann, habe ich damit zumindest nach Hotspots gesucht und daraufhin zwei Temperaturfühler mit Wärmeleitpaste an einen high- und einen lowside Mosfet der SOC-VRMs befestigt.

Somit habe ich keine Informationen, ob die VCore-VRMs nach aufbringen der kleinen Kühlkörper wirklich kühler liefen...theoretisch sind Wärmekapazität und Oberfläche vergrößert.
Der SOC Bereich wird besser gekühlt, hier ist der Kühlkörper jedoch auch deutlich größer.

Die CPU wurde um 200MHz übertaktet...ihr PPT auf 120W erhöht und die iGPU von 1900 auf 2300 bei 1130mV übertaktet...der RAM lief bei 3666 Cl18 20 @1,45V.

Der Wraith Prism wurde seines Lüfters beraubt und ein bequiet 75mm Lüfter mit maximal 1900 rpm hat ihn ersetzt.
verlTempCine.png
verlTempSpy.png


Ich zeige hier den Durchschnitt aus beiden Temperatursensoren.....im zweiten Diagramm habe ich mit dem Heatsink kurz danach einen weiteren Test angeworfen, weil ich mir unsicher war, ob der Kühler schon gesättigt war...das war er aber nahezu.
Die Raumtemperatur war in den letzten Tagen sehr konstant bei ca 22-22,5°C.

Das Infrarotthermomenter hatte ohne Kühlkörper für den CPU Bereich als Hotspot ca 60°C gefunden und im SOC Bereich ca. 65°C...der Temperatursensor am Highside Mosfet hatte maximal 67,7°C angezeigt und der am lowside Mosfet 66,7....das passt zusammen.

Also auch ohne Kühlkörper werden keine kritischen Temperaturen erreicht, was mich sehr überrascht hat.
Ich war davon ausgegangen, dass dieses Billigboard drosseln müsste, aber das war nicht der Fall.

ca. 55 statt 67°C am SOC sind ein gutes Ergebnis für den Heatsink, aber kein so großer Unterschied, dass ich große Effizienzvorteile erwarten würde.
...der Lüfter Drückt die gemessene Temperatur auf unter 34°C, was dann schon ein großer Unterschied ist.

Für die no Heatsink Variante habe ich leider nur eine Messreihe....für die anderen beiden sind es je drei, die ich gemittelt habe.
vergl-vrm-bar.png

Mit viel Wohlwollen kann man in den Daten einen Trend erkennen....demnach sind die Vorteile am SOC völlig unbedeutend und am VCore Bereich werden ca 1,1% an Energie eingespart, solange der Lüfter verwendet wird....Der Prism Lüfter den ich hier verwendet habe brüllt jedoch vor sich hin und braucht grob 5W an Energie...diese sind in der Messung nicht enthalten, da ich ihn von einem anderen Rechner aus befeuert habe.

Der Heatsink macht also nichts aus...und der Lüfter verbraucht mehr, als man mit Effizienzverbesserung einspart. :(

Für Timespy sieht man übrigens auch keinen Trend in dem Vergleich von zwei Messungen:​

vergl-spy-verlb.png
vergl-spy-verla.png

Da sieht man nur statistische Schwankungen und ab und zu einen Lastpeak.

Anders bei den Cinebench Messungen:​

vergl-R23-verla.png

Hier sieht man durchaus deutlicher einen Unterschied zwischen den Messungen mit und ohne Lüfter.
Auch fängt der Unterschied klein an, und wird mit der Dauer der Belastung größer.
Betrachte ich nicht die ganze Messung, sondern beispielhaft die Werte von 1446-1601 s dann sind es mit Lüfter trotzdem nur 1,3W weniger.

Also ich denke schon, dass sich hier ein echter Unterschied außerhalb der Messungenauigkeit zeigt, jedoch ist der Effekt so klein, dass man ihn ignorieren kann.

Performance Unterschiede​

Einen Einfluss auf die Leistung gab es in Timespy nicht...die iGPU hat ihren Takt von 2300Mhz dauerhaft gehalten und die CPU hat sich gelangweilt.
Die FPS waren laut den Ergebnissen für alle 20 Durchläufe im Bereich von 10,71 bis 10,72 FPS...kein Trend...einfach konstant.

In Cinebench gibt es einen Abwärtstrend zu beobachten, da die CPU Temperatur leicht steigt und damit der Takt immer weiter sinkt:
score-verl.png

Ein Verlust von bis zu 80 Punkten sind jedoch nur 0,7% und damit aus meiner Sicht vernachlässigbar.
Somit sind auch die Unterschiede bei der VRM Kühlung vernachlässigbar....die Unterschiede scheinen aber außerhalb der Fehlertolleranz zu liegen.

Wie man sieht startet der Verlauf mit Lüfter am stärksten und endet auf einem Level mit dem Verlauf ohne Heatsink.
Ich denke dass hier nicht die VRM Temperatur, sondern der Einfluss des Zusatzlüfters auf den CPU Kühler ausschlaggebend ist....da der Prism Kühler seine Luft entweder Richtung RAM oder Richtung Vcore-VRM auslässt, ist ein hoher Luftruck durch den Extralüfter über dem VCore-VRMs im Idle erstmal gut, da der ganze Bereich niedriger heruntergekühlt wurd(VRM Lüfter 3000 rpm..CPU Lüfter 960 rpm).
Wenn der Test startet, kann der erste Durchlauf noch davon profitieren, aber dann pustet der CPU Lüfter mit 1900 rpm gegen den VRM Lüfter an.

Mit Heatsinks aber ohne Lüfter war es im Ram minimal kühler....daher vermutlich der minimal höhere Verlauf und nicht wegen der VRM Kühlung....

Fazit zur VRM Kühlung​

....Zumindest in diesem Fall kann man sich das sparen! :(

Es scheint einen Einfluss zu geben und bei 200W CPUs und 500W GPUs wird dieser voraussichtlich auch mehr Watt sparen können, aber ohne extra Turbo-Lüfter ist der Unterschied praktisch Messungenauigkeit ..... und der Lüfter braucht in diesem Fall deutlich mehr Energie als er einspart.
Dabei hätte ich gedacht, dass ich hier mit wenigen ungekühlten VRM-Phasen den Optimalfall für Optimierungen vorliegen hätte.

Ich werde die Kühlkörper natürlich trotzdem drauf lassen....etwas niedrigere Temperaturen können nicht schaden und ich brauche sie für nix anderes...der Lüfter kommt natürlich wieder weg....bis ich ihn auf den Chipsatzkühler halte. ;)

Nächstes Projekt....SSD Verbrauch und kann man beim B350 Chipsatz durch eine bessere Kühlung doch etwas verbessern?
 
  • Gefällt mir
Reaktionen: Müritzer

@Baal Netbeck

Wie immer von dir gewöhnt super aufgedröselt und erklärt, weiter so! 👍
Da ist mir zu diesem Thema ein Video von Igor eingefallen, ist zwar schon ein paar Jahre alt aber ganz erklärt.
Gerade was die VRRM betrifft gab es ja früher viel schlechter ausgestattete Boards, da hat sich schon was getan.

 
  • Gefällt mir
Reaktionen: Baal Netbeck
Müritzer schrieb:
Gerade was die VRRM betrifft gab es ja früher viel schlechter ausgestattete Boards, da hat sich schon was getan.
Interessantes Video. :daumen:

Ja, da gibt es schon nochmal Unterschiede von A320 zu B350...bin halt überrascht, dass es bei meinem Board so unkritisch ist, obwohl es nicht so viel besser ausgestattet ist...ich kann mit den Bezeichnungen auf den Mosfets wenig anfangen....bei mir steht SM4336 drauf...auf allen.

Das Datenblatt was ich gefunden habe sieht so aus:
Mosfet SM4336.PNG

Keine Ahnung wie man das bewerten soll....einmal steht bei Current 100°C = 40 A....und weiter unten 70°C = 15 A?
Maximum Junction Temp von 150 °C klingt aber nicht so schlecht....ich meine Igor hat in dem Video von 105°C gesprochen.

Auch sind bei mir an den drei CPU Phasen je vier davon und nicht drei wie bei Igors A320 und die SOC Phasen haben drei statt 2 Mosfets je Phase.

Trotzdem hätte ich gedacht, dass es bei mir auch glühen müsste....er hat ja auf 65W ohne Lüfter schon 110°C.
Und trotz Lüfter dann 120°C bei 95W ...und ich brauche mehr und liege mit den Temperaturen unkritisch.

Ein Vorteil bei mir ist eventuell noch, dass ich das Board auf das Netzteil geschraubt habe....so zieht der Lüfter des Netzteils von unten Luft über das Board....eventuell macht das schon viel aus, obwohl der Netzteillüfter super leise ist und kaum was fördern dürfte..
 
  • Gefällt mir
Reaktionen: Müritzer
Baal Netbeck schrieb:
.ich kann mit den Bezeichnungen auf den Mosfets wenig anfangen....bei mir steht SM4336 drauf...auf allen.
Bei Buildzoid habe ich nur andere 350er Boards gefunden, aber die Low Side Mosfets sind wohl die gleichen.
Da er sehr viele Videos über den Aufbau von Boards gemacht hat kann man sich da gut informieren.

 
  • Gefällt mir
Reaktionen: Baal Netbeck
Müritzer schrieb:
Bei Buildzoid habe ich nur andere 350er Boards gefunden, aber die Low Side Mosfets sind wohl die gleichen.
Ja, das Video hatte ich auch schon gefunden...Bei mir sich andere Spulen drauf.. Aber die dürfen ja ruhig heiß werden.
 
Das scheint so mit den Mosfets aufgebaut zu sein, wahrscheinlich immer
2 x Low Side ( 1 ) und 1 x High Side ( 2 ) für jede Phase.

1690907117964.png


Und wie es aussieht kann man sogar einen Kühlkörper verbauen, doe Löcher scheinen ja da zu sein.
Steht sogar über dem einen Loch " Heatsink".
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Ahhh...wichtige Info, dann habe ich wohl doch 4 Phasen und nicht nur 3...habe mich schon gewundert, warum da 4 Spulen sind. :freak:

Ja...Löcher sind da, aber ich habe halt nix passendes dafür.
 
  • Gefällt mir
Reaktionen: Müritzer
Baal Netbeck schrieb:
Ja...Löcher sind da, aber ich habe halt nix passendes dafür.
Na ja wenn man die Löcher ausmisst könnte man einen Kühler z.B. von einer M.2 anpassen ODER man klebt solche Teile zur Sicherheit drauf:
Falls doch mal was warm werden sollte aber ich glaube nicht das du einen 5950X draufschnallst.

https://geizhals.de/enzotech-mos-c10-mosfet-kuehler-a479016.html?hloc=de
Ergänzung ()

P.S. Da gab es mal ein Video von Cracky wo er sowas gemacht hat.
 
Müritzer schrieb:
Na ja wenn man die Löcher ausmisst könnte man einen Kühler z.B. von einer M.2 anpassen ODER man klebt solche Teile zur Sicherheit drauf:
Sowas habe ich jetzt drauf...nur sind die relativ flach.
hier mal ein paar Fotos..

PXL_20230726_094944365.jpg
PXL_20230726_094950481.MP.jpg
PXL_20230728_110139902.MP.jpg
PXL_20230728_110159600.jpg
PXL_20230728_123000470.jpg
PXL_20230728_123010871.jpg


Und ich habe nochmal nachgeguckt und es ist wie in dem Video von Buidzoid eine Kombi aus 4336 und 4337 Mosfets...hatte ich nicht richtig geguckt.
 
  • Gefällt mir
Reaktionen: Müritzer
Zurück
Oben