"Upgrade" zu energiesparender/schneller Lösung (AMD R9 5900X -> i7-12700)

PBO und XFR2 sind quasi identisch bei diesem Prozessor. Es ist ein 5900X -> "X" steht für XFR(2).

Wenn's nichts ausmacht, dann vielleicht den RAM auf JEDEC-Norm (XMP deaktivieren) @1,2V laufen lassen.

PCI-Express und Chipset auf "Gen3" im UEFI begrenzen könnte auch noch helfen ... 😉
Eine NVMe muss nicht mit PCIe 4.0 laufen, wenn nur wenige Daten darüber laufen.
Und vielleicht 10 Sekunden länger beim Kompilieren sollte auch nicht ins Gewicht fallen.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Ich hab in der Mittagspause das XFR deaktivieren können. Die minimale CPU-Gesamtleistungsaufnahme ist (Betrachtungszeitraum ca. 15-20 Minuten) auf 32W runtergegangen. Die maximal CPU-Gesamtaufnahme auf 79W hoch. Quasi nur Browser und HWINFO offen. Bei der Leistungsmessung aht das aber keien Auswirkung.
 
Zuletzt bearbeitet:
Dies sind einige Zitate aus dem verlinkten Thema von @worf2:
Freiheraus schrieb:
WilliTheSmith schrieb:
Eine Sache, die mir damals noch aufgefallen ist: Es macht einen Unterschied, ob man 1 oder 2 RAM-Riegel benutzt und ob man den RAM auf 2100MHz oder 2800MHz laufen lässt. Letzteres hat bei mir einen Unterschied von 3W bei zwei DIMMs und 2W bei einem DIMM ausgemacht.
Solche großen Unterschiede rühren nicht von den Modulen selbst her, sondern oft vom Memorycontroller. Die meisten Boards overvolten automatisch den SoC bzw. MC wenn höhere RAM-Taktraten manuell eingestellt werden oder XMP-Profile geladen werden. Zudem taktet dann häufig auch nicht mehr die Infinty Fabric (FCLK) und der Memory Controller (UCLK) im Leerlauf herunter. Das führt dann zu diesem merklichen Anstieg.

Abhilfe schafft hier nur JEDEC-konformer Speicher. Daher habe ich mir DDR4-3200 CL22 1.2V RAM besorgt, der aufgrund der SPDs automatisch erkannt wird, kein XMP benötigt und somit SOC/MC mit Normal-Spannung arbeiten lässt, Der UCLK & FCLK wird dadurch auch weiterhin dynamisch heruntergetaktet.
Freiheraus schrieb:
MMn ist bei Sockel AM4 bzw. Zen hauptsächlich an den PCie-Lanes und dem SoC eine Stromersparnis manuell herauszuholen.


0x8100 schrieb:
lspci -vv | grep 'ASPM.*abled;'
Freiheraus schrieb:
Mit Linux habe ich mich zwar lange nicht mehr beschäftigt, aber probier mal diese Codes falls du sie nicht ohnehin schon kennst:

echo 1 > /sys/module/snd_hda_intel/parameters/power_save

echo 'min_power' > /sys/class/scsi_host/host0/link_power_management_policy
echo 'medium_power' > /sys/class/scsi_host/host0/link_power_management_policy

echo powersave > /sys/module/pcie_aspm/parameters/policy

for i in /sys/bus/pci/devices/*/power/control ; do echo auto > $i ; done
for i in /sys/bus/spi/devices/*/power/control ; do echo auto > $i ; done
for i in /sys/bus/i2c/devices/*/power/control ; do echo auto > $i ; done

***

savagepc schrieb:
Die minimale CPU-Gesamtleistungsaufnahme ist (Betrachtungszeitraum ca. 15-20 Minuten) auf 32W runtergegangen.
Die maximal CPU-Gesamtaufnahme auf 79W hoch. Quasi nur Browser und HWINFO offen.
D.h. also die CPU taktet nun nicht ständig ans Limit für kurze Aufgaben ... dafür umso höher bei längeren.
So ist das, wenn man ein ordentliches Power-Nap zwischendurch macht. :daumen:

CPB (alias Turbo 3.0) darf gern anbleiben, welches für die "längeren Boosts" verantwortlich ist.
XFR/PBO ist die OC-Automatik, welche bis an die eingestellten Limits im µSekundenbereich boostet.

***

Schade, dass bisher noch keine Verbesserung eingetreten ist.
Bleiben noch die anderen Tipps aus #81 ... wenn Du magst.
Ergänzung ()

Vielleicht ist aber auch Dein Netzteil nicht in der Lage effizienter zu arbeiten.
Da nutzen dann die ganzen Stromsparmodi(fikationen) nichts, wenn's das nicht kann.
Welches NT ist denn aktuell verbaut?

***

Last, but not least: PPT im UEFI mal auf 65W oder 45W begrenzen.

Grüße
 
Zuletzt bearbeitet:
MyPVR schrieb:
Hmmm... nicht lachen, aber ich habe ein ähnliches Setup völlig anders umgesetzt:
  • Ein dickerer Linux PC mit ausreichend RAM und Storage steht in der Ecke
  • Brauche ich den, nutze ich Wake-up On Lan
  • Brauche ich den nicht, fahre ich den ins Off (nicht Suspend)
  • Für IDE/Office/Browser nutze ich einen Mini PC mit einer kleinen CPU unter Linux
    • Ryzen 3 3200U, max 15 Watt
    • 16GB RAM
    • 500GB SSD
    • 2x HDMI
  • Per SSH und ggf. RDP greife ich vom Mini auf den großen PC zu
Gerade wenn du jetzt eh mit dem Laptop arbeiten kannst (und die meisten Sachen darauf gut laufen) wäre der Vorschlag von @MyPVR vielleicht auch noch eine Beachtung wert, den "grossen Bruder" im Winterschlaf zu lassen und dann für die Aufgaben, wo du ihn brauchst, aufzuwecken.
 
@Tanzmusikus Nein, den RAM will ich nciht auf 2666 betreiben (glaub zumindest das das die Frequenz ohne XMP wäre). Ich werde eh noch ein bisserl Testen. Will jetzt auch nciht Linuxtipps und Windowstipps mischen.
Defacto verhält sich der PC unter beiden OS von Verbrauch gnaz ähnlich.
Als Netzteil hab ich ein be Quiet! Straight Power 11 PC Netzteil ATX 550W BN281 verbaut. Glaub im Jänner 2020 gekauft (wegen dem 9900K den ich vor dem AMD hatte).
@TNil Server hätte ich eh einen. Es gibt für meine Projekte auch einen Continouse Integration Server für die Software wo der Build des Gesamtprojekts stattfindet. Ich hab auch für meine Ebooks einen "Server" mit einem i5-9400 in einem Deskmini. Ist mir alles ein bisserl zu umständlich. Stromverbraucher hab ich so gesehen genug - auch ein Synology NAS DS1821+ (mit 6x10TB und 12/14TB) plus ein 4fach NAS für 1.Beackup und dann noch im Büro das gleiche und noch externe Speicher mit den wichtigsten Sachen wo jede Woche die Platten getauscht werden. Aber das ist nicht im Arbeitsraum.
 
AMD R9 5900X ist quasi verkauft (warte noch auf die Überweisung). Bekomme 370EUR.

Ich überleg jetzt ob i7-12700 oder gleich eine i7-12700K. DER K hat sicher besser Wiederverkaufsmöglichkeiten.
Ist gegen das MSI MAG Z690 Tomahawk Wifi etwas einzuwenden?
Das Gigabyte Z690 Gaming X wäre günstiger und hätte mehr USB Anschlüsse (hab aber eh ein paar USB 2.0 Header für die Slots). Den MOunting Kit für Intel 1700 bekomme ich eh von Noctua gratis für meinen D15.
 
Zuletzt bearbeitet:
nimm den k - der andere throttelt nach ner halben Minute - somit schlechter als ein 12600 bei Kompiliersessions - siehe Test 12700 ohne K
Zitat: "Wegen des oben beschriebenen Problems mit den Taktfrequenzen liegt die durchschnittliche Anwendungs-Leistung des Core i7-12700 nur auf dem Niveau jahrealter Achtkerner und gar nur neun Prozent über einem Core i5-12400. Ein fast drei Jahre älterer AMD Ryzen 7 3700X (mit einer TDP von 65 Watt) macht einen besseren Job in Anwendungen als der i7-12700. Auf Basis dieser Ergebnisse verwundert uns das Festhalten von Intel an der 65-Watt-Klasse, die auch schon beim Vorgänger Rocket Lake ursächlich für fehlende Performance unter Last war."
 
  • Gefällt mir
Reaktionen: savagepc
So richtig kann ich den Plattformumstieg noch nicht nachvollziehen. Der 12700k landet eigentlich in jedem Test hinter dem 5900X, was den Stromverbrauch betrifft. Gut, der 12700k hat eine iGPU, aber die hätte man auf der vorhandenen Plattform auch haben können.
 
Um bei AM4 zu bleiben mit iGPU hätte ich auch alles neu kaufen müssen.
CPU und Grafikkarte sind schon verkauft. Das Mainboard wird auch weggehen.
Dann bleibt sogar nochw as übrig. Könnte ich mir wieder eine GPU drum kaufen (300EUR).
Mach ich aber nicht. Ich hab den i7-12700K und das MSI Z690 TOMAHAWK DDR4 WIFI bestellt.
Bin mal gespannt was der Intel verballert im Bürobetrieb. Vielleicht überzeugt mich dann ja Zen-4 mehr als Zen-3. Ich hätte ja vielelicht auch einfach die GTX1070Ti rauswerfen können und eine RTX3060 kaufen können, wenn die im Idle mit zwei Monitoren wirklcih weniger Strom ziehen würde. Hab da aber keine Erfahrung. Hat auch keiner geraten. Die Grafikkarte war wohl ein Problem.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foxio
Hardware kam heute. Hab gleich meine alten Komponenten draufgepflanzt.
Windows und Linux starten ohne Probleme.
Beide Monitore wie vorher und auch RAM und 2 nvme SSDs (PCIe 4.0) und die SATA SSD plus 128GB drinnen,
ergeben um die 85W (Browser mit dem Forum offen, ein Youtube Video in HD und ein Terminal.
In WIndows zeigt hwinfo das die Packagepower auf 5,6W zurückgeht. Compile unter Go und Java ist
ziemolich gleich schnell ( Java mit 4 Threads). Bei Compileiren gibt es Spitzen bis 190W aber eher so um die 130W. ALles jeweil die Monitore (50W zusammen) und der gesamte Computer.
Ob es sich gelohnt hat, natürlich lohnt sich das nicht.
Aber wenn die Grafikkarte auch weg ist, dann hab ich noch was für ein 13.Gen Upgrade :)
 
Also 35W nur der Rechner alleine? Das ist nicht schlecht, glaube ich. Ich messe gerade 90W in der Mediathek
-> Monitor + Ryzen5600+32GB-3200 + RX6600XT + 1xHDD + 2xSSD
 
Genau Rechner brauch im Schnitt 35W idle (Browser und ein YT Video).
Die zwei Monitore (jeweils Dell 27" WQHD) ziehen 50W. Womit ich auf 85W komme.
 
savagepc schrieb:
Genau Rechner brauch im Schnitt 35W idle (Browser und ein YT Video).
Die zwei Monitore (jeweils Dell 27" WQHD) ziehen 50W. Womit ich auf 85W komme.
Helligkeit des Monitors reduzieren und im Nvidia Systemsteuerung unter "Video-Farbeinstellungen anpassen" die Helligkeit (dementsprechend) erhöhen.
Mein 24" Dell FHD zieht 5,5W.
 
Naja, damit steuerst du halt nur die Farbhelligkeit, nicht das LCD-Backlight. Die Helligkeit (also Backlight) passt man eigentlich an die Umgebungshelligkeit an (in dunkler Umgebung regelt man das Backlight herunter, in heller hoch - ist für die Augen besser so).
 
@savagepc
bisschen spät deinen Thread entdeckt:

a) 5900x, 4x16GB RAM @ 3200Mhz, 570s Tomahawk, 2xNVME (1x4.0 / 1x3.0), nvidia 1080Ti, 850W seasonic PX-850 ("platinum")
Linux, 5.17er Kernel, XFCE, Display auf 60hz , Tastatur und Maus per USB angeschlossen:
idle: ca. 42W (aspm funktioniert, s.o. die anderen Kommentare&Tipps)
win10 idle: ca. 48W (aspm funktioniert nicht)

b) 12900k, 4x16GB RAM @ 3200Mhz, Z690 Tomahawk, 2xNVME (beide 4.0), 6900XT, 850W seasonic PX-850 ("platinum")
Linux (s.o.)
idle: ca. 34W
win10 idle: ca. 37W
aspm funktioniert nur bis zu dem ersten suspend-to-ram bei win und linux, danach ca. 6W mehr+höhere Temperaturen bei den NVMEs

d.h. fast identische Configs, auch 5900x ist eigentlich relativ sparsam, und wenn MSI mal ASPM korrekt umsetzen würde, wären das beide wirklich sehr gute Boards
insbesondere die Differenz zwischen Intel und AMD unter Windows "idle" wäre kaum noch vorhanden
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus
foxio schrieb:
Naja, damit steuerst du halt nur die Farbhelligkeit, nicht das LCD-Backlight. Die Helligkeit (also Backlight) passt man eigentlich an die Umgebungshelligkeit an (in dunkler Umgebung regelt man das Backlight herunter, in heller hoch - ist für die Augen besser so).
So konnte ich den Stromverbrauch (des Monitors) senken. Da reduzieren und woanders erhöhen, so dass ich die gleiche Helligkeit erreiche wie vorher.
 
@whtjimbo Da war ich mit meiner alten AMD Konfig weit drüber. Ich hab auch Kernel 5.17 (Ubuntu 22.04 neu aufgesetzt. Bei mir ist im Idle der Stromverbrauch für den Rechenr alleine zwischen 100 und 150W gewesen.
Windows und Linux ganz ähnlich. Die GRafikkarte hat sich da wohl so um 50W gezogen. Die CPU hat auch ordentlich gezogen. Aber die CPU ist eh schon weg. Bin mit dem Intel mal zufrieden.
 
t3chn0 schrieb:
Out of the Box ist RDNA2 deutlich sparsamer als das Pendant von Nvidia. Die 3090 und auch meine 3080Ti haben im Idle ca. 28-30W verbraucht. Die 6900XT benötigt hier nur 8W.

ich tippe auf gysnc ^^
einfach ausschalten. braucht kein mensch.
 
häufige Ursache für den hohen idle Verbrauch ist die Display Refreshrate.

6900XT, Win10,idle:
60 Hz -> 120 Hz: kein messbarer Unterschied
60 Hz -> 144 Hz: 32W mehr

120Hz sind für mich optimal, kein messbarer Mehrverbrauch, sehr geringe Mausverzögerung auf dem Desktop (im Gegensatz zu 60hz)

144 Hz vernichten jede Effizienz
 
Zurück
Oben