Ryzen 3600 Teillast Verbrauch

Berber

Newbie
Registriert
Jan. 2021
Beiträge
3
Es ist schon etwas länger, dass ich ein System gebaut habe.
Jetzt habe ich mir einen Rechner mit Ryzen 3600 gebaut und da mein Gehäuse etwas klein ist, musste ich dies und jenes etwas anpassen. Aus reiner Neugier habe ich ein Energiekosten-Messgerät angeschlossen. Der Ryzen Rechner läuft jetzt ohne PBO und die TDP ist auf 45W in Bios herabgesetzt worden. Der Rechner braucht idle 30W. Bei Musik abspielen ist mir aber aufgefallen, dass es gleich auf 45W steigt. Ich hatte in Erinnerung dass mein alter Rechner mit IvyBridge (4 Kerne) weniger braucht. Alten Rechner angeschlossen und es in Teillast verglichen. Ryzen 3600 idle 30W Ivy Bridge 28W. Musik abspielen AMD 45W und Intel 28W.
Beim Kopieren von einem USB Stick über USB 3.0 AMD 50W und Intel 34W. Meine Frage ist jetzt ob bei alle aktuellen CPUs bei Teillast der Verbrauch so steigt, oder ist es nur bei AMD so? Der Ivy Bridge ist von 2012 und ich hätte eigentlich gedacht, dass neue Architektur zumindest in Teillast nicht schlechter ist. Es macht kein Unterschied ob Energiesparplan AMD Balanced oder Windows Balanced. Kann mir da jemand dabei helfen meine Wissenslücke zu schließen?

Wie verhält sich z.B. ein i7 8700 in Teillast?
 

Anhänge

  • Kopieren_Win10.png
    Kopieren_Win10.png
    81,4 KB · Aufrufe: 362
  • Idle_WIn10.png
    Idle_WIn10.png
    77,6 KB · Aufrufe: 357
  • AMD_Intel.png
    AMD_Intel.png
    82,6 KB · Aufrufe: 353
AMD Ryzen 9 3900X, 7 3700X & 5 3600 im Test: Leistungsaufnahme, Temperatur, Effizienz - ComputerBase https://www.computerbase.de/2019-07/amd-ryzen-3000-test/4/

Hier kannst du die vergleichen. Damals wurden allerdings die X570er Boards eingesetzt, die noch einen höheren Verbrauch haben als die älteren B-Boards. Ich glaube das wären rund 10—15 Watt mehr. Des Weiteren steckt in deinen System ein dedizierte GPU, die sich auch noch etwas Strom nimmt.
 
Wie will man die 2 Systeme denn überhaupt Vergleichen. In dem Intel werkelt Onboard in dem Ryzen ne GPU.
Das macht so keinen Sinn und ist nicht sinnvoll.
Den Vergleich kannst du dir schenken.
 
  • Gefällt mir
Reaktionen: Wow4ikRU und Matthias80
Also wenn ich die 10 bis 15W für die GPU beim Ryzensystem abziehe sieht das ganze meiner Meinung nach doch schon wieder sehr gut für den Ryzen aus ;)

Edit: @Tenferenzu also mein Ryzen 3600 boostet auch einzelne Kerne
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Es ist nicht ungewöhnlich, was du da beobachtest.

Über die Jahre ist die Schere zwischen Idle und Last immer extremer geworden.

Der Boost übertreibt es da im Teillastbereich gerne mal, aber nur so lassen sich in reviews die kleinen Vorteile in den Benchmarkplazierungen erkämpfen.

Vollast sind bei den AMD 7nm Chips super effizient(sofern du nicht PBO aktivierst).
Da liegen sie dann deutlich besser als die 14nm Intel CPUs.

Und Teillast ist leider extrem abhängig von der Situation.
Da wirst du keine zuverlässige Aussage finden, denn je nach Test den ich gesehen habe, sind da mal Intel und mal AMD vorne.

45W fände ich sogar lächerlich wenig. ;)
Mein PC ist bei 72W im Idle.....Pumpe, 8 Lüfter, 6 Laufwerke usw.

Das Problem ist aus meiner Sicht, dass die CPUs nahe an ihrer Stabilitätsgrenze betrieben werden.
Dein ivy Bridge taktet vermutlich mit deutlich unter 4GHz...könnte aber auf 4.5 bis 5GHz übertaktet werden, wenn man an seine Grenzen gehen würde.

Damals hatte Intel auch keine Konkurrenz durch AMD und so läuft die CPU auch im Boost sehr effizient.

AMD hat ihre CPUs für den Serverbereich optimiert....mit tollen Verbräuchen bei gemäßigten Taktraten.
bei 3GHz liefern die eine noch genialere Effizienz.
Aber im Leistungskampf mit Intel müssen sie an ihre Grenzen gehen und dann steigen zwangsläufig die Spannungen und quadratisch damit die Verbräuche.
Intel hängt auf einer alten aber ausgereiften Fertigung und geht ihrerseits nah an deren Grenzen.
Ich denke daher nicht, dass ein aktueller Intel(vergleichbar mit dem 3600), hier sparsamer wäre.

Eher Situationsbedingt mal besser und mal schlechter.

Und dazu kommt der Verbrauch der Mainboards und Grafikkarten.
Die Chipsätze von heute sind komplexer und sind kaum effizienter geworden....mehr Optionen wie USB 3.0, USB-C, RGB, usw. wollen versorgt werden...DDR4 hat zwar weniger Spannung, aber auch höhere Frequnzen und verbraucht auf Seiten des Speicherkontrollers mehr.

Dann steht bei dir, dass der Intel eine iGPU verwendet...die braucht keinen eigenen VRam, hat nur einen Bruchteil der Leistung...keine eigenen Lüfter zur Kühlung(jeder Lüfter kann schon 1-3W ausmachen).
Windows 10 macht viel mehr im Hintergrund und kann den Verbrauch steigern.

Du kannst zum Musik hören auch dein Smartphone als Vergleich zum i5 nehmen.
Dann siehst du, was man mit moderner Technik machen kann.
Die Desktop PCs haben ihre Effizienz und Fortschritte in mehr Leistung verwandelt....nicht in bessere Verbräuche bei geringer Last.

Und trotzdem würde ich vermuten, dass dein Ivy i5 verlieren würde, wenn er auch eine Quadro GPU, und ein Mainbord mit mehr Funktionen mit dabei hätte.
Ergänzung ()

Tenferenzu schrieb:
Im Sinne von, Kerne boosten nicht einzeln sondern die gesamte CPU?
Nein...die Kerne boosten unabhängig und unbenutzte legen sich auch schlafen.
Aber die Spannungversorgung liefert natürlich immer die Spannung für die ganze CPU....orientiert sich also an dem boostenden Kern.
 
  • Gefällt mir
Reaktionen: Tenferenzu und Joker_AUT
Tendenziell braucht Intel weniger Strom als AMD, ja. Aber man kann natürlich immer ein Szenario kreieren, wo es anders aussieht. Dein Szenario lässt den AMD schlechter dastehen, als er an sich ist. Wie andere schon sagten, spielt vor allem die Grafikkarte stark mit rein. Hinzu kommt noch zwei vs. vier RAM-Riegel, verschiedene Mainboards, verschiedene Netzteile, verschiedene Windows-Versionen. Und beispielsweise bei einem Youtube-Video kommt es drauf an, wer dekodiert, GPU oder CPU aka Software, usw.
Siehe der altbekannte 11 Watt PC. https://www.google.com/search?q=11+watt+pc
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Danke für freundlichen und Sachkundigen Antworten.
@Sahit, @DorMoordor Ich habe mir gedacht beim Kopieren wird die Grafikkarte doch kein Einfluss auf Verbrauch haben. Man kann sicher zwei verschiedene Plattformen schlecht vergleichen, aber eine Steigerung beim Kopieren um 20W ist nicht wenig. Als Vergleich habe ich hier nur den alten Rechner und da sind es eben 6W für die gleiche Aufgabe.
@Wilhelm14 ich muss doch Nachfragen, Grafikkarte wird doch kein erhöhten Strombedarf beim Kopieren haben?
 
Auch wenn moderne Grafikkarten Stromsparmechanismen haben, ziehen die fast immer mehr Strom als eine IGP-Lösung. Probier es doch aus und nutzt die Grafikkarte im Intel-Rechner und guck nochmal aufs Energiekostenmessgerät. 🙂
 
  • Gefällt mir
Reaktionen: Wow4ikRU und Baal Netbeck
@Wilhelm14 Danke für Antwort. Eine Grafikkarte verbraucht mehr als iGPU, aber Grafikkarte wird doch beim Kopieren keine Aufgaben übernehmen und dadurch mehr Strom verbrauchen?
 
Berber schrieb:
aber Grafikkarte wird doch beim Kopieren keine Aufgaben übernehmen und dadurch mehr Strom verbrauchen?
Sie braucht nur anwesend zu sein.
Grafikkarten haben einen eigenen Idle verbrauch, der nicht zu vernachlässigen ist.

Und um so mehr Vram, um so größer die Spannungsversorgung ausgelegt ist und um so mehr Lüfter drehen...um so höher liegt der.

Und bei YT Videos übernimmt sie die Video Decodierung, was bei der iGPU auch viel effizienter ist.

Bei meiner Radeon VII hat alleine der Bug im Treiber, der den VRam nicht heruntergetaktet hat, 20W mehrverbrauch ausgemacht.

Und wenn der heruntertaktet braucht er ja weiterhin etwas Energie.
 
  • Gefällt mir
Reaktionen: Wilhelm14
Berber schrieb:
aber Grafikkarte wird doch beim Kopieren keine Aufgaben übernehmen und dadurch mehr Strom verbrauchen?
Der Verbrauch der Grafikkarte wird höchstwahrscheinlich beim Kopieren nicht ansteigen. Aber der liegt ja nie bei 0. Die Grafikkarte einzeln kann man nur sehr aufwendig messen. Was ein Energiekostenmessgerät an der Steckdose misst ist ja der Gesamtverbrauch. Was die Grafikkarte verbraucht, kann man nur indirekt und grob ermitteln, wenn man den Intel-Rechner einmal mit und einmal ohne Grafikkarte laufen lässt. Zumindest sieht man, wieviel "mehr" der Rechner mit Grafikkarte statt rein mit IGP zieht.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Zurück
Oben