Realer Unterschied im Stromverbrauch von Ryzen 2600 zu 3700X

zombie

Captain
Registriert
Aug. 2004
Beiträge
3.853
Hallo
Ich habe vom 2600er auf 3700X gewechselt, also 6 Core zu 8 Core. Beide haben 65W Kennzeichung. Real siehts jetzt so aus das ich bei geschloßenem Gehäuse unter 3D Last (BF5) von vorher rund 63°C nun die 80°C erreiche. Da beide CPUs mit 65W angegeben sind wundere ich mich schon, dass also der Energieverbrauch doch deutlich gestiegen ist. Kalr machen 2 Core mehr was auch aber dachte so 5°C.
Wie hoch ist der reale Unterschied im Stromverbrauch somit real ? Kann man das in W beziffern ? Mein Corsair VS350W Netzteil wird nun doch ordentlich warm, vorher nur Handwarm, und ich mache mir so meine längerfristigen Gedanken ob ich das so lassen kann.

Könnte man mal Undervolting probieren oder hebelt man dann das automatische steuern der CPU aus ?

Danke
 
Zuletzt bearbeitet:
Ein 350Watt netzteil bei einem 3700x und einer GTX 1060 ist auch wirklich relativ knapp.
https://www.computerbase.de/artikel/prozessoren/amd-ryzen-3000-test.68142/seite-4
Du siehst, dass die 3700X immer etwa 8-15 Watt mehr verbraucht. Das liegt am auch am verwendeten Mainboard beim Test. Die x570er brauchen so 9Watt mehr. Also ist der Mehrverbrauch zwischen 2600er und 3700xer in diesem Test vernachlässigbar.
Die Temperaturunterschiede liegen am Chiplet-Design der Ryzen 3000er. Die lassen sich einfach schwerer kühlen als die Ryzen 2000.
 
Der CB Test LINK sagt 13W unter Volllast.
 
  • Gefällt mir
Reaktionen: spcqike
Hört sich an, als wäre eine Auto-OC Funktion auf dem Board aktiv. Schau Mal, dass dies ezüglich alles deaktiviert wird

Was für einen Kühler hast du?
Mein 3700x ist so sparsam wie es erwartbar ist. Läuft deutlich sparsamer als der 2700x davor
 
Volllast sind die fast gleich. Teillast aber nicht und da verbraucht der 3700x mehr.
 
Danke für die Links, danach sollte der Unterschied ja nur gering sein. Im Teillast sind mir die kurzen Leistungspitzen schon aufgefallen und stören bisher nicht. Mich wundert das unter Last auf allen Cores ca. 4200Mhz anliegen, dachte das bezieht sich nur auf Single Core und Multicore wären es 3.6Ghz ? Im Bios ist soweit alles auf Auto und an Ocing Software habe ich nichts mehr drauf.
 
ich denke auch dass der Link, den @Axxid geschrieben hat, am meisten sagt.
unter 100% Auslastung der CPU zieht der 3700X wohl 13W mehr aus der Steckdose, als ein 2600. 13W sind 13W und die wollen irgendwo hin.

ich frag mich aber auch grade, kommt der Anstieg der Temperatur allein von der CPU? Oder hat die CPU vorher limitiert? Kann die Grafikkarte jetzt auch mehr machen/ziehen/berechnen weil die CPU mehr Leistung bietet? und kommt daher auch noch mehr Wärme?
Zugegeben, ich hab keine Ahnung ob dein 2600 vorher limitiert hat oder nicht, aber diese Möglichkeit besteht auch. :)

Qarrr³ schrieb:
Volllast sind die fast gleich. Teillast aber nicht und da verbraucht der 3700x mehr.

die Teillast ist aber nicht zwangsweise identisch.
Benötigt ein 2600 für eine gewisse Spieleleistung (bspw. konstant 60FPS) 80%, braucht der 3700x vielleicht nur 50%. einfach weil er mehr Kerne hat, die schneller sind, ein moderneres Fertigungsverfahren hat, ne bessere IPC Leistung etc. pp.
Aufgaben, die einen 2600 auf 1 Kern zu 100% auslasten, lasten einen 3700X nicht auch zu 100% aus.
Daher ist der direkte Lastvergleich (100% 1 Kern) mehr Äpfel mit Birnen vergleichen, als reale Szenarien vergleichen. Weiterhin ist der 3700X mit einer Singlecore Aufgabe schneller fertig, als der 2600, und kommt damit schneller in den Idle Zustand zurück.
 
13W gelten aber nur für den X570. Mit dem alten 400er Chipsatz ist der Unterschied Null--> klick (steht im Text)
 
Zuletzt bearbeitet:
zombie schrieb:
Wie hoch ist der reale Unterschied im Stromverbrauch somit real ? Kann man das in W beziffern ?
Unter Vollast (Prime95) ist die Leistungsaufnahme identisch, da die PPT in beiden Fällen bei rund 87/88W liegt. Der Unterschied bei der Leistungsaufnahme im CB Test (des Gesamtsystems) ist auf den X570 Chipsatz zurückzuführen, welcher beim 3700X zum Einsatz kommt.
8EA32907-0900-438E-AF5F-AC0DDC2F3FE8.jpeg
Die Temperaturunterschiede werden durch die 7nm Herstellung verursacht. Vereinfacht: Kleinere Herstellung = schnellere Temperatur Sprünge und höhere Temperaturen. (Bei gleicher Leistungsaufnahme)
zombie schrieb:
Könnte man mal Undervolting probieren oder hebelt man dann das automatische steuern der CPU aus ?
Wenn du mit einem Minus-Offset arbeitest, ist das kein Problem. Alternativ kannst du auch die PPT von 88W auf zum Beispiel 65W Herabsetzen.
 
Zuletzt bearbeitet:
Nizakh schrieb:
Die Temperaturunterschiede werden durch die 7nm Herstellung verursacht. Vereinfacht: Kleinere Herstellung = schnellere Temperatur Sprünge und höhere Temperaturen. (Bei gleicher Leistungsaufnahme)

Korrigiere mich bitte, wenn ich mich irre, aber führt die kleinere Fertigungsgröße (7nm) nicht zu geringeren Spannungen (V_Core) und damit zu geringere (Wärme)Leistung bei gleichem Stromfluss?
Ist das nicht der Grund der Verringerung der Fertigungsgröße, kleinere Betriebsspannungen zu erreichen und damit mehr Effizienz bzw. höhere Taktraten?
 
Das ist grds. richtig, aber es führt eben auch zu einem kleineren DIE, von dem die Abwärme abgeführt werden muss. In Summe kann die CPU also wärmer werden, trotz kleinerer Strukturbreite.

Das sei dem TE auch ans Herz gelegt, die CPU Temperatur hat eben nur bedingt mit dem Stromverbrauch zu tun.

Dafür muss man sich eingehender mit den Themen TDP, Abwärme, DIE Größe und Realverbrauch beschäftigen...
 
@Nizakh sagt ja aber ganz richtig: bei gleicher Leistungsaufnahme. Das Problem ist aber nicht alleine der Fertigungsprozess von 7nm sondern die daraus resultierenden kleinen Chips (in quadratmillimetern).

Überspitzt ausgedrückt: ein stecknadelkopf der mit 1000 Watt gekühlt werden muss ist schwieriger zu kühlen als eine Metallplatte von der Größe eines Fußballfelds (Hallo Galileo)
 
Mir gehts weniger um die reine CPU Temperatur sondern des gesamten Systems bzw. dem des Netzteils. Es scheint insgesamt merklich mehr Abwärme im System und im Netzteil zu entstehen (von 63°C vorher zu 80°C jetzt) und es wurde nur vom 2600 zum 3700X gewechselt. Aber ich werde heute auch wenn es nicht die Ursache findet mal schaun ob ich das Case besser belüftet bekomme.
 
Es kann auch sein, dass deine GPU vorher nicht auf 100% lief, weil die CPU sie beim spielen ausgebremst hat. Jetzt zieht die GPU bei voller auslastung mehr ausm netzteil (das ist aber nur vermutung).
zombie schrieb:
Es scheint insgesamt merklich mehr Abwärme im System und im Netzteil zu entstehen (von 63°C vorher zu 80°C jetzt)
Ist das jetzt die Gehäuse-Innentemperatur?!?!??!!? Ich dachte es ist die CPU-Temp (um die es dir ja aber eigentlich nicht geht...)
 
Die Grafikkarte wird jetzt mehr befeuert. Außerdem war es vorher ohne X und jetzt mit X, d. h. unter Last entsteht schon deutlich mehr Wärme.
Und die 3000er mit 7nm werden wärmer als die alten 2000er.
 
hast du denn mal gemessen ob mehr Strom aus der Steckdose gezogen wird?

Nochmal, die reine Temperatur Angabe so wie du sie vergleichst hat das nicht unbedingt zu bedeuten das mehr Energie Verbraucht wird.

Die Oberfläche über die der 3000 seine Wärme abgeben kann ist kleiner.

Wenn du 10W auf 1x1cm abgeben musst oder über 2x2cm Oberfläche, dann ist bei dem Kleineren die Temperatur logischer Weise höher.
 
  • Gefällt mir
Reaktionen: wahli
Also mir fällt an deinem Setup die krasse Diskrepanz zwischen relativ teuren Komponenten (CPU + GPU jeweils aus der 300€-Klasse, Eizo-Monitor) und einem Netzteil der Schrottklasse (unter 40€) auf. Iirc ist dieses Netzteil max. nach ATX 2.3 spezifiziert, und wenn ich mich recht erinnere waren die Tests für das VS350 eher katastrophal ausgefallen. So einem Schrotthaufen würde ich mein teures Equipment nicht anvertrauen (und schon gleich gar nicht unbeaufsichtigt laufen lassen - aber dazu hattest du nichts geschrieben, deshalb ot).
 
  • Gefällt mir
Reaktionen: Nitschi66
verbaliBerlin schrieb:
Die Oberfläche über die der 3000 seine Wärme abgeben kann ist kleiner.

Die DIE ist kleiner, aber das (der) Heatspreader ist gleich groß. Sollte der Kühlkörper nicht bei gleicher CPU-Last und Lüftergeschwindigkeit ähnlich warm werden? Klar, die Kerntemperatur (also im DIE) wird höher sein, da die Fläche kleiner is und eine kleine Fläche einfach weniger Wärme abgeben kann als eine große, aber die Gesamtenergie/Wärme, die sich über die DIE auf den Heatspreader und dann auf den Kühlkörper verteilt, ist doch die gleiche ...
Und: Die Wärmeübertragung ist schneller/effizienter, je größer der Temperaturunterschied beider Partner ist.

Ich tippe immer noch darauf, dass das gesamte System mit dem potenteren Prozessor einfach mehr Last produziert und dass das Gespann aus CPU und Grafikkarte nun mehr Abwärme erzeugt.

Beispiel, ohne dass die Zahlen stimmen müssen, nur zur Veranschaulichung
2600 + Graka 50FPS (CPU am Limit, Graka entspannt 30%)
bestcase: 3700X + Graka 60FPS mit V-Sync (CPU 70%, Graka 60%)
worstcase 3700X + Graka 80FPS ohne V-Sync(CPU 100%, Graka 100%)
worstcase, weil 20FPS mehr berechnet werden, als dargestellt werden können. 33% mehr Bilder (60 zu 80) und damit 33% mehr Last/Aufwand/Energie...

Im umgekehrten Fall hat mein letztes Upgrade (CPU + Graka) dazu geführt, dass die Leistungsaufnahme an der Steckdose bei meinem Games um 20W zurück gegangen ist, die FPS gleichzeitig gestiegen sind bei erhöhter Grafikeinstellung. Klar, wenn ich V-Sync deaktiviere und mehr FPS berechnen lasse, als angezeigt werden können, genehmingt sich das neue System auch mehr Strom, aber wenn es nur berechnet, was sinnvoll berechnet werden muss, eben nicht mehr.
 
Zurück
Oben