Langfristige Lösung für Temperaturprobleme (Ryzen 9 5900X)

Tja auf 35-37 Grad Systemtemp komm ich nur wenn neben der CPU auch die GPU
unter stundenlager Gamelast aus allen Rohren voll feuert. Ist für CPU alleine IMHO etwas viel.
Wobei ich hier auch keinen 16K drin habe.
Wie warm ist deine Grafikkarte oder die Laufwerke?

Was auffällt ist, das weder das PPT, TDC noch EDC Limit erreicht wird.
142W PPT, 95A TDC, 140A EDC wäre das normal.
Was auch auffällt ist die grosse Tempunterschied von CCD1 und CCD2 im Max.

War das Allcorelast? Nicht wirklich oder?

Kann man beim DPP 900 die Frontabdeckung abbauen?
Was hast dann für Temperaturen?
 
Ja die CCD Differenzen sind mir auch ein Dorn im Auge. Das war jedoch unter keiner Allcore Last. Bei Allcore Rendering ist die Differenz zwischen den CCDs nur bei 2-3 Grad. Vielleicht hat es auch was mit dem Windows Scheduling zu tun und er den ersten CCD mehr beansprucht. Ohne Deckel habe ich noch nicht getestet. Ist das DBP v2. Komme in Cinebench auch nur auf 9787 Punkte gerade. Wenn der PC frisch startet sind es meist so 10060 Punkte. Ist er erstmal etwas warm sind es weniger. Die Graka wird mit der Front AIO gekühlt und hat 34°C im Idle. Wasser ist bei 31°C. Fans laufen auf minimaler Geschwindigkeit. Aber solange die AIO nicht beansprucht wird sollten die 4 Lüfter genug Frischluft ins Gehäuse fördern.

Mit CB werden PPT, EDC UND TDC erreicht:
Screenshot 2020-12-21 134908.png
 
Ich habe gerade auch mal Powerconsumption verglichen. 9900k@4,7Ghz 90W mit Video offen, Browser offen. Ryzen 5950X 200W im Idle nur Browser offen. Soll AMD nicht effizienter sein? Beide System auf ausbalanciert. Intel 5% minimaler Leistungszustand, AMD 0% minimaler Leistungszustand. Hat AMD denn keine Mechanismen außer den Eco Mode um Strom zu sparen?
 
@monitorhero Das ist komisch. Ich komme mit dem Ryzen 9 5900X auf 40-60 Watt, wenn ich im Internet surfe. Temperatur fällt aber auch nur selten unter 50 Grad. Eigentlich nur, wenn ich wirklich gar nichts mache und nur den Desktop anstarre.
 
Video offen wird vor allem von der Grafikkarte abhängen was die beim decodieren verbraucht.
Da wird die CPU normal nicht gross belastet.

Chipsatz Treiber installiert?

Am ausbalanciert würde ich auch nicht gross rumpfuschen, damit sorgt Windows dafür
dass die Kerne in mehreren Stufen erst runter takten müssen, bevor sie ausgeschaltet werden können.

Bei den älteren Ryzen war der Ryzen Balanced Energiesparplan bei mindestens 99% Takt und darunter
waren die Kerne aus. Sprich Grundtakt, darüber Boost, darunter aus.
 
Zuletzt bearbeitet:
Beide PCs haben die gleiche Grafikkarte verbaut. Beim Ryzen läuft die Karte auf 1400 mhz während sie beim Intel beim Video schauen nur 600mhz anliegen hat. Trotzdem erklärt das nicht den hohen Verbrauch des Ryzen Systems. Bei gleichem Takt der Graka verbraucht der Intel 140W. Immernoch eine große Diskrepanz. Was kann ich hier machen? Eine Neuinstallation habe ich schon versucht und hat nichts gebracht.
 
Chipsatz Driver installieren
https://www.amd.com/en/support/chipsets/amd-socket-am4/x570

Hängt die Grafikkarte an den gleichen Bildschirm(en?) mit gleich viel Hz?
Weil wenn neben der GPU der (VRAM) Speicher auch nicht heruntertaktet,
ist der Verbrauchsunterschied schon zu erklären.


Was die Temperaturdiffernzen der CCD angeht, solange es keine
Allcorelast ist, ist es logisch dass es diese gibt. Der Sheduler wird zuerst die
besseren Kerne für den Boost nehmen und die liegen bei dir wohl auf dem
ersten CCD. Bei CB 20 Allcorelast hast ja auch gute max Temps. Da gibts nix
zu jammern. Die Prime 95 Belastung wirst mit Rendering auch kaum erreichen.

1608577663065.png




Dann ist es auch logisch, dass nach dem Windowsstart bessere CB Werte hast als später.
Windows 10 macht so viel im Hintergrund das raubt natürlich Leistung wenn sich
der Proz nicht voll auf den Benchmark konzentrieren kann.
 
Zuletzt bearbeitet:
Chipsatztreiber sind natürlich installiert. Das ist das erste was ich mache, bei nem neuen System. Beide Grafikkarten hängen am selben Bildschirm bei 60hz. Und wie gesagt. Bei gleichem Takt ist der Unterschied 145 zu 200W. Der Ryzen Rechner hat noch ein paar Lichter und Lüfter mehr. Aber die machen keine 60W Unterschied.
 
Dann wird es vor allem ein Problem mit deinem Grafiktreiber geben.
Es ist nicht logisch, dass die GPU (VRAM?) beim Ryzen höher taktet.
Aber sonst ist die X570 Plattform nicht soo sparsam.
Das macht aber nicht viel mehr als 10-15W+ zum Intel aus.

Dann würd ich sicher noch den Energiesparplan auf Standard zurücksetzen.

Wie sieht es mit dem NT aus, wurde das geändert?
Viel mehr Lüfter, Laufwerke und Beleuchtung?
 
Auch die Grafikkartentreiber habe ich schon neu installiert. Vielleicht gibt es noch einen neueren Treiber. Muss ich morgen mal prüfen.
 
Noch ein Nachtrag zum Thema Stromverbrauch. Ich habe den Stromverbrauch gemessen inklusive 2 angeschlossener Bildschirme, da die alle an der selben Steckdose hängen. Intel verbraucht 90W. Mein AMD Arbeitsrechner mit 3950x (bin im Home Office) verbraucht 140 W. Ohne Bildschirme im Idle 90W. Ich habe also zwei AMD Rechner hier stehen die beide mehr verbrauchen als der Intel. Und bei dem Rechner von der Arbeit habe ich gar nichts eingestellt. Sprich welche Option habe ich den Energieverbrauch zu reduzieren?
 
Habe ähnliches Setup und die Temperaturen sind normal für die CPU. Ich hab das Define 7 und ca. 10 Grad Unterschied bei der CPU-Temperaur von Prime und Cyberpunk.
Habe jetzt grad nebenbei nochmal Prime angemacht und bin bei ca. 70Grad, meistens eher im Bereich 69,.
Bei Cyberpunk bin ich im Bereich 79-82Grad. Kann man einerseits auf die laufende GPU zurückführen, andererseits auch auf die höheren Boosttakte der CPU. Bei Prime bin ich konstant bei ca. 3,8-3,9GHVZ Cyberpunk liegt dort weit drüber. Dementsprechend auch höhere Abwärme.


Sven16071982 schrieb:
Blöde Frage. Aber die Folie unter dem Noctua hast du abgemacht oder?

Also unter dem chroma.black gibts keine Folie, nur eine große, dicke Plastikabdeckung ;)
 
Alle Threads und Small FFTs? Ich komme da auf 3,5 bis 3,6 GHz. Temperatur steigt langsam von 65 auf ca. 70 Grad. Lüfter drehen aber noch nicht auf. TDC Limit.
 
Oha Krass, hier im Forum lernt man täglich dazu. Das mit dem PBO war mir so nicht bewusst.
Prim95 mit Small FFTs:

4,132MHz mit PBO bei 88,9°C, die CPU Package Power hat im Peak 187,7W, pendelt sich auf 175W ein.


AiO: ARCTIC Liquid Freezer II 280 Rev.3
 
  • Gefällt mir
Reaktionen: monitorhero
PBO hat u.a. ein eigenes thermisches Limit und das wird vom PBO auch versucht ausgeschöpft zu werden. Man kann das Limit aber auch runtersetzen wenn einem die Temperaturen zu hoch sind (hab ich selber noch nicht probiert)
 
  • Gefällt mir
Reaktionen: LinuxDoc und monitorhero
LinuxDoc schrieb:
Oha Krass, hier im Forum lernt man täglich dazu. Das mit dem PBO war mir so nicht bewusst.
Prim95 mit Small FFTs:

4,132MHz mit PBO bei 88,9°C, die CPU Package Power hat im Peak 187,7W, pendelt sich auf 175W ein.


AiO: ARCTIC Liquid Freezer II 280 Rev.3
Das sagt mir, dass der Liquid Freezer nochmal 100 mhz rausholt beim selben thermischen Limit. Steige heute auch auf den um. Wie verhalten sich die Lüfter? Steigen sie langsam an oder sind sofort am hochtouren? Und hattest du AM4 Schrauben bei dem Freezer II dabei? Die letzten Bewertungen auf Geizhals sagen alle, dass sie fehlen.

Was krass ist. Wenn ich zocke erreiche ich 90°C ohne PBO
 
Hier war alles dabei, bestellt hatte ich bei dem Onlinehändler mit dem A... Es waren die AM4 scharauben und auch Intel Zeugs dabei. Das Backplate muss man das vom Mainboard nutzen.

Ich habe die AiO im Bios so Konfiguriert, dass die ab 70° CPU Temperatur 100% bläst/Pumpe läuft, man nimmt es wahr, ist aber kein Föhn. Die Fans habe ich umgedreht, jetzt Gehäuse>Radiator>Fan am saugen in das Gehäuse hinein. Im Auslieferungszustand waren die auf "durch den Radiator blasen" montiert.
 
  • Gefällt mir
Reaktionen: monitorhero
Interessant. Nach dem Update auf 20H2 komme ich nur noch auf 85°C beim zocken von Apex Legends.
Aber die CCD0 vs CCD1 Deltas sind extrem. Scheinbar lastet er die nur die Cores des ersten CCD aus:
Screenshot 2020-12-24 123640.png
 
Zurück
Oben