Leserartikel Curve Optimizer Guide Ryzen 5000

Die -30 Offset Allcore mit +150 Boost sind in der normalen Praxis (10h Gaming + diverse Stunden Streaming) samt 1h Prime + Cinebench tatsächlich stabil. Allcore Boost liegt dauerhaft bei 4.7, Single bei 4.98. Ohne PBO sollte das erstmal passen - auch wenn es interessant wäre das Limit auszutesten, ist das soweit ein ordentliches Leistungsplus bei gleichem Verbrauch.
 
Mit dem Ryzen 5600 habe ich heute auch einige Versuche unternommen. Begonnen habe ich mit CO -20 auf allen Kernen, was bisher keine Instabilität verursacht hat. Boost Override war deaktiviert ... damit gibts maximal einen Boost auf 4450Mhz.

In Cinebench R23 ist das Ergebnis nun etwa 10800, zuvor waren es 10200. Die Spannungen habe ich mir auch angeschaut, aber erst nach der Anwendung von CO -20. Hier das Ergebnis

Core
Voltage in mV (SVI2 TFN)
Kommentar
Clock
HW Info Quality
CoreTunerX Results
Preferred Core Order
0​
1075​
CO -20​
4441​
1/1​
143​
1​
1​
1088​
CO -20​
4441​
5/6​
127​
6​
2​
1077​
CO -20​
4441​
2/3​
139​
3​
3​
1083​
CO -20​
4441​
4/5​
131​
5​
4​
1083​
CO -20​
4441​
3/4​
135​
4​
5​
1077​
CO -20​
4441​
1/2​
143​
2​

Welches CO-Delta wäre denn empfehlenswert zwischen dem besten und schlechtesten Kern als Startwert für weitere Tests?
 
  • Gefällt mir
Reaktionen: Fabian_otto
Noch eine Frage. Wie kann ich am einfachsten / schnellsten testen, ob es Clock Stretching gibt? Last von 2 Threads auf einen Core und den effektiven Takt beobachten?

Was ich sehe ist, dass T0 und T1 zusammengezählt im Best Case dem realen Boost-Takt entspricht... die Werte schwanken auch häufig. Eine Ausnahme ist Core 0 T0 ... das zeigt immer den maximalen Boost-Takt an und in Summe mit T1 liegt der Wert deutlich über dem Boost-Takt. Sieht für mich fast wie ein Bug aus.
 
Bin jetzt mittlerweile bei CO -30 und Boost Override bei +200 angekommen ... weiter gehts hier nicht, weil die Firmware die Einstellungen limitiert.
Gibt dann in Cinebench R23 Scores von 1533/11183 vs 1460/10181@Default. Das ist schon ganz ordentlich ... mal sehen wie es mit der Langzeitstabilität aussieht.
 
  • Gefällt mir
Reaktionen: Buggs001
Hat eigentlich hier schon jemand mit negativen Core Takt Offset gespielt? Muss zugeben, dass mich der 5800X3D schon sehr eifersüchtig macht bei seiner Teillast-Effizienz (u.a. Gaming). Und der Hauptgrund dafür ist die begrenzte Boostspannung (und Takt).

Nun habe ich mir einfach eine ähnliche Boost-Curve nachgebaut. Mein 5900X läuft aktuell mit -450 MHz Core Offset (4500 MHz max. Boost) was auch ermöglicht, -30 CO auf allen Kernen zu fahren (mit vollem Boost -15 CCX1, -25 CCX2).

Ergebnis: Es liegen beim Gaming, Surfen etc. nur noch max. 4,5 GHz an und das bei gerade einmal ~1,15V in der Spitze. Das bringt meine Teillast-Effizienz enorm nach vorne (einfacher Vergleich: CPUz 1 Thread ~70W -> ~40W bei 684 -> 625 Punkten ---> 9,8 Punkte/W -> 15,6 Punkte/W und damit fast 60% bessere Effizienz).

Man muss das ganze natürlich nicht so extrem betreiben, aber alleine auf 200 MHz zu verzichten sollte die Boost-Spannung schon unter 1,3V bringen und damit enorm effizienter sein, als bei den Stock ~1,48V
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Buggs001
Mein 5600x hält beim Gaming fast immer die 4,6-4,7GHz und wird selten wärmer als 71°.

Was kann man denn erwarten, wenn man die ganze Zeit in den Curve Optimizer investiert?
Weniger Temperatur und Verbrauch bei gleicher Leistung? Mehr Leistung?

Gibt es dazu Bechmarks?
Hintergrund ist der, dass ich mir ne 3080 gegönnt habe und diese auch adäquat mit CPU Leistung versorgen will :)
 
Immer CPU abhängig und was diese mit macht.
Deswegen sind Benchmarks von einer CPU nicht auf eine andere übertragbar.

Grundgedanke ist, dass du mit dem CO gleiche oder mehr Leistung bekommst, bei weniger hohen Voltages, was dann uU. zu einer geringeren Temperatur führen kann.

Da spielen dann aber auch Umgebungstemperatur und eingestellte Powerlimits eine Rolle.

Wenn du dir nicht sicher bist ob deine CPU die GPU befeuern kann, benche deine Spiele im CPU Limit und schau was du dort an FPS bekommst, das kannst du dann auch in höheren Auflösungen mit der GPU erreichen, sollte diese es schaffen.
 
Zuletzt bearbeitet:
Ich will meinen neuen 5800X 3D erstmal nur kühler bekommen ohne Leistung einzubußen.
Das möchte ich mir gern auch so einfach wie möglich machen - hab mit OC/UV von CPU's bisher praktisch keine Erfahrungen, auf die letzten 5% Optimierung oder so kommt es mir erstmal nicht an, und praktisch alle Guides (auch dieser hier) gehen mir dann für erste Annäherungsversuche an das Thema schon (zu) sehr ins Detail bzw. sind sehr zeitaufwändig, muß ich gestehen ;)

Zur Zeit (allerdings auch warme Außentemperatur) hab ich
  • im Idle auf dem Desktop ~38°,
  • bei "normaler" Arbeit und Browser 40-50° mit kurzen Peaks >60/65° beim Öffnen eines Programms,
  • unter VR-Gaming-Last ~70°,
  • Prime95 ist nach vier Minuten bei 90,9°.
Alles in normalem Rahmen, soweit ich das beurteilen kann - aber einen Hauch kühler wäre schon schön, damit die Radi-Lüfter länger ruhig bleiben :)

Um für meinen Versuch dann mal @Romek von Seite 1 zu zitieren:
Romek schrieb:
Ich habe mir das ziemlich einfach gemacht.
PPT auf 100 Watt gesetzt.
Curve Optimizer auf -10 all Core gesetzt.
Ein CineBench Durchlauf - läuft
Curve Optimizer auf -20 all Core gesetzt.
Ein CineBench Durchlauf - läuft
Curve Optimizer auf -30 all Core gesetzt.
Ein CineBench Durchlauf - läuft
CurveCycler gestartet und geschaut, welcher Core aussteigt. Beim ersten Match ins BIOS und in 5er Schritten den Wert gesenkt.
Bis der CoreCycler komplett durchgelaufen ist, war ich bei den Werten gelandet: -25-20-30-30-30-15-30-30

Bis jetzt haben alle Benchmarks, Spiele, VMs keine Probleme gehabt.
CPU: 5800X

=> Ich setze also
1. "Geschichten wie Global C States Enabled, PSS Support Enabled (ehemals Cool & Quiet) und und und"
2. "5800X TDP = 142w PPT 95A TDC 140A EDC" => Das dürfte für den 5800X 3D ja genauso gelten, oder? Finde bei AMD unter den "full specifications" zum 5800X 3D direkt leider nix zur PPT...
3. PPT damit 142W (weniger richtet aber nie Schaden an, korrekt? Da könnte ich mich dann mittelfristig an dem orientieren, was mir der HWInfo im Laufe der Zeit unter Last meldet, hau da 10-15W Sicherheit drauf (solange ich unter 142 bleibe; aber das ist beim 3D ja auch locker zu erwarten), und komm am Ende wahrscheinlich auch so bei +/- 100 raus... oder?)
4. Curve Optimizer alle Cores -10
5. ... und dann testen und gucken, ob und was es bringt.
6. Evtl. in einem zweiten Schritt noch auf -15 erhöhen - nach allem, was ich gelesen habe, machen das die meisten 5800X 3D noch problemlos mit.

Korrekt?

7. Irgendwann später dann mal mit viel Zeit und einem Hauch Mehr an Erfahrung dann die Grenzen ausgelotet.


Danke für ne kurze Rückmeldung :)
 
Der 3D kann oft mit -30 auf allen Kernen betrieben werden, zumindest was ich bislang so in den Foren lesen konnte.

Mein Board bietet die CO Option nicht an und das aktuelle 1206C ist ein Schmutz BIOS (Beta CPU kann ja auch ruhig mit Beta BIOS betrieben werden :/).

Powerlimit sollte beim 3D ebenfalls wie beim normalen 5800er bei 142/95/140 liegen, korrekt.
Wichtig ist, dass es stabil läuft. einfach core cycler laufen lassen mit verschiedenen presets und schauen ob Kerne aussteigen.

Ich persönlich würde die CPU vermutlich mit 105/80/103 betreiben, die Powerlimits werden bei meiner CPU nicht erreicht, selbst bei Volllast, da ich dann schon im Taktlimit hänge.
 
Verangry schrieb:
Mein Board bietet die CO Option nicht an und das aktuelle 1206C ist ein Schmutz BIOS (Beta CPU kann ja auch ruhig mit Beta BIOS betrieben werden :/).

Danke Dir :)

Ja, ich hab für meins auch nur ne 1206C, aber zum Glück aus der Beta draußen. Da ich noch nicht nachgesehen habe, ob ich da die CO Optionen habe und Du das Tutorial ja auch mit MSI geschrieben hast, befürchte ich jetzt fast, daß ich die dann auch nicht habe... :/
Also müßte ich das entweder irgendwie softwareseitig unter Windows dann machen, oder ich warte, bis MSI das mit ner 1207 hoffentlich wieder freischaltet.
Eilt auch erstmal nicht. Beim Start des Spiels vorhin ging die Temp zwar mal ganz kurz in ne Lastspitze von 78°, weil er da wohl ziemlich sensibel auf ne Spielaktualisierung reagiert hat - aber im VR-Spielbetrieb selbst dann zwischen 66 und 73, also für nen 5800X-3D absolut im Normbereich. Und das trotz fast schon hochsommerlicher Temperaturen auf meinem Dachboden!

Ich check das beim nächsten PC-Start fix im BIOS, ob die CO-Funktion vorhanden ist, dann weiß ich Bescheid und kann mich am Wochenende in Ruhe drum kümmern :)
 
Vielen Dank für die Anleitung, die hat mir hier bei meinen ersten Optimierungsversuchen schon stark weitergeholfen.

Bin aktuell bei meinem 5950X bei folgenden Werten, falls es interessiert:
Code:
Kern    Offset
Core0    -21
Core1    -16
Core2    -29
Core3    -27
Core4    -30
Core5    -7
Core6    -17
Core7    -14
Core8    -29
Core9    -30
Core10    -30
Core11    -30
Core12    -26
Core13    -30
Core14    -30
Core15    -30

Reduziert hab ich in 2er-Schritten und dann immer 3 Durchläufe CoreCycler (HEAVY, je Kern 6min) getestet.
Mir ist klar, dass das noch nicht allzu viel über die Stabilität aussagt, aber jetzt wo ich bei den höheren Kernen bei den -30 angekommen bin, hatte ich nach weiterer Reduzierung in den ersten Kernen (konkret: Kerne 2-4) Abstürze vom System, sobald der CoreCycler die anderen Kerne geprüft hat (konkret: 8 und 12), obwohl vorher die Kerne schon mehrmals i.O. mit den entsprechenden Offsets geprüft wurden.

Womit kann das zusammenhängen?
 
Kann dir jetzt schon sagen, dass das nicht stabil ist.-30 bei so vielen Kernen ist zu optimistisch auch wenn der CC durchläuft. Ob das System wirklich stabil ist siehst du im Alltag. Das blöde ist dass sich die Kerne auch gegenseitig beeinflussen. Dann will man noch Ram optimieren, GPU optimieren, da kommen viele Variablen zusammen und huch was man dachte was vorher stabil ist ist es nicht mehr. Mit 16 Kernen ist das kein Spass. Erfahrungsgemäss liegen die besten Kerne bei bis -10. Den Rest dann versuchen bis -20 einzustellen. Ab dann ist es einfach eine Frage der Zeit und der Geduld, kannst immer mal 1-2 Kerne versuchen mehr negativen Offset einzustellen in 2er Schritten. Man kann sich selbst denken und vermutlich errechnen wie gross die Wahrscheinlichkeit ist alle Kerne optimal einzustellen.
 
Na du machst mir ja Mut :mussweg:
OK, werde ich so mal machen und mit meinem Setting starten, das zumindest schon mal 24h im CC lief und mich dann mal ganz langsam weiter vortasten - danke
 
Mit dem neuen BIOS und damit einhergehend neuem AGESA (Oder ist es neue AGESA? Als jemand der sich immer über "Der CPU" aufregt, ist das wichtig für mich) funktioniert nun endlich auch der Curve Optimizer vernünftig.
Ursprünglich wollte ich als Basis die Autosettings von Ryzen Master nehmen, allerdings gab es bei ~95% immer das gleiche Fehlerbild: Absturz, Neustart, und sobald Ryzen Master startet beginnt das von neuem.

Entsprechend habe ich mal händisch angefangen mich heranzutasten. Als Basis habe ich den Cinebenchtakt genommen (der sich nur bedingt mit den besten Kernen pro CCD deckt), und habe dann den Offset etwas erhöht, bis es einen Crash/BSOD gab und dann die letzten Änderungen rückgängig gemacht.

Mittlerweile scheint alles stabil zu sein, auch wenn bestimmt noch stellenweise Luft nach unten ist, da werde ich aber erst in 2 Wochen mal herangehen, da ich jetzt nochmal sicherstellen will, dass das Setup so zu 100% stabil ist.


Was mir noch aufgefallen ist: Auch wenn Ryzen Master etwas anderes behauptet, so scheinen meine besten Kerne mittlerweile etwas weniger zu boosten, "nur" noch 4,96Ghz anstatt 4,99. Mit der alten AGESA Version waren es sogar 5,05 (die Ryzen Master Angabe hat sich mit dem Update auch um 50Mhz reduziert).
Nicht, dass es im Realbetrieb etwas ausmacht, es hat mich lediglich etwas gewundert.

Aktuell liegen im Cinebench 4,17Ghz auf allen Kernen an, denke dass ich mittelfristig noch 4,2Ghz knacke.
EDC liegt bei 150A, PPT leicht auf 145W erhöht.

1: -7
2: -10
3: -10
4: -10
5: -8
6:-10
7: -10
8: -10
9: -20
10: -20
11: -22
12: -18
13: -18
14: -17
15: -17
16: -16

Problem bei mir ist, dass der hohe Speichertakt den SOC am Idlen hindert, und dadurch natürlich 10-15W mehr verbraucht. Ich überlege daher auch, das PPT auf 155W, und EDC auf 160A anzupassen, um das auszugleichen.

Macht es euer Erfahrung nach Sinn, beim guten CCD noch weiter nach unten zu gehen, oder sollte ich mich auf den schlechteren konzentrieren?
 
Hi

Was kann man machen um den max boost zu optimieren ?

Mit Agesa 1.2.0.7 macht EDC ja max 140 Ampere mit.....

Komme jetzt nicht mehr über 4900 mhz....egal was ich probiere.

Die besten Kerne auf 0 ..lassen ? Oder auch ins minus ?

Gruß Bernd
 
Thanok schrieb:
Problem bei mir ist, dass der hohe Speichertakt den SOC am Idlen hindert, und dadurch natürlich 10-15W mehr verbraucht.
Mit SoC idlen meinst du das Heruntertakten des IF bei geringer Last? Ich wollte das bei mir mal testen, hat aber irgendwie nie funktioniert, obwohl ich den Speicher mit dem Jedec-Profil laufen ließ und Overclocking etc deaktiviert hatte.

Abgesehen davon, würde dir aber ein geringerer Idle-Verbrauch meiner Meinung nach nichts bringen, da der geringere Verbrauch unter Last wieder verschwinden sollte.
 
habe einen 5600er erstanden (B-Ware) für 165€. kann ich diesen getrost auf -30 stellen beim CO, weil alle neuen ryzen der neuesten fertigung (B2 stepping) so gut gehen?
 
Muss man ausprobieren, aber vielleicht nicht direkt bei -30 starten. Ich hatte mit -30 zunächst keine Probleme bei Tests mit dem Corecycler, aber irgendwann hatte ich einen Rechnerabsturz. Deshalb bin ich jetzt auf -27 runtergegangen.
 
  • Gefällt mir
Reaktionen: Fabian_otto
Zurück
Oben