Ryzen 5900x und Ram Performanceunterschied zwischen 2400/3600 MHZ

Mordhorst3k

Lieutenant
Registriert
Juni 2008
Beiträge
568
Aloha,

ich habe mir vor 3 Monaten einen 5900x geholt mit einem Aorus B550 Pro v2. Bis vor 3 Wochen habe ich HyperX Savage DDR4 2400 CL14 (HX424C14SBK2/32) benutzt. Nun habe ich G.Skill RipJaws V 3600 MHZ CL16 und merke praktisch keinen Performanceunterschied.

Als ich das Ram bekommen habe ich einfache, oder im Fall der Spiele die integrierten Benchmarks laufen lassen, um grob zu vergleichen. Für eine Bechmark Orgie bin ich zu Faul geworden.

Hyper X Savage 2400 CL14​
G.Skill Ripjaws V 3600 Cl16​
CPU-Z
Singlecore
Run 1656,6654,6
Run 2656,7652,4
Run 3656,6651,2
Mittelwert656,6652,7
CPU-Z
Multicore
Run 19.590,89.504,9
Run 29.577,99.509,5
Run 39.572,99.420,9
Mittelwert9.580,59.478,4
AIDA 64 Extreme - v6.50.5800Takt war nicht fixiert (!)
Speicher lesen (MB/s)
Run 137.074,0
54.117,0​
Run 237.061,054.766,0
Run 337.083,054.709,0
Mittelwert37.072,754.530,7
Speicher schreiben (MB/s)
Run 136.371,054.206,0
Run 236.267,054.059,0
Run 336.263,054.110,0
Mittelwert36.300,3
54.125,0​
Speicher kopieren (MB/s)
Run 135.596,051.439,0
Run 235.596,051.525,0
Run 335.615,051.545,0
Mittelwert35.602,351.503,0
CPU Queen
Run 1138.170,0137.175,0
Run 2137.485,0136.897,0
Run 3137.819,0137.079,0
Mittelwert137.824,7137.050,3
CPU AES
Run 1214.208,0212.001,0
Run 2214.262,0211.633,0
Run 3213.986,0211.280,0
Mittelwert214.152,0211.638,0
CPU SHA3
Run 15.244,05.228,0
Run 25.238,05.217,0
Run 35.231,05.215,0
Mittelwert5.237,75.220,0
FPU Mandel
Run 184.080,083.728,0
Run 283.956,083.632,0
Run 383.897,083.721,0
Mittelwert83.977,783.693,7


Assassins Creed ValhallaHyper X Savage 2400 CL14G.Skill Ripjaws V 3600 Cl16
FPSAVGMINMAXAVGMINMAX
Run 164211456412164
Run 26338132633160
Run 363361356337135
Run 463381446427158
Mittelwert63,333,313963,519,8154,3
CPUAVGMINMAXAVGMINMAX
Run 11674816649
Run 216826166338<- WTF??
Run 31672816727
Run 41672616637
Mittelwert167,332166,3112,8
GPUAVGMINMAXAVGMINMAX
Run 1151319151319
Run 216826161319
Run 3151319161319
Run 4151319151320
Mittelwert15,311,820,815,51319,3

Assassins Creed OriginsHyper X Savage 2400 CL14G.Skill Ripjaws V 3600 Cl16
FPSAVGMINMAXAVGMINMAX
Run 1753168769149
Run 27571307615193
Run 3746134765492
Run 47554102765594
Mittelwert74,817,5133,57633,3132
CPUAVGMINMAXAVGMINMAX
Run 16535654103
Run 2651795467
Run 36513594
Run 465125413
Mittelwert6514055,346,8
GPUAVGMINMAXAVGMINMAX
Run 11311332131185
Run 21311164131141
Run 3171311131511
Run 4131611131118
Mittelwert14,012,8129,513,012,038,8

FarCry New Dawn (Ultra-Preset)Hyper X Savage 2400 CL14G.Skill Ripjaws V 3600 Cl16
FPSAVGMINMAXAVGMINMAX
Run 165821078214107
Run 266821068566107
Run 365821068566106
Run 465821068566106
Mittelwert65,382,0106,384,353,0106,5


Far Cry PrimalUltra-PresetHD-Texturen aktiv
FPSAVGMINMAX
Run 17288106
Run 27187101
Run 37288106
Run 47288105
Mittelwert71,887,8104,5

Bei FC: P weiß ich allerdings nicht mehr, ob das mit dem HyperX oder G.Skill Ram war. Den Werten nach, dürfte das evtl. (!) G.Skill gewesen sein, hatte das auf einen Zettel geschrieben gehabt, obwohl ich mir eine Tabelle mit Lineal gezeichnet hatte - sehr schlau :D

Das Endergebnis ist durchaus als nüchtern zu bezeichnen. Daher muss ich mich unweigerlich fragen: Neues Ram einfach "schlecht", oder altes Ram "zu" gut? Zu viel erwartet? Sieht man sich die Werte an, würde ich die unterschiedlichen Werte als Messtoleranz werten. Andere Werte (vor allem die Spikes bei Assassins Creed) sind definitiv merkwürdig, weil sie das Ergebnis verfälschen.

Anmerkung: Spiele waren auf HDD; nicht SSD. Als OS habe ich Win10 laufen, Grafikkarte ist eine Asus GTX 1070 Dual OC.

Hier noch 2 Screenshots von CPU-Z vom G.Skill, vom anderen habe ich leider nur einen vom SPD Tab.
 

Anhänge

  • CPUZ1.png
    CPUZ1.png
    15,8 KB · Aufrufe: 307
  • CPUZ2.png
    CPUZ2.png
    18,6 KB · Aufrufe: 303
  • CPUZ3HyperX.png
    CPUZ3HyperX.png
    19,9 KB · Aufrufe: 308
  • Gefällt mir
Reaktionen: celica1986, Gurkenwasser, Compatiblewith und eine weitere Person
Das sind sehr viele Werte. Auf einen schnellen Blick wirkt nicht alles konsistent. Auch verstehe ich die Messreihen im Bereich von etwa 15 Frames nicht so richtig.

Zum Ram ist zu sagen, dass du signifikante Vorteile erst dann hättest, wenn du DDR4-2400 CL14 und DDR4-3600 CL14 verglichen hättest. Erhöht sich aber "parallel" zum Takt die Latenz, ist der Effekt kleiner. Nicht alle Spiele sind im Prozessorlimit; nicht alle skalieren gut auf schnellen Ram.

Mordhorst3k schrieb:
Anmerkung: Spiele waren auf HDD; nicht SSD.
Kann eine Störgröße sein.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
kann es sein dass du bei den beiden AC hart im grakalimit hingst? meine 1070 kriege ich da auch mit nem deutlich schwächeren 5820K voll ausgelastet und die von dir genannten fps passen auch gut zu denen die ich da mit der karte erreiche, wobei ich jetzt natürlich nicht weiß welche grafiksettings du da genutzt hast.
 
  • Gefällt mir
Reaktionen: Nureinnickname! und Baal Netbeck
Eventuell ist ein nach die Grafikkarte am Limit und kann das mehr an CPU Geschwindigkeit durch den Speicher nicht umsetzen.
Reduziere Mal die Auflösung und die Darstellungsqualität in einem Spiel bis zum Minimum, dann sollte ein Unterschied feststellbar sein.
 
  • Gefällt mir
Reaktionen: doZ
Hi,
Asus GTX 1070 Dual OC

Wie war denn die Grafikauslastung so bei der Karte? Ich tippe mal auf 100% mit beiden rams?
 
XMP hat wohl 10W von der CPU geklaut, also vom Gesamt-Powerbudget. Hast du dir mal die Taktraten der CPU angeschaut?
 
Zwirbelkatz schrieb:
Zum Ram ist zu sagen, dass du signifikante Vorteile erst dann hättest, wenn du DDR4-2400 CL14 und DDR4-3600 CL14 verglichen hättest.

CL16 @ 3600 sind weniger Nanosekunden (niedrigere Latenz) als CL14 @ 2400...
 
Das mag sein. Aber schon sekundär sind es derer 19. Im Optimalfall würde man die CL14 beibehalten wollen und den Takt möglichst hoch schrauben. Darum ging es mir.

Natürlich sollte man dennoch nicht im GPU-Limit messen - falls das denn geschehen sein sollte.
 
  • Gefällt mir
Reaktionen: Asghan und Baal Netbeck
Die GTX 1070 wird halt nicht schneller, durch schnellen RAM.

Der 2400er RAM reicht schon um die meist voll Auszulasten!
 
Zuletzt bearbeitet:
Was genau hast du Dir durch den neuen RAM versprochen?

Speicher lesen (MB/s)
Run 137.074,054.117,0

Hier sieht man ja einen deutlichen Unterschied. Allerdings wirkt sich das auf die meisten Spiele eben, wenn überhaupt, nur marginal aus. Bei Anwendungen kann es da aber ganz anders aussehen. Natürlich hängt es auch davon ab, wo und wie du limitierst.

Im Bestcase gibt es wohl mal +10%. Meistens deutlich weniger.
 
  • Gefällt mir
Reaktionen: Frader
Mordhorst3k schrieb:
Grafikkarte ist eine Asus GTX 1070 Dual OC.
Sehr witzig. Eine GTX1080Ti ist fast doppelt so schnell und eine RTX3080 ist dann nochmal doppelt so schnell !
Was hast du für eine CPU Auslastung ? 10% ? Da hätte auch ein 5800X, 5600X, 3700X oder sogar 3600 gereicht.
 
  • Gefällt mir
Reaktionen: metallica2006
Kurze Frage, du hast schon im BIOS alles richtig eingestellt und die RAM-Module auch in Steckplatz 2 und 4? Eventuell auch mal das BIOS zurücksetzten und neu einstellen.

Deine Werte sind irgendwie unübersichtlich. Eigentlich reicht doch genau ein Wert und das sind die Frames.
Spiel X - Frames Speicher1 - Frames Speicher2

Dann solltest du die Grafik so einstellen, dass deine CPU limitiert und nicht deine Grafikkarte. Dann merkst du die Unterschiede und dann sollte der neue RAM auch höhere Framewerte rauswerfen.
 
Bei einer 1070 langweilt sich die CPU doch die ganze Zeit, da würde ich keinerlei Zeit und Geld ins optimieren der CPU Performance vergeuden. Der Ram bringt erst was wenn die CPU ins Limit kommt, dann würde es bei 2400 > 3600 aber ordentlich was bringen, allein 3200 > 3600 bringt ja schon etwa 5%, es erhöht sich ja nicht nur der Ram Takt, sondern auch der IF Takt.
 
  • Gefällt mir
Reaktionen: loser
um es mal kurz zu fassen, der RAM ist schneller, siehst du auch bei der Lesegeschwindigkeit im Benchmark. Bringt es dir viel in Spielen? Nein bzw. in deinen Spielen dann halt eher nicht, du bist zu selten im CPU Limit.
Bringt es was wie jetzt vorgeschlagen die Aufloesung etc. zu reduzieren um kuenstlich ein CPU Limit zu erzeugen? Wohl kaum, denn das ist halt auch nicht wie du die Spiele im Alltag spielst.

Bleibt doch jetzt nur noch eine Frage fuer dich uebrig: tut es dir weh oder kannst du damit leben und evtl. spaeter mal irgendwann vom schnelleren RAM Takt prfitieren. Aber das kannst nur du beantworten bzw. wird es die Zukunft dann zeigen

Ende.
 
Interessant finde ich das die CPU-Z Scores sich verschlechtern was darauf hindeutet das die cpu evtl. etwas niedriger taktet durch den leicht höheren Strombedarf wegen dem schnellerem Ram.

Wobei ja auch der Singlescore leicht schlechter wird, wenn auch nur um wenige Punkte.
 
  • Gefällt mir
Reaktionen: schallundrauch
sloven schrieb:
Eventuell ist ein nach die Grafikkarte am Limit

Ziemlich sicher.


metallica2006 schrieb:
Hi,
Asus GTX 1070 Dual OC

Wie war denn die Grafikauslastung so bei der Karte? Ich tippe mal auf 100% mit beiden rams?
Die Karte war bei Assassins Creed durchaus am Limit, habe dem nicht so beachtung geschenkt, aber waren so um die 98%, also Bottleneck. Grafiksettings waren auf Custom und "Hoch". Eigentlich zu hohe Einstellungen und der Karte wird dadurch zu viel abverlangt, leider bin ich bekennende Grafikhure. Wenn ich im Treiber Fast Sync einstelle, gibt es kaum Tearing, da fallen die ~50 FPS (Valhalla) nicht so auf und ist immer noch recht gut spielbar. Bei Odyssey hatte ich praktisch keine Probleme, da hatte ich aber noch meinen 6700k. Valhalla habe ich aber mit dem Ryzen noch nicht gespielt.


0ssi schrieb:
Eine GTX1080Ti ist fast doppelt so schnell
Nicht in meiner Welt. 10-20 FPS, aber mehr nicht. Oder meinst du 2080 TI? Da würde das bis auf ein paar Ausnahmen zutreffen.


Ayo34 schrieb:
Kurze Frage, du hast schon im BIOS alles richtig eingestellt und die RAM-Module auch in Steckplatz 2 und 4?
Klar. Bei CPU-Z sieht man ja, dass Ram und IF Takt synchron sind, also mit 1800 MHZ laufen. Im Bios auch XMP Profil ausgewählt, gibt bei dem RAM im übrigen nur ein einziges Profil.

Was im übrigen merkwürdig ist, dass hat jemand anderes, der ebenfalls einen 5900x, MSI B550 und 3600 MHZ Ram hat. Das Timing für tRC ist laut XMP Profil auf 58, Bios stellt es aber auch 85 ein, wird zwar jetzt nicht soo viel ausmachen, aber ist dennoch merkwürdig. Ist das bei euch mit 5000er CPU auch so?


Bruder_Joe schrieb:
Bei einer 1070 langweilt sich die CPU
Ja, sag das diesem verdammten Scalper Krebsgeschwür. Würde ja gern was neues holen, aber ist halt nicht möglich, auch bin ich nicht bereit das 2-2,5-fache zu zahlen, weil irgendso ein <Lieblingsbeleidigung einfügen>, meint, mir das vor der Nase wegzukaufen. Ich wünsche denen alles erdenklich schlechte und empfinde für die nur abgrundtiefen Hass.
 
Was auch interessant ist bei vielen Tests, dass eben eine viel kleinere Auflösung als FullHD verwendet wird. Dadurch gibt es dann definitiv ein CPU Limit und damit merkt man auch einen Unterschied beim Speicher zwischen 0 und 15%. Wenn man aber reale Testbedingungen hernimmt und eben die Grafikkarte das Problem ist, dann bleibt es bei 0% durch den schnelleren Speicher.
 
Mordhorst3k schrieb:
Nicht in meiner Welt. 10-20 FPS, aber mehr nicht. Oder meinst du 2080 TI? Da würde das bis auf ein paar Ausnahmen zutreffen.
Was soll 10-20FPS bedeuten ? Von ursprünglich 20FPS dann bis zu 20FPS mehr ist doch doppelt so viel !?

gtx1080ti.jpg

Da wurde mit einer FE getestet die "nur" 1800Mhz Boost schafft. Custom Karten 1900-2000Mhz.
 
Zurück
Oben