Ram Upgrade auf 32 GB für 3700x

GrumpyDude

Lt. Commander
Registriert
Okt. 2007
Beiträge
1.397
Hallo,

habe ein B450 Board (MSI Gaming Pro Carbon Plus) mit einem auf 4,3 Ghz übertakteten 3700x. Arbeitsspeicher habe ich 16 GB (2x8) von G-Skill RGB mit 3200 Mhz und CL16.

Ich will jetzt 32 GB haben. RGB ist muss.

Jetzt habe ich folgende Optionen:

1) Gleichen Set nochmal kaufen, dann habe ich 4x8GB Riegel.
Vorteil: günstig, sieht auch optisch cool aus mit 4 ausgerüsteten RGB Bänken.
Nachteil: Gäbe es Geschwindigkeitseinbußen wg der Verdrahtung meines Mainboards? (Daisychain vs T-Verdahtung)?

2) 2x16 GB 3200 Mhz, CL16
Vorteil: günstiger als Option 3)
Nachteil: teurer als Option 1) obwohl gleich schnell (?)

3) 2x16 GB 3200 Mhz, CL14
Vorteil: Wahrscheinlich am schnellsten
Nachteil: Teuer, lohnt es sich?

4) 2x16GB 3600 Mhz, CL16
Ist 4) besser als 3) bei meiner Konfiguration bzg. Geschwindigkeit?


Vielen Dank
 
Betreibst du RAM OC oder ist dir das normale XMP Profil ausreichend? Laut MSI Support Seite ist nur ein KIT für Vollbestückung getestet. Wenn du nicht den genauen KIT Namen hast bleibt immer ein kleines Risiko. Obwohl man mit etwas Wille sicher auch das stabil ans laufen bekommt. Wenn es läuft hast du meiner Ansicht nach keine Geschwindigkeitseinbußen, warum auch? Ich persönlich würde Variante 1) wählen als nächstes kommt eh DDR5 da helfen einem die DDR4 Kits auch nicht mehr wenn man irgendwann ein neues System basteln möchte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
Wie viel traust du dir beim manuellen einstellen des RAM zu? Hast du an sowas Spaß oder verlierst du schnell die Geduld?

32GB sind potentiell immer problematischer als 16gb... Aber mit einer Zen2 CPU sollte Variante 1 funktionieren und wäre auch meine Empfehlung.

Variante 2.... Hier hat du die gleiche Geschwindigkeit wie 1, aber du musst dein altes Kit verkaufen.... Würde ich nicht machen.

Variante 3 ist sehr teuer(zumindest 14 14 14 34)....dann würdest du Samsung B die bekommen.
Das ist (nur mit xmp Profil )aber kaum schneller als 16 18 18.... Damit sich das lohnt, musst du schon ein paar Tage in RAM OC, stecken und dich an niedrigen tRFC Werten und wenigen ns besseren Latenzen erfreuen.

Variante 4 ist ähnlich zu 3... Teurer als 1.... Aber erst wirklich schneller, wenn du ein paar Tage ins manuelle Timings einstellen gesteckt hast.
Sonst lohnt sich das meiner Meinung nach nicht... Vor allem weil es schnell passieren kann, dass 3600 MHz nicht mit xmp stabil sind.
 
Baal Netbeck schrieb:
Wie viel traust du dir beim manuellen einstellen des RAM zu? Hast du an sowas Spaß oder verlierst du schnell die Geduld?

32GB sind potentiell immer problematischer als 16gb... Aber mit einer Zen2 CPU sollte Variante 1 funktionieren und wäre auch meine Empfehlung.

Variante 2.... Hier hat du die gleiche Geschwindigkeit wie 1, aber du musst dein altes Kit verkaufen.... Würde ich nicht machen.

Variante 3 ist sehr teuer(zumindest 14 14 14 34)....dann würdest du Samsung B die bekommen.
Das ist (nur mit xmp Profil )aber kaum schneller als 16 18 18.... Damit sich das lohnt, musst du schon ein paar Tage in RAM OC, stecken und dich an niedrigen tRFC Werten und wenigen ns besseren Latenzen erfreuen.

Variante 4 ist ähnlich zu 3... Teurer als 1.... Aber erst wirklich schneller, wenn du ein paar Tage ins manuelle Timings einstellen gesteckt hast.
Sonst lohnt sich das meiner Meinung nach nicht... Vor allem weil es schnell passieren kann, dass 3600 MHz nicht mit xmp stabil sind.

Danke,
Dann ist mein Favorit gerade Variante 1, einfach wegen dem Preis.

zwei Fragen

1) Ich hab Spaß am Overclocking und generell am Tunen der Systemsettings. Würd aber gern wissen, wieviel sich die Gaming Performance mit CL14 erhöhen könnte. Meine Spiele sind hauptsächlich Anno, Star Citizen und hier und da mal ein moderner Shooter (BF/CoD etc). Bald der neue Flugsimulator von MS, von dem wir nix wissen.

2) Bei Variante 1, also mit 4x8GB CL16, könnte ich das XMP Profil (Profil 2 momentan) laden oder ist das eher so eine 50/50% Glückssache?
 
Ich betreibe 4x16GB Module und habe die ohne Probleme von ursprünglich 3000CL15 auf 3600CL16 am Laufen.
So viel zu Vollbestückung.

Für die Gaming Performance ist es quasi irrelevant ob CL14 oder CL16 und 3200CL14 vs 3600CL16 sowieso.
Die GPU ist hier hauptverantwortlich.
 
Creeping.Death schrieb:
Für die Gaming Performance ist es quasi irrelevant ob CL14 oder CL16 und 3200CL14 vs 3600CL16 sowieso.
Die GPU ist hier hauptverantwortlich.
Eine ****** Verallgemeinerung. :grr:

Ist er im GPU Limit, dann sind nicht nur die Timings egal....dann ist auch alles andere egal......
Er hat aber mit Anno(ich gehe von 1800 aus), Star Citizen und dem Flugsimulator tendenziell CPU lastige Spiele aufgefählt.

Und im CPU Limit ist schnellerer Ram durchaus nützlich und die GPU irrelevant.

Und es gibt natürlich noch ganz viele Mischungen....wo man das mit CPU/GPU Limit nicht so klar trennen kann, oder wo es sich stark von Spielszene zu Spielszene ändert.
GrumpyDude schrieb:
Ich hab Spaß am Overclocking und generell am Tunen der Systemsettings. Würd aber gern wissen, wieviel sich die Gaming Performance mit CL14 erhöhen könnte. Meine Spiele sind hauptsächlich Anno, Star Citizen und hier und da mal ein moderner Shooter (BF/CoD etc). Bald der neue Flugsimulator von MS, von dem wir nix wissen.
Ram ist durchaus anpsruchsvoll zu tunen...Der Takt bleibt zwar das wichtigste, aber oft genug wird den Timings so gar keine Beachtung geschenkt, und dann kann der Ram dadurch deutlich langsamer laufen, oder zumindest mit höherem Takt keine Leistung gewinnen.

Ich habe da letztes Jahr einen ganzen Haufen an Takt und Timings ausprobiert, und auch mit GearDownMode und BankGroupSwap herumprobiert.
Immer mit 4x8GB und einem 2700X@4,2GHz.

Zwar nur in einem älteren Spiel, aber bei der vielzahl an Messungen(mindestens 12 pro Messpunkt und immer auf zwei verschiedene Tage aufgeteilt), brauchte ich Etwas, dass sich angenehm und zuverlässig testen lässt.
Thief ist alt und hässlich, aber voll CPU limitiert und der Benchmark repräsentiert gut die anspruchsvolleren Level im Spiel....und gut bei der Reproduzierbarkeit.
Selbst dann ist es nicht einfach....aber die Messungen sind gut reproduzierbar......der Einbruch der optimierten Cl14er Timing bei genau 3200MHz ließ sich zuverlässig nachstellen....und scheint mit dem GearDownMode zusammenzuhängen.
https://www.computerbase.de/forum/threads/4x8gb-auf-ryzen-durchprobiert.1873292/

Ist eventuell etwas zu viele Daten auf einem Haufen.....und die Interpretation ist auch nicht so einfach, aber als Zusammenfassung:

1. Die Ramfrequenz bei manuell festgesetzten Timings zu steigern, bringt prozentual(pro MHz) grob das gleiche für FPS und Frametimes, wie den CPU Takt zu steigern.

2. Benutzt man die Ramprofile, werden nur die Haupttimings gesetzt und das Board wählt die Subtimings automatisch. Dabei werden bei besseren Haupttimings tendenziell um so schlechtere Subtimings gewählt.
Und um so hoher die Ramfrequenz, um so schlechter werden auch die automatischen Timings.
So überholt zu 3333 und 3466MHz, die 15(wird wegen GDM zu 16) 15 15 15 35 dann auch die 14 14 14 14 34.
Ich habe keinen Aegis Ram, aber ich habe die Timings von zwei RTC Screenshots aus dem Internet genommen und bei Abweichungen in den Subtimings, die Mitte gewählt....so kommt der eine Türkise Messert bei 3000 Cl16 18 18 zustande.
Wie man sieht liegt der zwischen den Cl14 und CL15 mit Automatischen Subtimings....obwohl er wegen den Haupttimings darunter liegen müsste.
........all das untemauert meine Aussage, dass man sich viel halbherziges Ram OC oder Geld für Ram mit besseren Ramprofilen nicht lohnt.

3. Generell sind Timings wichtig für die Leistung.
Die hellblaue Linie sind die Timings, die ich für 3466MHz(das maximum was mein 2700X-IMC stabil kann), optimiert habe......davon ausgehen, habe ich die 14er Haupttimings auf 16 18 18 und 19 21 21gesetzt.....das sind im Mittel 21 und 43% schlechtere Haupttimings...und daher habe ich auch alle Subtimings genommen und um 21 bzw.43% hochgesetzt(logischerweise auf ganze Werte gerundet)..........Das ist also sehr nah dran an...21% bzw 43% schlechteren Timings durch die Bank.
Und da sieht man deutliche Unterschiede durch die Timings...unabhängig von irgendwelchem automatischem rumgepfusche......die 21% schlechteren Timings sind mit 3333-3466MHz nur so gut wie 3166-3133MHz.
Und die 43% schlechteren Timings sind mit 3466 nur so gut wie 2866MHz.
Bei 3466MHz sind die Cl14 und CL15er Haupttimings mit automatischen Subtimings kaum schneller als Cl19 21 21 mit den um 43% verschlechterten selbst optimierten Timings.......sind also mit 14 14 14 34,@3466MHz ....nur so schnell wie 14 14 12 26@2866MHz......den Unterschied machen hier nicht die tRAS von 26 oder 34, sondern vor allem die restichen 24 Timings.
Und man muss sich mal überlegen, wie der unterschied wäre, wenn ich bei 2866MHz meine Timings optimiert hätte..und nicht die gleichen wie bei 3466 gelassen hätte.....

4. Die Stilt Timings, die mein Mainboard als Profil hinterlegt hatte, waren zwar sehr schnell, aber einfach nicht stabil.....vor allem ohne GDM, ging das gar nicht und ich brauchte etliche Versuche, bis ich die Benchmarks ohne Absturz geschafft hatte.

5.GDM senkt leicht die Leistung, und führ bei manchen Taktstufen zu unlogisch harten Leistungseinbußen....aber ingesammt führt kein Weg daran vorbei, da die zusätzliche Stabilität die man gewinnt so viel höheres OC erlaubt, dass man an Ende die bessere Leistung mit eingeschaltetem GDM hat.

6. Das eingeführte BGS_Alt ist nur eine Funktion, die automatisch BGS deaktiviert, wenn nur ein Rank pro Channel verbaut ist, und BGS bei mehr Ranks aktiviert........soweit also immer die optimale Einstellung wählt....hier besteht kein Handlungsbedarf.


...................aber Alles in Allem muss man immer die Verhältnismäßigkeit im Blick haben. ;)
Du wirst nicht merken, ob das Spiel mit 104 oder 124FPS läuft.....oder ob die Frametimes von 80 auf 90 1/s steigen.

Hast du ein Spiel, das CPU limitiert ist und nur mit 45FPS und 1% low Frametimes von 20 läuft...dann kann schnellerer Ram hingegen deine FPS in einem Bereich verbessern, wo es spürbar sein kann....aber vor allem im Vergleich zu "ich habe den Ram eingebaut und nie das XMP Profil geladen".

Sofern du brauchbar schnellen Ram um 3000-3200MHz hast, hast du schon eine ordentliche Leistungssteigerung bezogen auf 2133MHz erreicht......und das im Grunde ohne Aufwand und ohne besondere Mehrkosten(3000er Ram kostet kaum mehr als "Basisram" mit 2133 oder 2400).
Gehst du dann mit dem Takt höher oder den Timings runter, wird es teurer oder du kommst eher in Stabilitätsprobleme.....und ohne optimieren der Subtimings erhälst du auch nicht wirklich viel mehr Leistung.
......hier beginnt also eher der "Spaß am OC" Bereich und der "sinnvolle Investitionen" Bereich hat geendet.
 
Zuletzt bearbeitet:
Baal Netbeck schrieb:
Eine ****** Verallgemeinerung. :grr:
Immer locker bleiben. Es gibt zweifelsohne Unterschiede je nach Einsatzzweck, aber über "Leben und Tod" entscheidet das sicherlich nicht.
 
Creeping.Death schrieb:
Es gibt zweifelsohne Unterschiede je nach Einsatzzweck, aber über "Leben und Tod" entscheidet das sicherlich nicht.
Natürlich nicht........Ich sage selber immer, dass schneller Ram eher OC Spaß, als eine Geld oder Zeitinvestition sein sollte.
Aber ohne Grundlage zu behaupten, dass Timings keinen Unterschied machen...obwohl das falsch ist.....und statt dessen mit einer Pauschalaussage zu kommen wie:
Creeping.Death schrieb:
Die GPU ist hier hauptverantwortlich.
...wenn der TE mehrere CPU lastige Spiele genannt hat, muss man so eine Pauschalaussage kritisieren dürfen.

Sich irgendwie in ein GPU Limit drücken ist eigentlich immer möglich....zur Not SSAA oder ähnliches...aber dann kommt man halt auch irgendwann in unspielbare Bereiche.
Ist die GPU nicht schnell genug bieten die meisten Spiele die Möglichkeit, mit geringeren Settings die GPU Last zu mindern.

Limitiert die CPU bei unangenehmen FPS, hat man mit den Settings in der Regel weniger Spielraum und wenn sich jemand dazu entscheidet, mit Ram OC noch ein paar FPS rauszuquetschen, dann sollte man auf seine Frage, "was es bringt" auch mit einer möglichst passenden Aussage antworten....und nicht mit der falschen Aussage, die Timings würden keinen Einfluss haben.

Ich kann ihm nicht beantworten, wie viel es in seinen Spielen bringt....aber man sollte sie nicht ignorieren und nur den Takt heben.
 
Ich war offensichtlich in meiner Karriere noch bei keinem Spiel am CPU-Limit so dass es sich negativ auf die Spielbarkeit ausgewirkt hätte.
ich würde nur niemals 50% mehr für Superoverclocking-RAM ausgeben nur um beispielsweise von CL14 auf 16 zu kommen.
mit dem vorhandenen RAM zu experimentieren ist natürlich eine andere Sache.
 
Creeping.Death schrieb:
ich würde nur niemals 50% mehr für Superoverclocking-RAM ausgeben nur um beispielsweise von CL14 auf 16 zu kommen.
Ich selbst habe durchaus viel für gut gebinnten Ram ausgegeben;), aber wie du auch in diesen Thread lesen kannst, habe ich immer davon abgeraten einen deutlichen Aufpreis für Ram zu zahlen.
Creeping.Death schrieb:
Ich war offensichtlich in meiner Karriere noch bei keinem Spiel am CPU-Limit so dass es sich negativ auf die Spielbarkeit ausgewirkt hätte.
Du bist seit 2005 angemeldet und hattest noch nie ein CPU limit, das sich negativ ausgewirkt hat???

Spielst du immer nur die AAA Grafikmonster, die die aktuellen Grafikkarten in die Knie zwingen?

Ich weiß gar nicht wo ich anfangen soll....2005....da ist z.B. TW Rome Barbarian Invasion rausgekommen....Damals hatte ich noch meinen Pentium 4 mit 3200MHz....der hat in dem Spiel in den wirklich großen Schlachten nur für einstellige FPS gereicht.....und auch der E6600 den ich als nächstes hatte, hat es in solchen Schlachten nicht in den zweistelligen Bereich geschafft.....starte ich sowas mit meinem 2700X, komme ich immerhin auf grob 12-18 FPS, das wirkt sich definitv negativ auf die Spielbarkeit aus....auch neuere TW Spiele sind in Schlachten oft CPU limitiert und erreichen auch da selten gute FPS.

Der erste Witcher Teil ist in den Städten CPU limitiert....unter 50FPS und definitv verbesserungswürdig.
Der dritte Teil hat damals meinen i5 3570K in Novigrad überfordert...war noch halbwegs spielbar, und auch nur in den großen Städten ein Problem....aber trotzdem wirft es einen aus der Immersion.

Starcraft 2...im 1vs1 noch ganz ok.. im 4vs4 wenn die Armeen zusammenkommen....echt übel....und coop Missionen mit Stukov und Effektspektakel zwingen auch High End CPUs in die Knie....oft unter 20FPS....teils unter 10 FPS.
Heroes Of the Storm.....Die Frametimepeaks sind bei Gruppenkämpfen immer so im Bereich von 60FPS und da wünscht man sich schon bessere Leistung.

Hitman mit DX11 bricht bei vielen NPCs (z.B. in Marrakesh) deutlich ein....DX12 rettet das ziemlich gut, aber auch nur wenn man die Kerne hat um die Rohleistung zu stellen. 4Kerne ohne SMT/HT brechen da stark ein und der Unterschied von 2133MHz auf 3200er Ram(gleiche Timings) waren bei meinem Test der Unterschied von FPS Einbrüchen auf 28FPS zu 37FPS.....das fühlt sich deutlich anders an.....aber ja...mit 8 Kernen ist das anders und größtenteils GPU limitiert.

Prison Architect.....12-16FPS bei einer Razzia in meinem nichtmal sonderlich großen Gefängnis.

Cities Skylines ist auch irgendwann bei 40- 50FPS.

Neuere Spiele wie die letzten beiden TombRaider Spiele brauchen zumindest auf meiner AMD GPU auch DX12 um ordentlich zu laufen....sonst sind die Gegenden mit vielen NPCs einfach zäh und ruckelig.

KingdomeComeDeliverance fällt in Rattay auf um die 50FPS...und das auch noch mit schlechten Frametimes, sodass es ziemlich ruckelig ist und auch zäh zu steuern....vor allem Nachts mit einer Fackel oder bei Regen.

Frostpunkt war gegen Ende teilweise bei 19FPS....und schlechten Frametimes, sodass es sich eher wie 10 angefühlt hat.......allerdings gab es da inzwischen einen Patch, der die Leistung gigantisch verbessert hat.

..........Das sind jetzt nur die Spiele, die ich für spielenswert gehalten habe und wo mir eine schlechte Leistung aufgrund eines CPU Limits aufgefallen ist....gbe auch noch einige mehr, die ein CPU Limit haben, aber wie das Beispiel mit Thief, ist da eine schlechtere CPU oder langsamer Ram kein Beinbruch.

Das dir in der Zeit kein Einziges aufgefallen ist, kann ich mir irgendwie nicht vorstellen.

Edit....und Anno 1800 habe ich ganz vergessen...Ich habe meine Grafiksettings so gewählt, dass ich im GPU Limit bei grob 70-90 FPS bin......aber mein Spielstand mit den DLCs und allen Inselwelten besiedelt, hat z.B. über meiner Hauptinsel nur noch 40-50FPS im CPU Limit.....und das würde noch eine Ecke schlechter werden, würde ich mit der Sichtweite von sehr weit auf utra gehen und den Wuselfaktor von niedrig auf ultra stellen.....ist so wie es ist, gut spielbar....aber am alten 4 Kern Laptop ist die CPU völlig überfordert und schon das setzen von Straßen und Gebäuden ist schwer möglich, weil die Vorschaupositionen sich so verzögert aktualisieren und dann plötzlich doch noch ein Feld weiter springen wenn man klickt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tidus1979
Von den ganzen Spielen, die Du aufgelistet hast, habe ich tatsächlich nur die Witcher-Reihe und Kingdom Come Deliverance wirklich gespielt (dafür dann aber auch sehr ausgiebig).
Vielleicht haben wir auch einfach unterschiedliches Empfinden für "gute Spielbarkeit". 50fps sind für mich kein Problem (vielleicht auch wegen G-Sync). Kann gut sein, dass viele der Titel, welche ich gespielt habe, irgendwo im CPU-Limit hingen. Aber wenn es dann nur 100 statt 130fps waren, hat es sich für mich(!) nicht auf die Spielbarkeit ausgewirkt.
Ich hatte aber auch immer eine CPU, die möglichst "state-of-the-art" war. Vor meinem AMD war es ein i7-6850k, davor ein i7-2600k, ...
Da ist das Risiko in deren Limit zu kommen (in einem Bereich wo es auffällt) wahrscheinlich geringer.

Und tatsächlich bin ich von je her ziemlich scharf auf AAA-Grafik-Monster-Games.
 
Solange du das XMP/DOCP Profil auf 3200MHz einstellst, sollte es auch bei Vollbestückung keine Probleme geben.
 
Zurück
Oben