4x8GB auf Ryzen durchprobiert

Baal Netbeck

Fleet Admiral
Registriert
Apr. 2008
Beiträge
11.966
Hi,
Vor ein paar Wochen habe ich auf einen 2700X und ein zweites 2x8GB 3600 Cl15er Kit aufgerüstet.
Nachdem ich die 4x8GB erfolgreich zu meiner Zufriedenheit übertaktet hatte, habe ich mich letzte Woche daran gemacht auch mal in die Welt der schlechteren Timings zu gucken.

Vorwort:
Es ist hoffentlich den meisten klar, dass schneller Ram in CPU limitierten Spielen einen deutlichen Unterschied machen kann und auch in eigentlich GPU limitierten Spielen, gibt es oft Bereiche, wo die Leistung ohne schnellen Ram deutlicher einbricht.

In der Vergangenheit habe ich viele Spieletests einmal bei 2133 und einmal bei 3200MHz bei gleichen Timings gemacht und damit getestet, ob das Spiel in dieser Situation von Ram profitiert oder nicht.

Das beantwortet zwar die Frage, ob das Spiel von schnellem Ram profitiert, aber nicht wie es bei verschiedenen Ramsettings und Timings profitieren würde.
Und diesem komplexen Punkt wollte ich mich etwas annähern.

Einige meiner alten Tests:
https://www.computerbase.de/forum/t...kussion-zu-spieletests.1728575/#post-20678303


Ich lege viel Wert auf die Qualität der Messungen...daher habe ich meine Methoden immer weiter optimiert.
Teilweise basierte ein Ergebniss auf 20+ Messungen verteilt auf mehrere Tage......und ich habe eine breite Auswahl an Spielen getestet um ein vollständiges Bild zu erhalten.

Aus Zeitgründen und um die Benchmarks nebenbei durchführen zu können habe ich mich hier etwas eingeschränkt...die Ergebnisse basieren nur noch auf 6-7 Messungen(außer sie waren unlogisch, dann habe ich sie wiederholt).
...und ich habe nur Theoriewerte mit Aida64 und mit Thief nur ein einziges Spiel getestet.
Thief an sich ist dabei uninteressant....es war einfach ein Spiel, das mit meiner Radeon VII auch mit 1440p und maximalen Details(außer SSAA), komplett CPU limitiert ist und das schnell startet und einen brauchbaren ingame Benchmark hat.

Statt einzelne Ergebnisse wie 3466MHz CL14 ganz genau zu vermessen habe ich mich für Verläufe abhängig vom Takt entschieden....die einzelnen Werte mögen etwas schwanken, aber der Verlauf an sich gibt einen guten Eindruck.

Um die Messungen besonders zuverlässig zu machen, ist der 2700X auf feste 4,2GHz allcore getaktet.
Die Radeon VII ist auf 992mV bei 1831MHz undervolted, der HBM2 leicht auf 1050MHz übertaktet und die Lüftersteuerung ist agressiver eingestellt, um auf keinen Fall durch die Temperatur gedrosselt zu sein.

Windows 10 ist aktuell und der AMD Treiber ist der 19.4.3
System und Ram Settings:
R7 2700X@4,2GHz
Crosshair VI Hero
4x8GB 3600cl15 Samsung B-Die
Radeon VII UVOC

Ramsettings:
Ich habe verschiedene Kombinationen ausprobiert und ich möchte hier auf die Abkürzungen eingehen.
BGS und GBSalt Diese stehen für BankGroupSwap und ist eine Einstellung, die mit der Art des Memory Managements zu tun hat.
Ursprünglich gab es bei Ryzen nur BGS und es war automatisch on(enabled). Dies hatte sich als nachteilig für die Verwendung von zwei single ranked Modulen herausgestellt und die Option wurde in weiteren Bios Versionen deaktiviert und dafür wurde BankGroupSwapAlt
aktiviert. In Starkraft 2 hatte ich damals mit meinen 2x16GB dual ranked Modulen einen leichten Nachteil gemessen.
Die verbreitete Meinung zu dieser Einstellung ist es, das sie für 2x16 oder 4x8GB aktiviert und GBSAlt deaktiviert sein sollte.
Mit dem neusten Bios kann ich diese Settings wieder selbst wählen und ich habe mich für BGS on und BGSalt off entschieden.

GDM steht für GearDownMode und beschreibt eine spezielle Version der comand rate(überschreibt sie). Eigentlich wählt man die Comand Rate als 1T oder 2T...wobei 1T die Befehle einmal sendet und 2T sie zweimal sendet, für den Fall, das der erste Befehl nicht verstanden wurde.
Der GDM arbeitet selektiv und fängt zu höheren Taktfrequenzen an, kritische Befehle mit halber Frequenz zu senden um die Stabilität zu erhöhen. Das kostet etwas Leistung, erhöht aber auch stark die Stabilität und es war mir ohne diesen Modus nicht möglich effektive Ramtakte über 3266 stabil zu bekommen.
Daher ist er in meinen Messungen(wenn nicht anders gekennzeichnet) aktiv.
Für Leute die Ram unterhalb von 3200MHz verwenden, würde ich empfehlen den GDM auszuschalten.

CL 14 14 14 opt. Diese Timings sind die Timings, die ich auf 3466MHz bei 14er Haupttimings optimiert habe.
Sie stellen also die schnellste Option dar, die ich stabil betreiben konnte...alle Timings die das Bios bietet sind fest gewählt und werden bei niedrigeren Frequenzen nicht geändert.

CL 16 18 18 opt.x1,21 Diese Timings sind eine Abwandlung der 14er Timings. 16 18 18 sind die typische nächste Empfehlung für Timings wenn keine 3200 CL14er Samsung B-die benutzt werden. Deshalb habe ich mich für diese Haupttimings entschieden.
Der mittlere Unterschied von 14 zu 16 und 14 zu 18 ist der Faktor 1,21, den ich auf die optimierten Timings angewendet habe und durch auf- und abrunden neue Subtimings gefunden habe, die alle ungefär 21% schlechter sind als vorher.

Cl 19 21 21 opt.x1,43 Die gleiche Idee wie bei CL16 18 18....Ram mit hohen Frequenzen wie 4000+ kommt oft mit 19 21 21er Haupttimings. Die 1,43 sind wieder der Faktor für die Subtimings verglichen mit CL14 opt.

Aegis 3000 bezieht sich auf den beliebten 2x8GB CL16 18 18er Ram mit 3000MHz. Die Timings hierzu habe ich aus zwei verschiedenen Quellen aus dem Internet, wo Leute das docp Profil für den Ram geladen hatten und einen RTC Screenshot gepostet hatten. Deren Timings wichen leicht ab, weshalb ich hier eine Mischung verwende.

docp ist bei Asus der Name für das Ramprofil(XMP). Hierbei habe ich das Ramprofil geladen, was die Haupttimings einstellt und die anderen Timings auf Auto lässt. Da 3600 überhauptnicht stabil waren, habe ich dann schrittweise den Takt von 3466 bis 2133 gesenkt.
Mein Ramprofil sieht 15 15 15 vor, aber wegen dem GDM wird für die Cas-latency keine geraden Werte zugelassen, so dass es in 16 15 15 mündet.

Bios Default/all Auto hier lasse ich das Bios alles inklusive der Haupttimings wählen...ich habe nur 2133 also die Basis, die eingestellt ist, wenn man nichts am Ram verstellt und 3200MHz getestet...also wenn jemand nur den Takt ändert ohne was anderes zu machen.

Stilt Mein Asus Board hat Ramprofile des Übertakters Stilt im Bios hinterlegt. Diese sind eigentlich für 2x8GB Samsung B-Die ausgelegt und nicht für meine 4x8GB aber ich habe zwei der Profile hier getestet. Einmal "Stilt 3200 fast", ein Satz niedriger Timings für 3200MHz. Mir kommen tWRTS und tWR zu niedrig vor...ich habe aber nicht auf Stabilität getestet.
Und "Stilt 3466" ein Satz Timings für den gleichen Ram aber mit 3466MHz. Diese Timings waren absolut instabil...ich hatte einige Abstürze...Steam wollte manchmal nicht starten...Aida64 ging manchmal nicht und ich brauchte einige Versuche bis ich genügend Messungen in Thief überstanden hatte.
Das Ramprofil deaktiviert auch den GDM, was die Stabilität torpediert...dehalb habe ich auch Messungen mit GDM on gemacht....stabil waren die trotzdem nicht da tWRTS und tWR weiterhin zu niedrig waren.

Hier die Screenshots der verschiedenen Timings:
784532

Und hier die RTC Screenshots bei docp Haupttimings aber automatischen Subtimings...der letzte Screeshot sind meine optimierten Timings:
784534


Edit: hier die nachträglich eingefügten cl14 14 14 34er Haupttimings mit den automatischen Subtimings:
784978

Sie scheinen fast das gleiche zu machen wie die docp CL15er Timings, jedoch ist die wichtige twrrd hier oft auf 3 statt auf 1.
Synthetische Werte von Aida64:
Ich habe jeden Wert drei mal gemessen und bei zu starken Abweichungen, eine vierte oder fünfte Messung ergänzt...die Werte hier sind also immer der Mittelwert aus drei Messungen und die Fehlerbalken sind die empirische Standardabweichung.

784979

Wie man sieht sind die 21% schlechteren Timings gar nicht so weit entfernt was die Lesebandbreite angeht.
Die docp Timings halten erst ganz gut mit, weil sie mit CL15 15 15 auch gute voraussetzungen haben, aber ab 2666MHz sind sie plötzlich deutlich abgeschlagen was ich mir nicht so richtig erklären kann, da die Timings zwar schlechter werden, hier aber keine besonderen Sprung aufweisen.
Die Timings komplett auf Auto zu lassen führt bei 3200MHz zu insgesamt schlechten Timings und daher auch der schlechtesten 3200MHz Leistung.

Edit: ich habe jetzt auch docp CL14 14 14 34 eingefügt und es unterscheidet sich überhaupt nicht von den 16 15 15 35 aus dem docp CL15.
Obwohl die Haupttimings besser geworden sind und fast alle Subtimings gleich geblieben sind ist das Ergebnis das gleiche.
Im Grunde hat sich nur tWRRD von 1 auf 3 verschlechtert...dieses TImings hat schon in der Vergangenheit große Leistungs und Stabilitätseinflüsse gezeigt...das es die Haupttimings ausgleicht hätte ich nicht gedacht.


Zoomen wir auf den oberen Bereich und blenden noch die Stilt Timings ein:
784549

Die Stilt Timings sind ohne GDM bei 3200 die besten und auch bei 3466 nicht weit entfernt...allerdings nicht stabil. ;)

784980

Ein ähnliches Bild zeigt sich bei der write Bandbreite.
Das Schreiben ist jedoch etwas schlechter zu reproduzieren als das Lesen.

Edit: gleiches Bild wie bei read für die neu eingefügten docp Cl14.
784551

Der GDM macht für die Stilt Timings hier einen großen Unterschied. Da sie nicht stabil sind, ist das jedoch keine große Sache.
Warum die 43% schlechteren Timings bei 3466 wieder aufschließen kann ich mir nicht erklären...eventuell waren die drei Messungen einfach glücklicher.

784981

Die automatischen Timings verlieren besonders in der Copy Bandbreite an Leistung.
Auch lässt sich copy noch schlechter zuverlässig messen.

Edit: und auch für Copy das gleiche Verhalten der docp CL14
784556

Bei 3466 machen sich die Stilt Timings hier nicht so gut.

790800

Hier habe ich noch Messungen der CL14er Timings mit deaktivertem BGS und aktiviertem BGSAlt eingefügt. Wie man sieht ist der Unterschied vernachlässigbar und das galt auch schon für die Bandbreiten.

Wir sehen deutlich größere Einflüsse durch die schlechteren Timings.
docp hält sich jedoch nicht schlecht im Vergleich zu CL16 und die Stilt Timings sind mit 3466MHz überraschend schlecht....jedoch nur wenn der GDM eingeschaltet ist. Eventuell arbeitet hier schon eine Fehlerkorrektur oder die Messung hatte Probleme.

Edit: Die Aida64 Werte für den komischen Stilt 3466 GDM on Wert habe ich wiederholt und konnte sie alle gestätigen. Laut der neuen Messungen waren die Bandbreiten im Bereich der Messungenauigkeit gleich und die Latenz nur 0,133ns besser.

Die docp Cl14er Messungen zeigen sich in der Latenz etwas besser als in den Bandbreiten.
Sie liegen bei den hohen Taktraten allerdings nur gleich mit den CL16 18 18 mit manuellen Subtimingsx1,21.
Spieleperformance in Thief

Die Werte beruhen jeweils auf der zweiten bis sechsten Messung aus den integrierten Benchmark, der einen ganz guten worst case des Spiels präsentiert.
Ich messe ab dem Punkt wo die Kamera an dem großen Schild der Wache vorbei gleitet an für 40s.
Wenn eine Messung aus der Reihe tanzt, verwende ich stattdessen die siebte Messung.
Von den fünf Messungen wertet mein C++ Programm die Frametimemessungen aus und mittelt dann jeweils die drei besten Werte um Ausreißer auszuschließen..... Obwohl ich mir bei den weiteren Ramsettings immer mehr Ramteiler gespart hatte, waren es insgesamt über 500 Messungen. :(
784983

Im oberen Bereich sieht man die avg FPS und der untere Block an Messungen zeigt den Durchschnitt der schlechtesten 1% der Frametimes.

Wie man sieht hat das verwenden des GBSalt in diesem Spiel keinen wirklichen Nachteil....bei 3466 scheint es zwar einen kleinen Nachteil zu geben. Bei 3200MHz habe ich mal wieder einen Durchhänger, den ich schon öfter in anderen Spielen beobachtet habe.
Der GDM mag diesen Ramteiler scheinbar nicht....wobei sich das nicht perfekt reproduzieren lässt.
Insgesamt kann ich nicht sagen, das die andere BGS hier einen Unterschied macht.

Die 21 und 43% schlechteren Timings haben hier einen deutlichen Leistungsverlust zur Folge.
Die 21% Unterschied in den Timings resultieren im Schnitt bei 5,7% Unterschied in den avg FPS.
Die 43% Unterschied in den Timings resultieren im Schnitt bei 11,8% Unterschied in den avg FPS.

Die docp und all Auto Timings machen sich bei 2133MHz noch ganz gut, lassen zu höheren Taktraten aber immer mehr nach.

Edit: Die neu eingefügten docp Cl14 zeigen sich meist minimal besser als die docp CL15 und CL16 18 18 optx1.21 .....Wie bei den Latenzmessungen schwächeln sie etwas wenn es an die hohen Frequenzen geht.
Hier werden ein paar Subtimings von der Automatik schlechter gewählt....das diese leichten Veränderungen diesen Leistungsverlust erklären sollen finde ich jedoch komisch.... Da das System Probleme hatte mit diesen Einstellungen erfolgreich zu Booten könnte ich mir hier auch ein Eingreifen von Fehlerkorrektur oder ähnlichem denken.

Zoomen wir wieder rein und gucken auch auf die Stilt und Aegis Timings:
784984

Die Aegis Timings sind durchaus ein gutes Stück von den optimierten Timings entfernt(7,3%).
Sie wären noch weiter entfernt, wenn ich die Timings auch auf 3000MHz und nicht auf 3466 optimiert hätte.
Sie sind aber besser als die automatischen und die docp Timings.

Warum die Stilt Timings mit GDM Richtung 3466 schlechter werden ist etwas komisch...aber wir erinnern uns, das auch die Latenz hier ungewöhnlich war. Ansonsten sind die Werte erwartbar gut, wenn auch nicht unbedingt stabil...oder sogar sehr instabil.

Insgesamt bin ich überrascht, wie wenig sich die Timings in den Bandbreiten bemerkbar gemacht haben, und wie deutlich sie hier in diesem Spiel eine Rolle spielen.

Laut dem CB Testparcour hat ein 9900K in 1080p Spielen 26% mehr avg FPS.
Und hier machen optimierte Ramtimings bei 3200MHz verglichen mit docp(CL15) einen Unterschied von 7,8%.
Von 2933 CL16 15 15 auf 3466 CL14 opt. sind es 17,6% mehr avg FPS.
Und es ist davon auszugehen, das der Ram den CB verwendet mit 2933 Cl16 16 16 noch schlechter ausfällt.
Dann würden die CPUs nur noch 8% trennen...ein durchaus gutes Ergebniss, wenn man nur den Ram verändert.

Insgesamt haben sich die avg FPS von 2133 all Auto, auf 3466 Cl14 opt. um 36% verbessert und die 1%low um 16,6%.

Edit: Wie schon in dem vorherigen Diagramm beschrieben, habe ich die docp Cl14 hinzugefügt und ich habe auch die Stilt Messung bei 3466MHz wiederholt.
Die neuen Stilt Messungen zeigen jetzt 1,7 1/s bessere FPS und 0,8 1/s bessere 1%low Frametimes.
Auch schwanken die Messungen ungewöhnlich hoch und runter....es sind immer wieder Messungen dazwischen die die gleichen Ergebnisse wie die erste Messeihe dazu zeigten...und ein paar bessere.
Ich denke in beiden Fällen könnten die Ergebnisse bei diesen Ramfrequenzen durch eine leichte Instabilität beeinträchtigt sein...oder der GeardownMode macht in diesen Fällen was komisches....es ist mir nicht ganz klar.


Ich habe noch einen weiteren Test gemacht, der den Ram auf den 3466 CL14 opt. lässt, und stattdessen den allcore CPU Takt senkt.
784627

Die farblich dunkeren Verläufe, die von 2133 bis 3466 gehen sind dem verändern der effektiven Ramfrequenz zugeordnet und die helleren Verläufe von 2950MHz bis 4200MHz sind der CPU Takt.

Wie man sieht ist die Steigung der Verläufe sehr ähnlich...das Spiel profitiert also in gleicher Weise von mehr Ram MHz wie von mehr CPU MHz.

Die etwas ungewöhnlichen CPU Frequenzen 2950 und 3475 sollten einen vergleich zu den um 21 und 43% unterschiedlichen Timings ziehen....vergleichen wir also CPU/DRAM Takt und Timings miteinander:

Faktor 1,21;
weniger CPU Takt = 12,8% avg FPS
weniger DRam Takt = 10,8% avg FPS
höhere Timings = 5,2% avg FPS

Faktor 1,43;
weniger CPU Takt = 23% avg FPS
weniger DRam Takt = 21,6% avg FPS
höhere Timings = 10,3% avg FPS

Der CPU Takt bringt also schon etwas mehr als der DRam Takt, und die Timings wirken sich nur halb so stark aus.


Fazit:

Viele Messungen und hoffentlich für manche eine jetzt etwas klarere Datenlage.
Was bringen die Timings, was bringt der Takt usw.

Der GDM ist mit mehr als einer rank pro Channel für hohe Taktraten alternativlos.
Eine genauere Untersuchung zu seinem Einfluss würde noch ausstehen.

Die BankGrouSwap Option ist zumindest in diesem Spiel nicht von Bedeutung.
Ich müsste noch testen, wie es da in anderen Spielen aussieht.....hat da schon jemand aktuelle Erfahrungen?

Die Stilt timings waren schnell, aber nicht stabil....helfen dem unbedarften Nutzer als nicht wirklich.
Aber eventuell wären sie stabil wenn ich 2x8GB und nicht 4x8GB nutzen würde.

Der Vergleich mit den Aida64 Werten legt nahe, dass die Spieleperformance vor allem durch die Latenzen gegeben ist und eventuell etwas durch die copy Leistung.

Dieses Spiel profitiert fast so gut von Ramgeschwindigkeit wie es von CPU Takt profitiert. Das ist sicherlich nicht gewöhnlich, aber auch das müsste man mal in anderen Spielen gegenüberstellen.

Mir ging es in diesem Test weniger um das verwendete Spiel an sich....das wird wohl kaum jemand spielen und es lief auch mit dem schlechtesten Ram noch ganz gut.
Mir ging es darum die Auswirkungen von Ram Takt und Ram Timings irgendwie gemeinsam darzustellen...deshalb auch die unübersichtlichen Diagramme mit zu vielen Daten. ;)

Meine Idee war es, das jemand der sich z.B. fragt ob er seinen Ram von 2933 auf 3333 übertakten sollte, wenn er dafür schlechtere Timings in Kauf nehmen muss.
Oder ob sich jemand überhaupt mit besseren Timings beschäftigen sollte.
Dann kann er im Diagramm die am bestem zu seiner Situation passenden Verläufe heraussuchen und eine grobe Abschätzung machen.

Ich hoffe das ist mir halbwegs gelungen. ;)

Wie jemand dies interpretiert ist sicherlich sehr subjektiv.
Der eine sagt sich..."Was sind schon 5%?" und der andere sieht in 5% den Aufpreis zur nächst besseren CPU....und ich denke mir..."Mir macht Ram OC Spaß...ich nehme auch jedes halbe % mit wenn ich kann!" ;)


Was meint ihr zu den Ergebnissen?
Habt ihr Verbesserungsvorschläge oder Einwände...Fragen?

Edit: es sind jetzt Messungen mit docp CL14 14 14 34 eingefügt und die problematischen 3466MHz Messungen mit den Stilt Timings sind wiederholt und bestätigt.
Die Haupttimings sind überraschenderweise kaum besser als die docp CL15 Messungen, oder die CL16 18 18 Messungen mit opt.x1.21er Timings.
Und zu höheren Frequenzen sacken die FPS sogar wieder ab oder stagnieren..... eventuell eine Eigenheit des GDM oder von Fehlerkorrektur aufgrund von Instabilitäten.
Wobei die Timings eigentlich alle schlechter sind als meine stabilen manuellen Timings und nur tWTRS bei mir eigentlich auf 6 ausgelotet war und von der Automatik auf 5 gesetzt wird.....ob dieses eine instabile Timings solche Auswirkungen hat ist komisch....
Edit2: Ich habe nochmal meine optimierten Timings mit tWTRS auf 5 getestet...Die Messungen haben deutlich mehr geschwankt als mit tWTRS auf 6 und auch das Booten hatte lange gebraucht...und Thief wollte sich erst nicht schließen lassen...ich würde sagen es könnte wirklich an diesem Timing liegen, das die CL14 dopc Timings hier so komisch sind.
 

Anhänge

  • read.png
    read.png
    1,3 MB · Aufrufe: 982
  • write.png
    write.png
    1,4 MB · Aufrufe: 978
  • copy.png
    copy.png
    1,4 MB · Aufrufe: 970
  • thief Timings.png
    thief Timings.png
    1,6 MB · Aufrufe: 999
  • thief Timings stilt Aegis.png
    thief Timings stilt Aegis.png
    1,7 MB · Aufrufe: 999
  • latency.png
    latency.png
    1,3 MB · Aufrufe: 763
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cosh, Joker2488, Demon_666 und 20 andere
Seh ich das auf den ersten Blick richtig: allein durch höhere Ram Taktung und besseres Timing hast fast ne Verdopplung der FPS?
 
FGA schrieb:
fast ne Verdopplung der FPS?
Nein...von Bios default...2133 auf 3466 Cl14 sind 94,6FPS auf 128.7 FPS....36%

Und bei den 1%low von 68,2 auf 92,9 1/s sind es 36,2%.
 
  • Gefällt mir
Reaktionen: FGA
Toller Test, und wie immer super aufgearbeitet. :)

Danke!
:daumen:
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Top, sehr schöne Ausarbeitung. Vielen Dank!
 
  • Gefällt mir
Reaktionen: Baal Netbeck
ich muss eindeutig mehr RAM OC machen😁
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Baal Netbeck schrieb:
Wie man sieht hat das verwenden des GBSalt in diesem Spiel keinen wirklichen Nachteil.
Laut Grafik müsste da vermutlich BGSalt stehen... und was ist das? Alternatives Bank Group Swapping?
 
Vielen Dank für den ausführlichen Test. Die Ergebnisse sind sehr interessant und den beliebten Aegis reinzunehmen ist bei der Häufigkeit der Empfehlungen eine sehr gute Ergänzung. Ich bin sehr gespannt auf meine kommenden Erlebnisse mit diesem Thema, denn ich steige jetzt nach zehn Jahren mit der ersten Generation Core i7 auf Ryzen um und bin sehr gespannt auf das ganze System. Eure Arbeit in Sachen RAM OC und Ryzen hier im Forum ist sehr spannend und hilft die Thematik gut zu durchdringen. Habe mich für mein System allerdings für 2x16GB 3200er CL16 entschieden, 100€ mehr für CL14 waren mir bei meinen Ansprüchen doch zu üppig. Mit Blick auf deine Ergebnisse fange ich aber wieder an, an meiner Entscheidung zu zweifeln. 😉
 
Danke für deinen tollen Artikel.

Ich arbeite ja derzeit selbst an neuen RAM OC Tests inkl. 4x8GB.
Tests belaufen sich von 2666MHz bis 3666MHz mit 2x8GB und 4x8GB bis 3333. Für die 3466CL14 hatte ich jetzt zu wenig Zeit zur Verfügung. Wobei die 4x8GB ja doch ordentlich performen. Dürfte am Wochenende die Tests abgeschlossen haben. Ein Wahnsinn, was da für ein Aufwand dahinter steht, daher Hut ab für deine Arbeit.

Zusätzlich sind da zwei CPUs am Start - R5 2600 und R7 2700x.
 
  • Gefällt mir
Reaktionen: cosh und Baal Netbeck
cm87 schrieb:
Ein Wahnsinn, was da für ein Aufwand dahinter steht

Genau das!
Wer sich mit 32Gb schon rumgeärgert hat der weiß wie zeitfressend alleine das OC schon ist. Dazu die ganzen Testreihen...
Und weil ich das jetzt auf Arbeit gar nicht entsprechend würdigend lesen kann sage ich einfach nur vielen Dank für die riesige Mühe und den Artikel!

Die Diagramme sind super zur Veranschaulichung. In der Summe der Werte dann teilweise aber auch schon recht gut gefüllt so.
Im Gegensatz dazu würde ich persönlich mir fast noch das übliche 3200-14-14-34 XMP (XMP) wünschen um das einsortieren zu können.

LG
 
  • Gefällt mir
Reaktionen: cosh, Baal Netbeck und cm87
Baal Netbeck schrieb:
Was meint ihr zu den Ergebnissen?
Habt ihr Verbesserungsvorschläge oder Einwände...Fragen?

ok, und wenn Du Windows 10 auf die Caches der CPU anpasst ?

Code:
Windows Registry Editor Version 5.00

[HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Session Manager\Memory Management]
"SecondLevelDataCache"=dword:00001000
"ThirdLevelDataCache"=dword:00004000
 
der dude schrieb:
Habe mich für mein System allerdings für 2x16GB 3200er CL16 entschieden, 100€ mehr für CL14 waren mir bei meinen Ansprüchen doch zu üppig. Mit Blick auf deine Ergebnisse fange ich aber wieder an, an meiner Entscheidung zu zweifeln. 😉
Die 3200 Cl14 haben sicherlich mehr OC Spielraum....aber nur wenn man mit übertakten bestmögliche Ergebnisse möchte, ist das Geld gut investiert.
Die Subtimings auf auto sind sehr ähnlich, egal welche Haupttimings verwendet werden...3200 Cl16er Ram schafft oft nichtmal die Subtimings die angelegt werden und Cl14er Ram langweilt sich....mit XMP Profil liegen die gar nicht so weit auseinander.
Aber du kannst sicherlich auch die 3200 Cl16 optimieren....etwas mehr Spannung und gut eingestellte Widerstände...dann ist da bestimmt eine gute Leistungssteigerung möglich, die dich an dem CL14er XMP Profil vorbeiziehen lässt....meine 3466MHz funktionieren auch nur mit 1,46-1,47V...darüber wird der Ram zu warm und darunter schaffe ich die Timings nicht....im Alltag werde ich den Takt senken und die Spannung zurückfahren,

Der Aufpreis für Premium Ram ist objektiv zu viel..... es hat schon seine Gründe warum immer die Aegis empfohlen werden.
Kaum jemand steckt tagelang Arbeit in das optimieren seiner Widerstände und Timings. Und das ist gut verständlich....wenn ich bedenke wie lange ich gebraucht habe bis ich die wichtigen Optionen und Zusammenhänge gelernt hatte … da sind Wochen an Experimentieren vergangen...viel Frust mit Bootproblemen und Ramfehlern nach über einer Stunde Testen..... und ich habe noch viel zu lernen...das Thema ist halt komplex.

Ich denke du solltest mal probieren, was du an Ram OC schaffst...Dann hast du bestimmt deutlich besseren Ram als 95% der Nutzer hier im Forum..... der Ryzen DRam Calculator kann dir da bestimmt gut helfen.
Ergänzung ()

cm87 schrieb:
Tests belaufen sich von 2666MHz bis 3666MHz mit 2x8GB und 4x8GB bis 3333.
Das ist ja auch schon ein großer Bereich :) .... welche Anwendungen und Spiele testest du denn?
Ich hatte hier halt nur ein Spiel genommen weil es so schon sehr viel Arbeit war.

cm87 schrieb:
Zusätzlich sind da zwei CPUs am Start - R5 2600 und R7 2700x.
Das ist eine gute Kombination.....Gaming Einstieg und Flaggschiff.
Ich würde ja gerne mal einen eigenen AMD/Intel Vergleich machen, aber ich sehe es nicht ein, ein Intel System zu kaufen.... Mal so aus Interesse...wie hoch Boosten deine CPUs bei moderater Last wie Cinebench R15?
Ich fand, dass mein 2700X ab Werk schlecht geboostet hat...erst undervolting und PBO haben den Boost etwas angehoben..... single core über 4,3 sieht man aber eigentlich nie.
Flynn82 schrieb:
Die Diagramme sind super zur Veranschaulichung. In der Summe der Werte dann teilweise aber auch schon recht gut gefüllt so.
Im Gegensatz dazu würde ich persönlich mir fast noch das übliche 3200-14-14-34 XMP (XMP) wünschen um das einsortieren zu können.
Ja da habe ich auch schon drüber nachgedacht....eventuell ergänze ich das noch....Ist halt etwas blöd, weil ich nicht wirklich docp Cl14 aktivieren kann...dann sind es 15er Timings....aber ich senke ja auch den Takt manuell, dann kann ich auch die 14er Timings manuell eintragen und sehen was passiert.
Ergänzung ()

emeraldmine schrieb:
ok, und wenn Du Windows 10 auf die Caches der CPU anpasst ?
Ich würde ungerne an sowas herumfummeln.....Microsoft schert sich nicht groß um AMD CPUs, aber wenn das was bringen würde, hätte das wohl schon die Runde gemacht.
Und deine Werte klingen komisch....wenn das KB sind...warum 1MB für L2 und 4 MB für L3,
Wenn die CPU 512KB L2 pro Kern und 8MB L3 pro CCX hat?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Flynn82
Baal Netbeck schrieb:
Das ist ja auch schon ein großer Bereich :) .... welche Anwendungen und Spiele testest du denn?
Ich hatte hier halt nur ein Spiel genommen weil es so schon sehr viel Arbeit war.
Also BF5 ist wieder dabei - dachte noch an SOTR oder TD2. Zusätzlich noch Aida64, SiSoft Sandra, Superposition und vlt. noch 7z. Der Aufwand ist halt katastrophal 🤷‍♂️

Baal Netbeck schrieb:
Das ist eine gute Kombination.....Gaming Einstieg und Flaggschiff.
Mit dem 2600er hab ich ja schon Benchmakrs erstellt, auf die ich auch zurückgreifen kann. Kleiner Vorteil sozusagen. Windows Version und GPU Treiber sind ja gleich geblieben. Auch das System ist ansich wieder bereinigt für die Tests.


Baal Netbeck schrieb:
Mal so aus Interesse...wie hoch Boosten deine CPUs bei moderater Last wie Cinebench R15?
Ich fand, dass mein 2700X ab Werk schlecht geboostet hat...erst undervolting und PBO haben den Boost etwas angehoben..... single core über 4,3 sieht man aber eigentlich nie.
Der kleine hat eigentlich immer die 3,9GHz gesehen - hab den da auch später dann so fixiert. Der neue 2700x läuft bei weitem besser als die alte CPU - zumindest der IMC ist sehr gut. 4,35GHz auf einzelnen Kernen jedoch nur mittels PBO. Hab zusätzlich noch ein Offset von -50mV eingestellt. All Core gehen mit dem Mugen 5 um die 4,1 bis 4,15 GHz mit überschaubarer Spannung von ca. 1,35V. Bei 4x8GB 3333MHz boostet die CPU jedoch nur mehr auf 4,175GHz bleibt aber auch All Core ca. bei 4,1GHz. Auch bei 2x8GB und 3666MHz wird da die CPU auf 4,175 GHz beschnitten - zumindest der Boosttakt auf einzelnen Kernen. Macht aber in Spielen wie BF5 keinen Unterschied.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Baal Netbeck schrieb:
Ich würde ungerne an sowas herumfummeln

Ist so gesehen "Wurscht" , weil das kannst immerwieder entfernen oder gleich null setzen. Hast keine Backups ? ^^

jetzt erzähl' Mir aber was ...?!
Ergänzung ()

Baal Netbeck schrieb:
warum 1MB für L2 und 4 MB für L3,

Halleluja , das ist Hexa-Dezimal . 🧠 und die Werte sind in Kilobyte in Windows (an dieser Stelle) gerechnet.

Windows 10 hat nen Programmierer Rechner eingebaut. Da schreibst Dezimal rein und schaltest/schaust auf HEX
, dann hast die Werte (Maschinencode).
 
Zuletzt bearbeitet von einem Moderator:
emeraldmine schrieb:
Halleluja , das ist Hexa-Dezimal .
Gut..dann ergibt das also 4MB L2 und 16MB L3 ....Ich kann das mal ausprobieren, aber müsste man nicht eher die Werte eintragen, auf die jeder Kern zugreifen kann und nicht die Summe?
 
Nein, die Summe reicht, wenn man teilweise Kerne deaktiviert, muß man pro Kern (Octa) 512 Kilobyte (SecondLevel) abziehen. Der ThirdLevelCache wird wohl gleich bleiben müssen, ansonsten muß
ich mir das CPU-Layout irgendwo nochma amschauen und interpretieren, was das zu bedeuten hat. ^^

Laut CPU-Z isses ein 2x 8192 Kilobyte ThirdLevelCache, wenn man nur <=4 Kerne betreibt, sollte
man nach diesen, EINMAL 8192 Kilobyte ThirdLevelCache abziehen MÜSSEN.

Allerdings hab ichs nicht messen/vergleichen können, ich hab' den Ryzen nicht.💩
 
Zuletzt bearbeitet von einem Moderator:
cm87 schrieb:
Also BF5 ist wieder dabei - dachte noch an SOTR oder TD2. Zusätzlich noch Aida64, SiSoft Sandra, Superposition und vlt. noch 7z. Der Aufwand ist halt katastrophal 🤷‍♂️
Ist BF5 nicht super schwer zu testen? oder nimmst du eine Kampagnenmission?
Was ist TD2?
Superposition ist bei meinem System irgendwie komisch....das mochte meine Vega nicht und die Radeon VII auch nicht....angeblich super ausgelastet und keinen Einflluss durch die CPU aber die Punkte sind mies.

cm87 schrieb:
Der kleine hat eigentlich immer die 3,9GHz gesehen - hab den da auch später dann so fixiert. Der neue 2700x läuft bei weitem besser als die alte CPU - zumindest der IMC ist sehr gut. 4,35GHz auf einzelnen Kernen jedoch nur mittels PBO. Hab zusätzlich noch ein Offset von -50mV eingestellt......
Danke für die Daten...ich habe die CPU im Moment halt allcore festgesetzt....wenn ich nochmal mit dem Boost spiele, werden deine Erfahrungen helfen das einzuschätzen.
Schön, dass der 2600 doch so hoch taktet....kein Wunder, dass er so oft empfohlen wird.
Flynn82 schrieb:
Im Gegensatz dazu würde ich persönlich mir fast noch das übliche 3200-14-14-34 XMP (XMP) wünschen um das einsortieren zu können.
Ist soeben fertig geworden und eingefügt. :)
Ich habe mir ein paar Teiler wie z.B. 2400MHz gespart, aber die wichtigen 3200 333 und 3466 sind drin...und enttäuschend schlecht. ;)

So langsam glaube ich den Messungen von CB ja fast, die mit 3600 Cl16 langsamer waren als 3466 Cl16 und kaum besser als 3200 CL16.
Ich bin mir nicht sicher, was es ist, aber die Subtimings auf Auto zu lassen hat komische Ergebnisse zur Folge....zumindest wenn es zu hohen Ramfrequenzen geht.
 
Baal Netbeck schrieb:
Ist BF5 nicht super schwer zu testen? oder nimmst du eine Kampagnenmission?
Was ist TD2?
Superposition ist bei meinem System irgendwie komisch....das mochte meine Vega nicht und die Radeon VII auch nicht....angeblich super ausgelastet und keinen Einflluss durch die CPU aber die Punkte sind mies.
Ja, BF5 ist verdammt mies zum Testen - möchte ich aber gerne als Vergleich zum 2600er dabei haben. TD2 = The Division 2. Superposition ist naja... wie du sagst, ziemlich komisch und reagiert eher wenig auf RAM OC.

Baal Netbeck schrieb:
Danke für die Daten...ich habe die CPU im Moment halt allcore festgesetzt....wenn ich nochmal mit dem Boost spiele, werden deine Erfahrungen helfen das einzuschätzen.
Schön, dass der 2600 doch so hoch taktet....kein Wunder, dass er so oft empfohlen wird.
Die Kleine ist einfach nur genial - kost fast nix und ist wirklich sehr gut in Spielen und skaliert wunderbar bei RAM OC.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
Wow, vielen Dank für den ausführlichen Test, sehr interessant zu lesen! :)

Da werd ich mich doch gleich mal dran machen, meinen RAM etwas in die Mangel zu nehmen :D
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Zurück
Oben