Leserartikel Dual ranked vs. single ranked Ram bei Ryzen

Baal Netbeck

Captain
Dabei seit
Apr. 2008
Beiträge
3.735
Dies ist ein ausgelagertes Thema aus diesem Hauptthread:
https://www.computerbase.de/forum/threads/baals-hauptthread-diskussion-zu-spieletests.1728575/#post-20678303

Intro:

Seit dem release der ersten Ryzen CPUs taucht immer wieder das Thema "dual ranked Ram" auf.
Aussagen wie: "Ryzen mag dual ranked.", "Dual ranked 2666MHz ist so schnell wie single ranked 3000." und "Dual ranked kann man nicht so hoch takten.", ließt man immer wieder und verlinked wurde fast immer folgende Quelle:
https://community.amd.com/community/gaming/blog/2017/07/14/memory-oc-showdown-frequency-vs-memory-timings
Es gibt aber noch eine Reihe weitere:
http://www.pcgameshardware.de/Ryzen-5-1600X-CPU-265842/Tests/R5-1500X-Review-Mainstream-1225280/3/
Bis zu diesem Test, wo dual ranked 2666 CL16 in einigen Spielen so schnell sein soll wie SR 3200 CL14:
https://www.golem.de/news/ram-overclocking-getestet-ryzen-profitiert-von-ddr4-3200-und-dual-rank-1704-127262.html

Ich war bei Ryzen fast von Anfang an dabei und hatte 2x16GB 3200 Cl14er Ram, wobei die 16GB Module dual ranked sind.
Nach ein paar Bios updates und diversem herumprobieren, liefen die dann auch wie vorgesehen. Anders als diese alten Tests, kann ich also auch 3200MHz DR testen.

Ich bin bei den meisten Tests, die da gemacht wurden skeptisch, weil meine Erfahrung mit dem Ryzen Ram OC mir gezeigt haben wie deutlich die Unterschiede sein können wenn andere Subtimings verwendet werden.
Ein frühes Bios hat beim laden des Ram Profils so schlechte Subtimings gewählt, das 3200 CL14 langsamer war als 2400 Cl15.
Das hat sich dann später gebessert, aber das optimieren der Subtimings hat trotzdem noch einen ordentlichen Einfluss.
Ohne Angabe aller Timings oder zumindest einer Angabe, dass diese fest und gleich gewählt wurden, ergeben die Tests wenig Sinn.
Auch die CB Tests zu dual- vs. single ranked schenken den Subtimings keine Aufmerksamkeit(lassen sie auf Auto) und es wird auch nicht auf die Messgenauigkeiten und die genauen Testumstände eingegangen.
Man kann sicherlich argumentieren, dass diese Tests die Unterschiede zeigen. wie sie beim Kunden entstehen, der Ram XY kauft und das Ram Profil lädt.
Für mich gehört zum untersuchen eines Architekturunterschieds, aber auch möglichst viele Unbekannte auszuschließen und ein möglichst allgemeingültiges Ergebnis präsentieren zu können, wo ich eine Abschätzung über die Messungenauigkeit treffen kann und ich bin der Überzeugung, das Leue die sich um "Ram- ranks" Gedanken machen, sich auch solche Tests wünschen.

Daher wollte ich selbst testen und bei der Gelegenheit auch gleich noch dual channel gegen single channel Betrieb testen, sowie der Frage nach gehen, wie viel Leistung Leute opfern wenn sie den günstigen und einfachen Weg gehen und für ihr Ryzen System nur 3000MHz CL16er Ram kaufen und diesen mit XMP/docp Profil betreiben, anstatt 3200 Cl14(Samsung B die) zu kaufen und dann noch Mühe in das optimieren von Subtimings zu stecken....das aber in einem weiteren Artikel.

Was mir fehlte war ein SR Kit, das ich mir dann diese Jahr in Form von 2x8GB 3600 CL15 gekauft habe.

Natürlich war es kein Problem das SR Kit mit dem gleichen Takt und den gleichen Timings(alle 27, die ich in Bios wählen kann) wie mein DR Kit zu betreiben. Leider waren die ersten Tests, die ich gemacht habe nicht ausreichend genau um die oft feinen Unterschiede zuverlässig zu messen.

Wie ich meine Tests gemacht und verbessert habe:
Ursprünglich hatte ich für jede Hardwarekonfiguration in jedem Spiel 6 mal hintereinander die Frametimes gemessen.

Dann habe ich die erste Messung("Vormessung") verworfen, da sie in vielen Spielen mit Nachladerucklern zu kämpfen hat und dabei teilweise sogar höhere Durchschnitts-FPS liefert. Ein Mysterium, das ich auf polygonärmere/fehlende Strukturen und schlechtere Texturen schiebe, die bis zum hereinladen der besseren Versionen höhere FPS ermöglichen....oder durch mehr Platz im Cache weil dieser noch nicht so voll ist.....außerdem sind in Spielen, die die GPU stark beanspruchen, kurz nach dem Spielstart die Temperaturen besser und damit der Boost-Takt leicht höher.

Von den fünf verbleibenden Messungen hatte ich mit einem eigenen Auswertungsprogramm die Frametimes über diverse statistische Methoden analysiert.
Um bis zu zwei Ausreißer zu eliminieren bildet das Programm dann nur einen Mittelwert der jeweils besten drei Werte und eine empirische Standardabweichung dieser drei.

Ich denke, dass diese Methode bereits deutlich bessere Ergebnisse lieferte als die der meisten anderen CPU/Ram orientierten Spieletests. ;)

Jedoch musste ich herausfinden, dass die Reproduzierbarkeit trotzdem nicht gut genug für meine Ansprüche war.:(
Bei den älteren Tests, wo ich Ryzen gegen einen ivy i5 oder 2133 gegen 3200MhzRam getestet habe, waren die Abstände in der Regel deutlich genug um Unterschiede klar zu erkennen.
Lediglich mein Versuch mit einer 2+2 gegen eine 4+0 Konfiguration des Ryzen bei unterschiedlichen Ram Frequenzen die Einflüsse des IF zu untersuchen scheiterte an der Genauigkeit.

Nun sollte es also deutlich genauer werden!
Also habe ich mein Programm erweitert um einen zweiten Satz von 5 Frametime Messungen einlesen und verarbeiten zu können.
Das Programm wertet beide Messungen erst getrennt voneinander aus, so wie schon vorher, und dann nimmt es aus beiden, jeweils die 3 Besten und kombiniert diese.
Es werden jetzt also von 10 Messungen, der Mittelwert von 6 Auserwählten gebildet.

Was sich dabei gezeigt hat, ist wie oft die Messungen einen systematischen Fehler bekommen. Auch wenn die einzelnen Messreihen in sich eine geringe statistischen Schwankung haben, können sie von Tag zu Tag merklich abweichen. Teils sogar sehr deutlich.:(

Ich bin auf Ursachenforschung gegangen und habe die verschiedenen Spiele mit aktivem OSD getestet. Habe festgestellt, dass das OSD selbst schon überraschend viel Leistung zieht...egal.... es ist bei den späteren Messungen aus.
Es war aber weiterhin schwer die teils einige % betragenden Abweichungen zu ergründen.
Bei einigen Spielen hat die Arbeit des Schedulers den Ausschlag gegeben. Manchmal wurde die Last auf einzelnen Kernen festgehalten...am nächsten Tag eher hin und her geschoben.....dann haben einige Spiele einzelne Kerne überlastet, indem zwei Threads des gleichen CPU Kerns gleichzeitig stark belastet wurden.
Mal wurden Threads des gleichen CCX benutzt und mal gemischt.
Kurz gesagt macht der Windows Scheduler, (vor allem bei älteren Spielen) einen miesen Job auf Ryzen CPUs!

Um dies reproduzierbarer zu machen, habe ich in allen Spielen, die nur wenige Threads benutzen die zugewiesenen CPU-Threads angepasst.
Heroes of the Storm, Starcraft 2, Prison Architect, The Witcher 2, Thief und Frostpunk wurden nur die Threads 0, 2, 4 und 6 zugewiesen.
Also nur 4 echte Kerne eines CCX. Keine Inter-core-Kommunikation über den Infinity Fabric und keine Probleme mit SMT.
Rome TW habe ich die Threads 0 und 1 zugewiesen, also beide Threads des gleichen Kerns und Company of Heroes hat alle Threads eines CCX bekommen also 0-7...auch wenn es besser läuft mit mehr Kernen und ohne SMT.

Ich versuche den Großteil meiner Tests im CPU limit zu machen und da versucht meine Vega64 natürlich Strom zu sparen und niedrigere PStates zu nutzen. Leider schätzt sie die Last immer mal unterschiedlich ein und taktet dann unterschiedlich weit runter und geht auch beim HBM2 mal auf 500MHz und mal nicht.
Um diese Verhalten zu stabilisieren, habe ich für die Benchmarks den P6 als niedrigsten PState festgelegt.
Da die Karte wassergekühlt ist, kommt sie nie in Situationen, wo sie zu heiß läuft. Da die Taktrate aber die Temperatur als ständigen Faktor in die Berrechnung einbezieht, kann ich nicht ausschließen, das der Takt von Messung zu Messung weiterhin leicht unterschiedlich ist. Die Unterschiede sind aber gering und werden im CPU limit keine Rolle spielen.

Ein weiterer Punkt bei Ryzen ist der "sleep-Bug". Etwas das beim Wechsel in den Standby oder auch beim Herunterfahren unter Windows 10 passieren kann. Danach läuft der Timer falsch und da Frametimemessungen Zeitmessungen sind, fallen die Ergebnisse falsch aus.
Um dem vorzubeugen, habe ich den PC jeweils erst aus und wieder an gemacht und dann noch einen Neustart hinterhergeschoben.
Das an/aus bietet eine gleiche Ausgangsbasis und der Neustart behebt einen eventuell auftretenden Sleep Bug.
Interessanterweise konnte ich mehrere Male feststellen, das nach dem Prozedere die Messungen typische Werte ergaben, bei einem zweiten Neustart, die Ergebnisse jedoch viel zu gut ausgefallen sind. Und nach mehr und mehr Neustarts nährt man sich dann wieder immer mehr dem "Normalfall" an.
Sehr strange:freak:.

Ich habe eine saubere 1803 Win10 Installation aufgespielt.
Nur die Treiber und nötigsten Programme installiert und die HDD abgekoppelt um nur SSDs im System zu haben.

Ich habe musste Elex aus meiner Spieleauswahl streichen, da die neueren Radeon Treiber einen Start des Spiels verhindern:grr:.
Dafür habe ich Company of Heroes 2 und F1 2015 mit aufgenommen.
COH2 fand ich überraschend gut und es hat einen integrierten Benchmark. Leider hat der sich als notorisch unzuverlässig erwiesen.
Es gibt fast jedes mal im Benchmark heftige Frametimeausreißer, die aber eben nicht jedes Mal auftreten und machmal auch häufiger als üblich.
Ich musste also statt 6 Messungen je Durchgang eher 8-9 machen um dann nachträglich die zu guten und zu schlechten auszusortieren.
Dazu sind die Ladezeiten in den Benchmark und auch ins Menü quälend langsam...kurz gesagt werde ich das nicht nochmal testen ;).

F1 2015 wird bleiben...eine Startphase vom Ende des Feldes, bei Sturm, liefert eine hohe CPU Last und kann gut reproduzierbar sein...man darf nur keinen Unfall bauen oder sich von der KI abschießen lassen.

Auch die anderen Spiele habe ich öfter als vorher getestet(7-9 mal je Messreihe) und habe aktiv Ausreißer eliminiert um die "normalsten 5" in das Programm zu füttern. Das führ dazu, das jedes Set an Messungen in sich sehr zuverlässig wird.
Um auf 10 Messungen zu kommen habe ich das zweite Set an Messungen an einem anderen Tag oder zumindest mit Pause/Neustart/usw dazwischen durchgeführt.
Wenn die Auswertung von Set 1 zu Set 2 dann unterschiedliche Ergebnisse gezeigt haben, habe ich mir das notiert und an einem dritten Tag nochmal gemessen...oder noch an einem vierten Tag....um sicher zu gehen, das ich keine versaute Messreihe dazwischen habe.
Ausnahme ist Ashes of the Singularity, wo ich einfach 2x5 Messungen genommen habe ohne zusätzliche Messungen und manuelle Auswahl. Denn der integrierte Benchmark ist einfach mal gut und mal schlecht....mit ca. 40% Chance auf gut...und dann dauert er 3 min.....Ich habe ihn drin weil er große Unterschiede zeigt, dafür habe ich hier bei der Genauigkeit geschludert.

Bei ein paar Spielen habe ich die Messdauer verlängert.(Cities Skylines von 40 auf 50s, Prison Architect von 90 auf 120s)
Hitman hatte bei meinen Tests im März noch einene FPS limiter eingebaut. Dieser ist inzwischen rausgepatched und ich bin gleichzeitig von der Testszene in Paris auf eine Szene in Marrakesh umgestiegen. Die hat noch mehr NPCs auf einem Haufen und noch höhere CPU Last, die teilweise 8 Kerne voll auslastet.

Das alles über 13 Spiele hat mich sehr viel Zeit gekostet! ....über 1800 Messungen und da sind noch nicht die "Vormessungen" drin, die ich nicht aufgezeichnet habe und auch nicht die bei denen was schief gelaufen ist, so dass ich sie direkt gelöscht habe.

Zusammenfassung der Verbesserungen:
-Win10 neu installiert und auf Neustarts geachtet.
-Teils länger und immer mehr als doppelt bis dreimal so oft gemessen.
-CPU Threads festgelegt wo es Sinn ergeben hat.
-Messungen bei Bedarf von Hand sortiert.
-Vega am heruntertakten gehindert..

Spiel Einstellungen:
Hierbei habe ich mich nicht auf maximale FPS durch niedrige Auflösungen und Einstellungen konzentriert, sondern die Auflösung auf 1440p gelassen und nur in komplett CPU limiterten Spielen die maximalen Details genutzt.
Wo die Grafikkarte eine Rolle spielt, habe ich die Optionen individuell angepasst um einen guten Kompromiss aus Grafik und FPS um die 80-100 pro Sekunde zu finden.
Ich habe die Spiele also so eingestellt, wie ich sie selbst spielen würde und dann getestet welche Unterschiede sich bei diesen realen Situationen ergeben.
Die getesteten Szenen waren dabei natürlich so gewählt, dass sie für die CPU typisch bis besonders anspruchsvoll sind.

Benchmarkergebnisse und neue Testsequenzen

Ich habe mich dazu entschieden die absoluten Frametimedaten und die Vorstellung der neuen Testsequenzen in einen extra Artikel auszulagern.
Dann kann ich mich hier auf die prozentualen Unterschiede von dual zu single ranked konzentrieren.

Ramtest-Session Juli/August 2018
.......................

Synthetische Benchmarks(Aida64)

An dieser Stelle nochmal ein kurzer Überblick über das verwendete System und die verwendeten Ramtimings:

Ein Ryzen 1800X mit Pstate OC auf 3,8GHz. 100.2MHz BCLk(für die optik). Ich musste für die sommerlichen Temperaturen etwas undervolting zurücknehmem und komme unter IBT Last auf 1,3-1,312V.

Asus Crosshair VI Hero @ Bios 6002

Vega64 LC mit custom Wasserkühlung für CPU und GPU. PT+50%, P7 = 1702MHz, 1050mV(resultiert in ca 1610MHz bei 1V),
HBM2@1050MHz, P6 als min gesetzt

2x16GB DR und 2x8GB SR DDR4 mit Samsung B-die
Sämtliche im Bios einstellbaren Timings wurden für die höchste effektive Ram Taktrate des DR Kits optimiert und manuell festgesetzt.
dann für das SR Kit gleich gewählt.
Die Timings für 2933 CL16 habe ich aus verschiedenen Angaben aus dem Internet für Aegis 3000 CL16er Ram entnommen und bei widersprüchlichen Angaben den Mittelwert eingestellt. Die Subtimings sind dabei ganz in Ordnung aber natürlich weit von "optimiert" entfernt....eben das was man bekommt wenn man das docp Profil lädt und es so lässt.

3,8GHz 3200 2x16GB DR, tight CL14.png3,8GHz 3200 2x8GB SR, tight CL14.png3,8GHz 2933 2x8GB SR, cl 16 18 18 docp subtimings.png

Kommen wir jetzt zu den Bandbreiten und Latenzen, die Aida misst:

Aida bandwidth.png


Wie man sieht zeigen sich bei 3200MHz effektivem Ramtakt minimale aber reproduzierbare Vorteile für den SR Ram(1%) aber etwas Nachteile bei den Kopier-Werten(6,6%). Die Schreibraten waren praktisch im Bereich der Messungenauigkeit und daher als gleich anzusehen.

Ein ähnliches Bild zeigt sich bei 2133Mhz. Hier kann sich SR zwar nicht beim lesen absetzen und verliert minimal beim Schreiben, der deutliche Unterschied bleibt jedoch wieder der Kopierwert(7,1%).
Warum sich das Bild leicht verschiebt, könnte daran liegen, das sich die absoluten "Arbeitsschrittzeiten" gegeneinander unterschiedlich verschieben, sobald die Ram Frequenz geändert wird. Die Verhältnisse bleiben gleich, aber manche Subtimings sind bei 5 und andere bei 12.
Multipliziert mit der Zeit für einen Takt, wird der absolute Abstand größer und hat damit eventuell andere Einflüsse, wenn die Ram Frequenz sinkt.


Wenn die 8GB Riegel im single channel Modus gesteckt sind, sieht man wie sich die Bandbreiten fast halbieren. Ein erwartbares Ergebnis.

Die 2933 mit Cl 16 18 18 38er Timings positioniert sich mittig zwischen 2133 und 3200 Cl14.
Die Aufspaltung zwischen read und copy ist deutlich größer, was ich auf die Timings zurückzuführen würde.

aida latency.png


Anders als bei den Bandbreiten, scheinen hier SR und SC keine Nachteile zu haben.
Der SC Betrieb hat bei 3200 sogar die besten Werte, wobei man hier praktisch im Bereich der Messungenauigkeit liegt.

Die 2933 Cl16 liegen wieder im Mittelfeld. Ich hatte aufgrund der schlechteren Timings schlimmeres erwartet und bin positiv überrascht.

Die erhobenen Daten sind aus dem Juli/August 2018 und sind sicher gegen Meltdown und Spectre(nach aktuellem Wissensstand).
Windows 10 und Treiber waren aktuell, HPET aus, Energieoptionen auf Höchstleistung.

Mit diesen "theoretischen" Werten im Hinterkopf können wir und jetzt an die Auswertung der Spieleergebnisse machen....

Spieletests: Dual ranked vs. single ranked

Trotz meines enormen Aufwandes, sind nicht alle Daten so zuverlässig, dass sie eine Aussagekraft haben. Ich zeige daher erstmal nur die Daten die mir zuverlässig erscheinen und wer alles sehen möchte muss den Spoiler öffnen.

DR vs. SR bei 3200 Cl14:

ges dr sr 3200 auswahl.png

ges DR SR 3200 all.png

Ich musste The Witcher 2 komplett rausnehmen und auch viele der 1% und 0.1% low Werte.

Die übrig gebliebenen Daten, zeigen ein paar Spiele, die durchaus gute Vorteile aus dual ranked Ram ziehen.
Ashes of the Singularity, Hitman und F1 2015 profitieren mit grob 3-6% in dem Bereich, in dem der Vorteil von DR beim Aida copy Test lag(6,6%).

Starcraft 2, CoH2 und Thief(vier) profitieren mit ungefär 1,5%.

ROTTR gewinnt minimal bei den avg FPS und wenn man die großen Fehlerbalken ignoriert(siehe spoiler) dann auch bei den Frametimes.

HotS und Rome BI verlieren leicht an Leistung. Eventuell eine Mischung aus den minimal bessere read und Latency Werten des SR Kits.

Bei Prison Architect sieht man einen winzigen Vorteil für DR bei den avg FPS aber leichte Nachteile bei den 1% low Werten.
Klingt erstmal nach einem Messfehler, aber dieser Zusammenhang zeigt sich auch in einer Reihe der ausgeblendeten Daten.
AotS, Cities Skylines, Prison Architect, Rome BI, Witcher 2 und witcher 3 zeigen alle stärkere Nachteile für DR bei den Frametimes in Vergleich zu den avg FPS!
Die ausgeblendeten Daten sind nicht ohne Grund ausgeblendet(große Fehlerbalken), aber in der Summe halte ich das durchaus für ein legitimes Ergebnis.

Aber schauen wir uns erst einaml den Vergleich bei 2133Mhz an:

DR vs. SR bei 2133 Cl14:

ges dr sr 2133 auswahl.png


ges dr sr 2133 all.png

Bei 2133 sehen wir praktisch nur Siege für den DR Ram.
Auch die Frametimes zeigen jetzt öfter größere Vorteile für DR als bei den avg FPS.
Lediglich The Witcher 3 hat schlechtere 0.1% low Werte, die jedoch auch mit einem sehr großen Fehler verbunden sind.
Und Rome ist noch minimal schlechter bei den avg Werten, jetzt aber tendenziell besser bei den Frametimes.

AotS, Hitman und F1 2015 sind weiterhin große Profitöre von dual ranked Ram. Die 5-8% sind wieder im Bereich der Aida copy Werte(7,1%).

Bis auf die Witcher 3/Rome Ausnahmen profitieren hier alle Spiele mehr oder weniger von DR.
Verglichen mit den Aida64 Ergebnissen passt das zusammen. Da hatte es mit 3200MHz noch leichte Vorteile für SR bei read und latency gegeben.
Mit 2133MHz waren diese Vorteile verschwunden und DR war in jedem Punkt besser, wenn auch nur bei Copy in einem signifikanten Bereich.


Bewertung der "dual ranked Mythen" und Fazit:
Die Antwort auf die Frage nach Vorteilen durch DR Ram bei Ryzen ist wie so oft: "Es kommt darauf an!"


Es ist deutlich geworden, das DR Vorteile bietet wenn es um das kopieren von Daten im Ram geht.
Das ist logisch, den mit mehr "ranks"(vier statt zwei bei DC Betrieb) die angesprochen werden können, besteht einfacher die Möglichkeit direkt von einem in einen anderen rank zu kopieren.

Verschiedene Spiele haben sicherlich verschiedene Anforderungen an den Ram und sobald oft/viele Daten kopiert werden müssen, kann der DR Ram seine Stärke ausspielen.

Eigentlich sollte DR Ram zusätzlich den Vorteil haben, seine ranks abwechselnd aufzufrischen.
Wenn ich das richtig verstanden habe wurde das Feature von AMD, in neueren Agesa Versionen, jedoch in Form von "BankgroupSwap" generell deaktivert. Warum man das gemacht hat ist mir schleierhaft. Zum release von Ryzen hatte ich mit meinem DR Ram größere Vorteile für enabled gesehen.
Test aus dem Internet haben mit SR Ram Nachteile gesehen und daher wurde es wohl abgeschaltet. Warum es sich aber nich mehr manuell aktivieren lässt sobald man DR Ram hat ist unverständlich für mich.

Nicht ganz klar ist, warum der SR Ram bei 3200 in Aida64 leicht besser bei den read und latency Werten ist, bei 2133 aber nicht.
Dies zeigt sich jedoch auch in den Spielen, die in einigen Beispielen bessere Frametimes für SR 3200er Ram zeigen.
Der Zusammenhang scheint logisch, so sind es doch gerade die Lese- und Reaktionszeiten die wichtig sind um unvorhergesehene Berechnungen mit Daten zu versorgen. Um so schneller dies geht um so weniger Nachteile hat es in den Frametimes.

Alles in allem kann ich die Mythen "Ryzen mag dual ranked Ram." und "Dual ranked Ram kann man nicht so hoch takten" bestätigen.
Vermutlich mag Intel ebenfalls DR Ram und auch bei Intel kann man DR nicht so hoch takten....bei Ryzen ist die Taktgrenze aber schneller erreicht.

Es stimmt auf jeden Fall, dass man auf Ryzen/AM4 DR nur schwer über 3200- eventuell 3333 bekommt. SR aber auf 3400- eventuell 3600MHz.(passenden Ram und Einstellungen vorausgesetzt)

Gerade bei 2133 aber auch bei 3200MHz zeigten sich Vorteile für DR in Spielen. Die Vorteile/Nachteile hängen stark von den vewendeten Spielen ab, weshalb ich nicht auf die durchschnittlichen Unterschiede eingehen möchte.
Der Durchschnitt hängt zu stark von meiner Spieleauswahl ab!

Wenn ich die Spiele in Kategorien einteile und versuche Muster zu erkennen, dann würde ich folgendes schlussfolgern:
- Größtenteils GPU limitierte Spiele wie The Witcher 3 und ROTTR mit 3200er Ram zeigen logischerweise keine sinnvollen Unterschiede.

- Moderne Spiele, die große Mengen an Textur und Effekt-Daten in und aus dem Ram kopieren, profitieren stärker von DR Ram.
Beispiele sind bei mir AotS, Hitman und F1 2015....und irgendwie auch Thief.....das sind all die Spiele, die in meinem Test zum single channel Betrieb die größten Einbußen hatten, also auf hohe Bandbreiten angewiesen sind.

-Die restlichen Spiele zeigen mal geringe Vorteile mal Nachteile.... Ich nehme an, dass es hier nicht den einen Faktor gibt der ausschlaggebend ist, es also eher eine undurchsichtige Mischung aus read, copy und latency ist.

- Alle Spiele haben bei 2133, im Vergleich zu 3200, eher DR bevorzugt. Oder anders gesagt verschwinden die Vorteile von DR zu hohen Ram Frequenzen immer mehr und Nachteile treten stärker hervor.

Was ist mit dem Mythos, das DR, je nachdem wen man fragt, mal "eine Frequenzstufe schneller" ist oder gar "2666 cl16 DR gleichauf mit 3200 CL14" sein soll?
Eine Taktstufe(266MHz) mehr ist sicherlich je nach Spiel drin.
Da das aber nur wenige Spiele sind wo DR deutlich profitiert, aber fast alle CPU limitierten Spiele profitieren generell von schnellerem Ramtakt. Daher sehe ich diesen Punkt nicht als wichtig an.
Ich kann besser 266MHz mehr Ram Speed bei SR haben und bei vielen Spielen besser und in manchen Spielen "nur" gleichauf mit DR sein,
als manchmal gleich gut und dann oft langsamer zu sein.

Ich habe nicht explizit DR 2666 CL16 getestet aber es wird sich grob in der Mitte zwischen 2133 und 3200 CL14 einfinden.

Schaue ich nur die Spiele an, wo DR 3-8% schneller ist bei gleichem Takt und gleichen Timings, und gucke wie viel diese von 2133 bis 3200MHZ CL14 profitiert haben, dann liege ich da im worst case von 2133 DR auf 3200 SR bei 19,1-25.9%. Die Hälfte davon wäre 9,5-12,9% und damit weit mehr als die 3-8%.
Die Daten von Golem.de halte ich also für falsch gemessen oder durch schlechte Subtimings bei deren 3200 CL14 SR Kit verfälscht.

3 von 4 Mythen bestätigt ist besser als meine Erwartungen an diese Testreihe. :)

Kaufberatung:
Als Kaufempfehlung bezüglich DR oder SR Ram komme ich zu folgender Einschätzung:

Wenn ihr 32GB Ram haben wollt, dann seid ihr mit 2x16GB DR bis 3200MHz gut bedient.
4x8GB SR sollen sich laut curious aber besser hoch takten lassen.
Ich habe keine 4x SR um die Leistung zu testen und ich hatte öfters von größeren Problemen mit Vollbestückung gelesen. Aber von Problemen ließt man überall;).
Curios meinte das man 4x SR sogar auf 3600MHz hoch bekommen kann, was ich noch bei keinem DR Kit gesehen habe. Dementsprechend scheinen dies durchaus die schnellsten 32GB zu sein, gesetzt den Fall dass man sie zum laufen bekommt.
Mischbestückungen von DR und SR waren für mich nur schwer zum laufen zu bringen...48GB aus meinen beiden Kits konnte ich irgendwann mit 3200 zum laufen bringen, aber mit Einbußen bei den Timings und nicht 100% stabil. 4x16GB haben hier im Forum auch schon Leute stabil bekommen. Aber auch da mit sehr viel Arbeit.

Wenn ihr die maximale Leistung aus eurem Ryzen System quetschen wollt, empfehle ich hoch taktenden 2x8GB SR 3600 CL15er Ram.
Erwartet nicht, diesen auch mit 3600 zum laufen zu bekommen aber ich konnte 3400 mit den optimierten Subtimings aus diesem Test zum laufen bringen. Das ist in jeder Hinsicht schneller als DR 3200.

Wenn euer Budget nicht nach oben hin offen ist und ihr nicht Stunden bis Tage mit dem Einstellen und testen eures Ram verbringen wollt, machen diese Optionen allerdings keine Sinn. Dann solltet ihr nach günstigeren Alternativen Ausschau halten.
3200 Cl16 ist in der Regel kein Samsung B-die Ram und läuft daher oft nicht problemlos auf 3200.
Man kann also gleich noch mehr Geld sparen und lieber 3000 CL15/16 SR kaufen. Mit neuen Bios Versionen sehe ich nur noch sehr selten Probleme mit 2933/3000MHz. Diese laufen fast immer durch laden des XMP/docp Profils und wie meine Tests gezeigt haben, ist man selbst mit schlechten Cl 16 18 18 38, mittig zwischen 2133 und 3200MHz mit optimiertem Samsung B-die Ram...im Schnitt zwar grob 9% langsamer dafür über 70€ und vielen Stunden Ram einstellen günstiger.
Ein guter Kompromis, denn die 70€ kann man in eine bessere Grafikkarte stecken, die in neuen Spielen eh mehr bringt und die Zeit kann man mit Spielen verbringen. ;)

Will man aus irgend einem Grund nur eine bestimmte niedrigere Ram Frequenz(z.B. 2666). Dann sollte der Preis entscheiden ob DR oder SR gekauft wird. DR wäre aus meiner Sicht ein paar € mehr Wert aber meiner Meinung nach kann man dann besser schnelleren SR Ram kaufen.

Wer stark aufs Geld achten muss, der sollte zumindest 2666 CL15 oder 16 kaufen!

Vermeiden sollte man meiner Meinung nach teuren Samsung B-die zu kaufen und dann nicht die Timings und Subtimings zu optimieren!
Wer also sowas wie 3200 CL14 gekauft hat, der sollte sich zumindest eine Weile mit optimieren beschäftigen. Denn die docp Profile für 3200 stellen nur so mittelmäßige Subtimings ein. Dann liegt man Leistungstechnisch nur auf halbem Weg zwischen 2933 CL16 und optimierten 3200. Dann lieber das Geld sparen^^.

Es gibt für Ryzen inzwischen viele Hilfsmittel zum optimieren. Der Ryzen Timing Checker(RTC) ließt alles wichtige unter Windows aus und ihr könnt einen Screenshot im Forum posten damit andere euch helfen können. Vorher solltet ihr versuchen euch selbst zu helfen;).
Es gibt ein Tool namens Ryzen Dram calculator, das euch auf Erfahrungswerten und Berechnungen basierend save, fast und extreme Timings sowie weitere Einstellungen vorschlägt. Man kann das Programm das XMP Profil auslesen lassen, eintragen ob man DR oder SR Ram hat und die fast Werte probieren. Bei mir gingen nicht alle der extrem Timings aber oft eine Mischung aus fast und Extrem. Da fängt dann die Arbeit an für die letzten paar Funken Leistung...stellt man die fast Timings ein, ist das aber auch schon eine tolle Sache und schnell gemacht...diese Zeit sollte man investieren.

Und dann kommt das wichtigste! Auf Stabilität testen!
Memtest86 kann den kompletten Ram testen, verursacht aber keine so große Last wie andere Tests und findet daher nur schwer kleine Instabilitäten.
Ich bin ein Fan von HCI Memtest(trial version). Das muss man aber so oft aufmachen wie man CPU Kerne hat, damit es auch eine hohe Ram Belastung verursacht. Je Instanz sollte man möglichst viel Ram zuweisen aber es geht nicht über 2000MB(trial version) und insgesamt darf nicht mehr Ram getestet werden als vorhanden(sonst hagelt es Fehler).
Schlimme Instabilitäten kommen dann unter 10% und leichte bis 200%. Wenn dann noch nichts war dann ging es bei mir auch über 800% gut. Aussagen wie mindestens bis 10000% testen halte ich für übertrieben....da dann besser Doppelbelastung mit anderen Programmen verursachen.
Natürlich sollte erstmal sicher sein, das die CPU voll stabil ist, wobei man aufpassen muss, da schnellerer Ram auch die CPU besser auslastet und ein CPU OC das mit langsamem Ram stabil war wird mit Ram OC eventuell instabil.


Was sind eure Meinungen dazu?
Habt ihr Verbesserungsvorschläge oder wollt ihr besimmte Sachen sehen, die ich hier nicht behandelt habe?
 
Zuletzt bearbeitet:

ZeroZerp

Captain
Dabei seit
Okt. 2007
Beiträge
3.345
@Baal Netbeck

Gratuliere - Saubere, aufwendige und aussagekräftige Abhandlung des Themas, welches sich mit meinen Erfahrungen und Messungen deckt.

Ist übrigens bei Intel auch so, dass die Copy- Werte bei DR deutlich zulegen.
Ich beitreibe auf meinem Z370 Board 2x16GB GSkill auf 4100MHz CL16.

Die Taktfreude hängt auch hier vom Binning ab. Sicherlich ist es aber schwieriger, entsprechende Module mit 16GB ordentlich zu takten als 8GB Module.

Grüße
Zero
 

smart-

Lt. Commander
Dabei seit
Nov. 2017
Beiträge
1.670
Guter Artikel, finde die Wortwahl teilweise jedoch übertrieben.
Was du hier als Mythen darstellst sind teilweise völlig logische und Allgemein bekannte Fakten.
 

Baal Netbeck

Captain
Ersteller dieses Themas
Dabei seit
Apr. 2008
Beiträge
3.735
Ist übrigens bei Intel auch so, dass die Copy- Werte bei DR deutlich zulegen.
Das ist schön bestätigt zu haben. :)
Ergänzung ()

Was du hier als Mythen darstellst sind teilweise völlig logische und Allgemein bekannte Fakten.
Bei der Wortwahl gebe ich dir Recht. ;)

Allgemein bekannt macht aber noch keine Fakten. Es wird ja auch vieles wiederholt, was trotzdem nicht richtig sein muss.
 
Zuletzt bearbeitet:

D0m1n4t0r

Commander
Dabei seit
Jan. 2014
Beiträge
2.907
Schöner Artikel. Woher genau bekommt man die ungefähren Subtimings für den Ram ?
Z.b. für 3200er G.Skill Flare X

Edit: Für den hier: G.Skill Flare X 3200 CL 14
 
Zuletzt bearbeitet:

Baal Netbeck

Captain
Ersteller dieses Themas
Dabei seit
Apr. 2008
Beiträge
3.735
Woher genau bekommt man die ungefähren Subtimings für den Ram ?
Z.b. für 3200er FlareX
3200 CL14, 15, 16?
Das was durch Auto eingestellt wird oder das was man durch optimieren findet?

Das was vom Crosshair VI Hero für 3200 CL14 auf Auto/docp gewählt wird wäre folgendes:
timing 3200 docp.PNG


Meine optimierten Timings habe ich durch mühevolles ausprobieren herausgefunden.

Aber wie im Artikel beschrieben kann man mit den Ryzen Dram calculator und den Fast timings einen guten Anfang finden, von dem aus man sich an die Grenzen arbeitet.
 
Zuletzt bearbeitet:

mace1978

Lieutenant
Dabei seit
Mai 2008
Beiträge
916
WOW, ganz schön viel Arbeit und durchaus aufschlussreich.

Hätte auf die schnelle 4 Punkte.

1. Der Geardownmode ist bei dir aktiv, kann durchaus sein, dass es evt. ein Grund für die leicht besseren Werte beim Read auf 3200 ist.

2. Ergeben sich m.E. hier durchaus die Fragen, wenn 2133 nur Siege für DR sind, bei 3200 allerdings ein gemischtes Feld ist: Ist es Fair 3200 als primären Massstab zu wählen? Und ab wann trifft diese Angleichung auf?
Ist es eher ein, je mehr Takt, desto weniger profitiert der DR, oder ist es eher ein, der DR schwächelt bei der Einstellung einfach schon, während der SR die Einstellung gut verkraftet(siehe Geardownmode).

3."Größtenteils GPU limitierte Spiele wie The Witcher 3 und ROTTR mit 3200er Ram zeigen logischerweise keine sinnvollen Unterschiede."
Es kommen andere Tests teilweise auch im GPU-Limit noch auf erstaunliche Unterschiede.
Das GPU-Limit grundsätzlich aufheben ist natürlich Unsinn, denn wer möchte Grafikoptionen runterschalten, damit sein Speicher besser läuft, aber die Vorteile des Speichers u.U. zu ignorieren, nur weil die GPU in diesem Beispiel nicht mehr her gibt ist auch nicht ganz konsequent.

4."Je Instanz sollte man möglichst viel Ram zuweisen aber es geht nicht über 2000MB(trial version) "
Ich teile 16 GB durch 6 Kerne(12 Threads wären möglich), dabei wähle ich Stücke mit 2560 und 2048, bis der Ram ausreichend voll ist. Das funktioniert bei mir zumindest durchaus mit der Trial.
 
Zuletzt bearbeitet:

Baal Netbeck

Captain
Ersteller dieses Themas
Dabei seit
Apr. 2008
Beiträge
3.735
Der Geardownmode ist bei dir aktiv, kann durchaus sein, dass es evt. ein Grund für die leicht besseren Werte beim Read auf 3200 ist
Guter Gedanke. Der GearDown mode ist allerdings auf enabled fest gesetzt...also auch bei 2133 aktiv.
PowerDown übrigens auf disabled, falls sich das jemand fragt;).

Ist es Fair 3200 als primären Massstab zu wählen, und ab wann trifft diese Angleichung auf.
So direkt als Maßstab wollte ich 3200 nicht wählen. ;)

Da diese Thema eher Enthusiasten interessiert, habe ich allerdings eine größeren Fokus auf 3200 gelegt.
Ich hoffe es ist nicht so rüber gekommen als würde ich die Ergebnisse von 2133 ignorieren wollen.:(

Es kommen andere Tests teilweise auch im GPU-Limit noch auf erstaunliche Unterschiede.
Das GPU-Limit grundsätzlich aufheben ist natürlich Unsinn, denn wer möchte Grafikoptionen runterschalten, damit sein Speicher besser läuft, aber die Vorteile des Speichers u.U. zu ignorieren, nur weil die GPU in diesem Beispiel nicht mehr her gibt ist auch nicht ganz konsequent.
Den zweien Teil verstehe ich nicht ganz. ;)
Aber ich stimme dir zu, dass man eigentlich selten ein 100 prozentiges GPU limit hat. Das was ich hier mit The Witcher 3 als "GPU limit" bezeichnet habe, ist z.B. mit weniger CPU Takt oder weniger CPU Kernen ein ziemliches Mischmasch, wo mal die CPU und mal die GPU limitiert.
Erst mit den 8 Kernen und ausreichendem CPU Takt wird über die ganze Szene zu 99,9% auch 99-100% GPU Auslastung angezeigt. Trotzdem zeigen sich Unterschiede über den Ram Takt. Die betrifft dann nicht die avg FPS aber schneller Ram sorgt trotzdem für bessere Frametimes. Ein kleiner Einfluss ist also weiterhin da.

Aber der Einfluss ist natürlich eher von einem dicken Teppich aus limitierender GPU verdeckt. Da ist es schwer, sinnvoll 10MHz mehr GPU Takt (durch z.B. 5° andere Temperatur) von echtem CPU/Ram Einfluss auseinander zu halten.

dabei wähle ich Stücke mit 2560 und 2048, bis der Ram ausreichend voll ist. Das funktioniert bei mir zumindest durchaus mit der Trial.
Dann habe ich eine andere Version. Wenn ich bei mir versuche mehr als 2000MB einzutragen, meckert sie rum, ich müsste zahlen....spielt ja aber auch keine Rolle ob da jetzt 2000 oder 2560MB getestet werden. ;)

ab wann trifft diese Angleichung auf.
Ist es eher ein, je mehr Takt, desto weniger profitiert der DR, oder ist es eher ein, der DR schwächelt bei der Einstellung einfach schon, während der SR die Einstellung gut verkraftet
Das ist in der Tat etwas, das ich selbst gerne untersuchen würde. ;)
Also ich hätte natürlich gerne eine komplette Skalierungskurve von 2133 bis 3200 für SR und DR.
Nur mit den Stufen 2400, 266, 2800, 2933, 3066 wäre das aber schon ein unschaffbares Stück Arbeit!
Die 7 Ram konfigurationen, die ich getestet habe waren ja schon weit über 1800 Messungen.
Wenn ich da noch zwei mal 5 weitere hinzufüge....:jumpin:

Wenn ich mich auf 1-2 Spiele konzentrieren würde könnte ich es aber eventuell in ein paar Tagen schaffen.
Also keine Versprechungen, aber welche Spiele würdet ihr vorschlagen?

AotS wäre eigentlich ein guter Kandidat, aber da ist das Testen wirklich ein Graus!
Es ist ärgerlich, wie die Ergebnisse immer leicht von Messung zu Messung springen. Dann dauern sie 3 min je Messung + Ladezeiten und großer Hitzeentwicklung in der Wohnung....also lieber nicht.

Rome wäre auch ein Kandidat, wo sich das Verhältnis von avg FPS und Frametimes irgendwo zwischen 2133 und 3200 umdreht.
Leider sind die FPS so gering, das ich trotz 60s Messung etliche Male messen muss und dann sind es noch zu wenige Frametimes um die 0,1low richtig auszuwerten(ist immer nur der schlechteste Frametime). Noch dazu stirbt manchmal in den 60s ein General und ich muss die Messung wiederholen....und dann noch einige male mehr....nein!

Mir bleiben eigentlich nur noch HotS und Prison Architect.....außer ich bekomme bessere Vorschläge. ;)
 
Zuletzt bearbeitet:

mace1978

Lieutenant
Dabei seit
Mai 2008
Beiträge
916
Guter Gedanke. Der GearDown mode ist allerdings auf enabled fest gesetzt...also auch bei 2133 aktiv.
So wie ich GDM verstehe springt der ein, wenn der RAM/Speicherkontroller(?) überfordert ist. Wenn der bei 2133 in beiden Fällen nie einspringt und bei 3200 vor allem bei DR einspringt, dann macht es schon Sinn, dass der DR in 3200 nachlässt.

So direkt als Maßstab wollte ich 3200 nicht wählen. ;)
Da diese Thema eher Enthusiasten interessiert, habe ich allerdings eine größeren Fokus auf 3200 gelegt.
Ich hoffe es ist nicht so rüber gekommen als würde ich die Ergebnisse von 2133 ignorieren wollen.:(
Ist so nicht rübergekommen, ich wollte es aber noch mal betonen.

Vereinfacht umschrieben. Wenn man davon ausgeht, die Grafikkarte liefert in einem Spiel auf Superhigh immer 5 FPS, egal ob es SR-DR/SC-DC/2133-3200 sind. Da sollte man dann überlegen, ob ein Test auf High :D, und einem weniger strengen GPU-Limit den Vorteil von stärkeren Ram aufzeigen kann.
Auf der anderen Seite bringt es aber auch nichts, wenn ich ein Spiel(High mit 144+ FPS im GPU-Limit) auf das Setting Niedrig stelle, um künstlich einen Ramvorteil darzustellen, der praktisch nicht zum tragen kommt.

Mir bleiben eigentlich nur noch HotS und Prison Architect.....außer ich bekomme bessere Vorschläge. ;)
Ich glaube, da kann dir keinen bei helfen, nur du kannst den Aufwand und die Entwicklung einschätzen.
Grundsätzlich ist der Ansatz bei den Diskrepanzen zu testen und wenige Spiele zu wählen ja schon mal sehr vernünftig.
Würde da auch keine komplette Skalierungskurve nehmen. Würde bei 3066 anfangen, gucken, was passiert....und wenn es eher wie bei 2133 aussieht, dann hat man den schuldigen.
Ansonsten wäre 2133-2666-3066-3200 danach mal interessant, da ich bei 2666 tatsächlich noch nicht mit großem einbrechen rechnen. Selbst bei 2933 würde ich damit nicht rechnen.


P.S. Da du wie Werte ja eh schon hast, wäre total nett, wenn du die 2133 vs 3200 noch mal in einer Grafik gegenüberstellen könntest, damit man in diesen Spielen noch einmal aufgezeigt bekommt, was der höhere Speichertakt denn bringt.
 
Zuletzt bearbeitet:

Baal Netbeck

Captain
Ersteller dieses Themas
Dabei seit
Apr. 2008
Beiträge
3.735
So wie ich GDM verstehe springt der ein, wenn der RAM/Speicherkontroller(?) überfordert ist. Wenn der bei 2133 in beiden Fällen nie einspringt und bei 3200 vor allem bei DR einspringt, dann macht es schon Sinn, dass der DR in 3200 nachlässt.
Der Geardown Mode springt eigentlich auf "Auto" ab 2666MHz Ramtakt an. Da ich ihn manuell enabled habe wird er also immer laufen.

Wenn ich das richtig verstanden habe(kann man mich gerne korrigieren falls ich da falsch liege), wird dann nicht mehr in jeder Situation 1T oder 2T Comand rate genutzt, sondern es wird für bestimmte als kritisch geltende Abläufe mit halbiertem echtem Takt gearbeitet.
Es wird also von dem echten Ramtakt von 1600MHz (bei DDR4 3200) für manche Befehle nur jeder zweite Takt genutzt also nur mit 800Mz gearbeitet.
Da scheint es also eine Liste zu geben, nach der entschieden wird wann normal mit 1T und vollem Takt und wann mit 800MHz gearbeitet wird.
Das ermöglicht dann fast alles schnell zu bearbeiten und manches, das sonst eher Fehler machen würde eben verlangsamt.
Unterm Strich liegt die Leistung zwischen 1T und 2T(bei gleichen Timings).
Um 1T zu schaffen, müsste ich allerdings twrrd von 1 auf 3 anheben und das ist dann für mein Ram Kit langsamer als mit Geardown enabled und tWRRD auf 1.

Ich denke/hoffe daher, dass der Geardown Mode immer nach der gleichen Liste verfährt und er daher keine Probleme macht.
Wenn man davon ausgeht, die Grafikkarte liefert in einem Spiel auf Superhigh immer 5 FPS, egal ob es SR-DR/SC-DC/2133-3200 sind. Da sollte man dann überlegen, ob ein Test auf High :D, und einem weniger strengen GPU-Limit den Vorteil von stärkeren Ram aufzeigen kann.
Auf der anderen Seite bringt es aber auch nichts, wenn ich ein Spiel(High mit 144+ FPS im GPU-Limit) auf das Setting Niedrig stelle, um künstlich einen Ramvorteil darzustellen, der praktisch nicht zum tragen kommt.
P.S. Da du wie Werte ja eh schon hast, wäre total nett, wenn du die 2133 vs 3200 noch mal in Grafiken gegenüberstellen könntest, damit man in diesen Spielen noch einmal aufgezeigt bekommt, was der höhere Speichertakt denn bringt.
Genau meine Meinung^^.

Ich habe den Artikel noch nicht fertig geschrieben...die Grafiken sind allerdings schon gemacht.
Ich habe die Tests in 1440p mit höchsten Grafikeinstellungen für komplett CPU limitierte Spiele und angepassten Einstellungen für misch/GPU limitierten Spielen durchgeführt.

Ich habe versucht alles so einzustellen, wie ich es auch selbst nutzen würde. Ich hab also versucht ca 80-100 FPS zu erreichen.
Dabei habe ich allerdings eher CPU lastige Einstellungen wie Schatten und NPC Anzahl hoch gewählt und GPU lastige Einstellungen wie AA eher aus oder niedrig gewählt.
Ich habe eine Playlist mit allen Testszenen diese Jahres inclusive Einstellungen:
https://www.youtube.com/playlist?list=PLP9fskJGwUOT5CByAJMJrXaggyMuUgsFt
nur Prison A. dauert jetzt 120s und Cities Skylines 50s.
 

mace1978

Lieutenant
Dabei seit
Mai 2008
Beiträge
916
1. Wenn ich das richtig verstanden habe(kann man mich gerne korrigieren falls ich da falsch liege), wird dann nicht mehr in jeder Situation 1T oder 2T Comand rate genutzt, sondern es wird für bestimmte als kritisch geltende Abläufe mit halbiertem echtem Takt gearbeitet.
Es wird also von dem echten Ramtakt von 1600MHz (bei DDR4 3200) für manche Befehle nur jeder zweite Takt genutzt also nur mit 800Mz gearbeitet.

2. Da scheint es also eine Liste zu geben, nach der entschieden wird wann normal mit 1T und vollem Takt und wann mit 800MHz gearbeitet wird.
Das ermöglicht dann fast alles schnell zu bearbeiten und manches, das sonst eher Fehler machen würde eben verlangsamt.
Unterm Strich liegt die Leistung zwischen 1T und 2T(bei gleichen Timings).

3.Um 1T zu schaffen, müsste ich allerdings twrrd von 1 auf 3 anheben und das ist dann für mein Ram Kit langsamer als mit Geardown enabled und tWRRD auf 1.
1. Das genaue vorgehen, kenne ich auch nicht, aber deine Erklärung käme mir doch ein wenig sehr krass vor, dann wäre 2400-1T ja besser als 3200-2T. Das fänd ich schon extrem.

2. Ich hatte es eher so interpretiert, dass es in Echtzeit funktioniert und wenn der Ram feststellt, Daten sind noch nicht fertig er einfach den nächsten Takt abwartet, allerdings nur in dem Fall, in dem es benötigt wird.
Und wenn der SR das Geardown nicht benötigt, während der DR es benötigt hat der SR in diesen Fällen natürlich einen Vorteil.

3. Damit das klar ist, ich wollte nicht sagen, dass Geardown off die besseren Settings sind. Die erreicht du eher mit dem Geardown on. Aber für die Vergleichbarkeit der Werte ist es von klarem Vorteil, wenn du weisst, ob der RAM nun mit 1T oder mit 2T läuft. Da es dir ja genau darum geht mit gleichen Timings zu testen.
 

Baal Netbeck

Captain
Ersteller dieses Themas
Dabei seit
Apr. 2008
Beiträge
3.735
Es gibt keine Möglichkeit für den Ram zu wissen ob ein Arbeitsschritt abgeschlossen wurde.
Deshalb gibt es ja die Timings. Das Ansprechen einer Spalte dauert unterschiedlich lang, z.B. je nachdem ob die erste oder die letzte Spalte gefunden werden muss.
Mit Cl14 gibt man dem Ram jedes mal 14 Taktzyklen Zeit die Spalte zu finden. Die erste hat er schneller gefunden...dann langweilt er sich kurz.
Ist das Timings ans Maximum optimiert findet er die letzten Spalten immer nur ganz knapp vor Ablauf der 14 Taktzyklen. Und das sind grob 10ns. Eine Antwortfunktion, die beim finden ein Signal zurück schickt und sagt, dass der nächste Schritt angegangen werden kann ist erstens nicht möglich, ohne dafür extra Schaltkreise und damit Datendichte zu opfern und diese Antwort würde auch zeitlich keine Vorteil bringen weil es viel zu lange dauert.

Daher startet der Ram nach Ablauf der 14 Zyklen einfach den nächsten Schritt und ist der Ram nicht bereit, kommt es zu Fehlern. Von denen merkt der Ram aber nichts. Oder zumindest nicht in diesem Moment.
Es gibt Möglichkeiten nachträglich manche Fehler zu korrigieren aber erstmal ist es versaut.

Eine Funktion im Geardown Mode, die in Echtzeit die Fortschritte überprüft halte ich daher für ausgeschlossen.

Den Takt für einzelne Aktionen zu halbieren ist denke ich kein Beinbruch.
Wenn von 20 Arbeitsschritten ein oder zwei doppelt so lange brauchen macht das nicht viel aus.

ich kann ja mal 2133 und 3200 mit GDM off testen.
 

M7.Cyrius

Lt. Commander
Dabei seit
März 2008
Beiträge
1.040
Danke für deine Mühe und für den sehr ausführlichen Artikel.

Ich habe in den letzten Wochen auf 32 GB RAM aufgerüstet (G.Skill Trident Z RGB 3200 CL14 Dual Rank mit Samsung B-Die) und bin seither verzweifelt die Module wirklich stabil zu bekommen. Nach etlichem Ausprobieren und stundenlangem Schwitzen laufen die Module einigermassen stabil mit 14-14-14-34-48-2T, zusätzlich TFAW 24, trfc 350, trfc2 260, trfc 160. 1T schmeckt meiner CPU oder meinem Board überhaupt nicht und bekomme in memtest86+ nicht mal den ersten Testrun fehlerfrei durch.

Auch wenn mit den besagten Timings oben memtest86+ nach ca. 11 Stunden und 5 Runs fehlerfrei durchläuft, kommt es in Windows immer noch zu sporadischen Bluescreens (KMODE_EXCEPTION_NOT_HANDLED oder PAGE_FAULT_IN_NONPAGED_AREA) oder abstürzenden Tabs in Firefox, Games welche ohne Vorwarnung abstürzen usw. Du hättest bestimmt nichts dagegen, wenn ich deine aufwendig ermittelte Subtimings als Grundlage verwende? *liebguck* ^^

Deinen Speicherdurchsatz mit AIDA64 bekomme ich auch nicht hin, geschweige denn die Latenzen. Soweit ich es noch im Kopf habe, sind es durchweg für Read/Write/Copy zwischen 42k und 45k MB/s und 74.3 ns. Ich werde heute nach der Arbeit noch die Screenshots von meinen Testläufen zur Verfügung stellen.

Stand Heute:

RTC:

3200CL142T.png


Memtest86+

IMG_20180813_183236.jpg


AIDA64:

cachemem7.png

3066 CL14:

cachemem.PNG


3200 CL16:

cachemem1.png


3200 CL14 1T:

cachemem3.png
 
Zuletzt bearbeitet: (Bilder hinzugefügt)

Baal Netbeck

Captain
Ersteller dieses Themas
Dabei seit
Apr. 2008
Beiträge
3.735
Du hättest bestimmt nichts dagegen, wenn ich deine aufwendig ermittelte Subtimings als Grundlage verwende?
Natürlich nicht....Da kann es aber natürlich von Kit zu Kit zu kleinen Unterschieden kommen.

In der Regel ist es das schwerste die richtige Kombi aus ProcODT, RTT und Cad Bus zu finden.
Die hängen leider vom Kit, vom Mainboard und von der Ram und CPU Spannung sowie Frequenzen zusammen.
Bei dir sieht das nach Auto Settings aus. Die sind eigentlich schon ganz gut, es kann aber nötig sein sie anzupassen.

Deine Timings sehen recht save aus.
tRDRDSCL und tWDWDSCL auf 6 kosten recht viel lese und schreib duchsatz. Da sind meine auf 2, was recht viel bringt...aber nicht bei jedem funktioniert.

tWRRD ist recht heftig was die Stabilität angeht. Mit GDM an, kann ich da auf 1, mit GDM off (wie bei dir) muss ich da auf 3 hoch....das sieht eigentlich gut aus.

Und 1T geht nicht?

Ich würde die Stabilität lieber mit HCI Memtest testen...da muss man mehrere Instanzen öffnen, und es kann nicht den kompletten Ram testen weil es unter Windows läuft, aber dafür ist die Belastung größer und man findet Fehler schneller. Muss man aber auch so oft aufmachen, wie man CPU Kerne hat um auch wirklich stärker zu belasten.


Da du das gleiche Board, den gleichen Ram und auch einen 1000er Ryzen auf 3,8GHz hast, könntes du Glück haben und du kommst mit einem kompletten kopieren meiner Einstellungen hin. Viele der Timings sind aber extrem an der Grenze und ich habe die DRam Sannung auf 1,36 erhöht sowie die Dram switching frequency auf 350 oder 400 angehoben...bin mir nicht mehr sicher.

Das macht aber eher den Unterschied ob 2199 oder 3205MHz stabil sind.;)

Wichtig ist, das die Dinge alle gleichzeitig eingestellt werden. Die Cad Bus Werte müssen zum Rest passen.
24 24 24 24 ist die Standardeinstellung, die gut bootet, aber nicht unbedingt gut unter Last läuft.
Für niedrige Frequenzen bis ca 2800 würde ich die auf 20 20 30 30 setzen.
Für mehr dann auf 24 24 40 40 und für 3200 auf 24 24 40 60.
ProcODT kann man dann eigentlich auf 60 runter gehen, solange man RTTNom auf RZQ/7 oder disabled stellt.

Wenn der Ram auch ne Weile HCI Memtest und Prime95, IBT usw aushält, dann können die Probleme mit Firefox usw auch durch korrumpierte Dateien zustande kommen.

Das hatte ich selbst weil ich so viel die Grenzen ausgelotet hatte und den PC dann auch immer wieder mit instabilen Settings benutzt habe.

Vor ein paar Wochen habe ich dann Windows neu Installiert und jetzt läuft er wieder ohne Abstürze.
 

M7.Cyrius

Lt. Commander
Dabei seit
März 2008
Beiträge
1.040
Nein leider nicht. Ich habe gestern deine Timings quasi 1:1 übernommen, mit Ausnahme der Timings. Diese habe ich bei 14-14-14-34-48 belassen. Der HCI Memtest war nicht erfolgreich und als ich über Nacht memtest86+ laufen liess, ebenso.
IMG_20180814_081239.jpg

Nun habe ich die Spannung auf 1.37 angehoben und bevor ich das Haus verlassen habe einen weiteren Test gestartet. Ich denke dass heute Abend eine böse Überraschung auf mich wartet. ^^

tRDRDSCL und tWDWDSCL auf 6 kosten recht viel lese und schreib duchsatz. Da sind meine auf 2, was recht viel bringt...aber nicht bei jedem funktioniert.

tWRRD ist recht heftig was die Stabilität angeht. Mit GDM an, kann ich da auf 1, mit GDM off (wie bei dir) muss ich da auf 3 hoch....das sieht eigentlich gut aus.
Das werde ich berücksichtigen, danke. Der Durchsatz von 50k MB/s gefällt mir sehr, das ist schon mal ein Schritt nach vorne. Aber Stability first, danach kann ich mich um die Latenz kümmern.
Momentan betragen die Spannungen für CPU 1.35 V (LLC Level 3) und für SoC 1.1 V.
 

Baal Netbeck

Captain
Ersteller dieses Themas
Dabei seit
Apr. 2008
Beiträge
3.735
Was mir noch eingefallen ist....Wenn du dich über die Latenzen gewundert hast....ich habe im Bios die Option "Perf Bios auf AIda/geekbench" gesetzt.
Das bringt nicht wirklich mehr Leistung es gaukelt nur Aida bessere Latenzen vor.
Der8auer meinte mal, das er glaubt AMD hab beim Wechsel zur zweiten Ryzen Serie gar nicht die Latenzen verbessert sondern nur diese Option Standard gemacht.
Ich denke schon, dass sie etwas gemach haben, denn es gibt ja auch Vergleiche bei gleichem Takt aber es ist schon komisch, dass ich mit dieser Option praktisch die gleichen L2 und L3 Lantenzen bekomme wie eine 2000er CPU.

Zur stabilität....Hast du mal 3133MHz versucht, ob die stabil sind? Denn wenn nicht, dann musst du an die Widerstände ran....musst du eventell sowieso.

Wie schnell kamen denn die Fehler bei HCI Memtest? unter 10% coverage?
 

M7.Cyrius

Lt. Commander
Dabei seit
März 2008
Beiträge
1.040
Ich habe mal 3066 mit CL 16-16-16-35-49 1T, Rest auf Auto, versucht und das war nach ca. 10 Stunden stabil. Dafür war der Durchsatz nur rund 37k MB/s.

Wie schnell kamen denn die Fehler bei HCI Memtest? unter 10% coverage?
Nach etwa 30 Minuten meldete sich die letzte Instanz mit einem Fehler bei einer Coverage von etwa 700%. War auch nur ein Block von etwa 250 MB. 14 Instanzen waren offen (5x2000, 7x3000 und 2 Instanzen mit "all unused RAM"). Die restlichen Instanzen waren bei ca. 20-30% Coverage.
 
Top