Leserartikel Ramskalierung eines Ryzen 1800X mit DDR4 und eines i5 3570K mit DDR3

Baal Netbeck

Fleet Admiral
Registriert
Apr. 2008
Beiträge
11.936
Dies ist ein ausgelagertes Thema aus diesem Hauptthread:
https://www.computerbase.de/forum/t...kussion-zu-spieletests.1728575/#post-20678303

Edit: Hitman wird in diesen Tests als Beispiel für eine FPS limitierung angeführt.
Das FPS Cap ist mit neueren Versionen aufgehoben und die 8 Kerne werden deutlich besser genutzt. Das erhöht die FPS von 87,5 auf 119,3 und ohne es neu getestet zu haben gehe ich davon aus, dass nun, wie bei dem i5, eine größere Abhängigkeit von der Ramgeschwindigkeit zu sehen wäre.


Edit2: Ich habe mir jetzt noch eine andere Szene in Marrakesh herausgesucht, auf die ich eventuell wechseln möchte. Und hier habe ich auch 3200 gegen 2133MHz mit dem Ryzen getestet und es ergeben sich tatsächlich große Unterschiede. Mit 2133 fallen die avg FPS von 105,9 +- 0,13 auf 83,64+-0,08 1/s.
Die 1% low von 73,32+-0,47 auf 57,12+-0.16.
Das sind 26,6% mehr FPS für 3200MHz ram und 28,4% mehr bei den 1%low.


Intro:

Nachdem ich zwölf Spiele getestet und einzeln untersucht habe, wollte ich hier zusammenfassend die Wichtigkeit von schnellem Ram allgemeiner betrachten.

Die Testkandidaten sind mein Ryzen 1800X mit 2x16GB DDR4 von 2133 bis 3200MHz und mein alter i5 3570K mit 2x8GB DDR3 von 1333 bis 1866MHz.
Jeweils mit meiner Vega64 LC(undervolted) gepaart.

Sämtliche im Bios einstellbaren Timings wurden für die höchste effektive Ram Taktrate optimiert und manuell festgesetzt(bei dem Ryzen Sytem könnte ich noch tRFC und FAW weiter optimieren, hatte aber keine Lust mehr;) ).
DDR3 ist CL11 12 11 28.... und DDR4 14 13 13 26 usw.


Das prozentuale ändern des Ram Taktes ändert also nicht nur die Peak Bandbreite sondern auch die Arbeitsgeschwindigkeit und die Latenzen des Ram linear.
Siehe dieser Vergleich der Leseraten:
Cinebench und Ram Geschwindigkeit meiner Systeme

Die erhobenen Daten sind aus dem März 2018 und sind sicher gegen Meltdown, aber ohne patches/Microcodeupdates gegen Spectre.
Windows 10 und Treiber waren aktuell, HPET aus, Energieoptionen auf Höchstleistung.


Die zwölf getesteten Spiele waren :
Ashes of the Singularity, Cities Skylines, Elex, Heroes of the Storm, Hitman, Prison Architect, Rome TW Barbarian Invasion, Rise of the Tomb Raider, Starcraft 2, Thief(vier), The Witcher 2, und The Witcher 3.

Spiel Einstellungen:
Hierbei habe ich mich nicht auf maximale FPS durch niedrige Auflösungen und Einstellungen konzentriert, sondern die Auflösung auf 1440p gelassen und nur in komplett CPU limiterten Spielen die maximalen Details genutzt.
Wo die Grafikkarte eine Rolle spielt, habe ich die Optionen individuell angepasst um einen guten Kompromiss aus Grafik und FPS um die 80-100 pro Sekunde zu finden.
Ich habe die Spiele also so eingestellt, wie ich sie selbst spielen würde und dann getestet welche Unterschiede sich bei diesen realen Situationen ergeben.
Die getesteten Szenen waren dabei natürlich so gewählt, dass sie für die CPU typisch bis besonders anspruchsvoll sind.

Prozentuale Verbesserung mit DDR3:

ges ddr3 proz improv.png


Für dieses Diagramm habe ich die prozentuale Verbesserung der Durchschnittlichen FPS, der 1% low Frametimes und der 0.1% Frametimes aufgetragen.

Die Verbesserung der avg FPS sagt uns wie viel mehr Frames herausgepumpt werden und die Frametimes Werte sagen, wie sich das Spielgefühl verbessert hat.
Die 0.1% low zeigen dabei mehr von den Ausreißern, sind aber schwerer zu reproduzieren. Deshalb sind die 1% low aus meiner Sicht ein guter Mittelweg.

Schauen wir uns die Spiele an, dann sehen wir, dass Elex nur sehr gering auf schnelleren Ram reagiert. Hier sind wir fast die ganze Zeit im GPU Limit und es gibt wenig Spielraum für Verbesserungen.

Die anderen Spiele zeigen grob Verbesserungen von 10% bis 22%.

Dabei profitieren die avg FPS und die Frametimes relativ ähnlich.

Um zu zeigen wie viel % Performancezuwachs man mit X% zusätzlicher Ramgeschwindigkeit erwarten kann, habe ich eine "Rendite" ausgerechnet.
Also Gewinn(Performancezuwachs im Spiel)/eingesetztes Kapital(zusätzliche Ramgeschwindigkeit)*100%.

ges ddr3 rendite i5.png

An der generellen Verteilung hat sich natürlich nichts getan aber es erlaubt uns gleich einen besseren Vergleich zu DDR4 mit dem Ryzen System zu ziehen und gibt eine grobe Abschätzung, was man erwarten kann, wenn man seine DDR3 Geschwindigkeit nicht um 40% sondern um einen anderen Faktor ändert.

Prozentuale Verbesserung mit DDR4:

ges ddr4 proz improv b.png
ges ddr4 rendite zen.png
Hier zeigen sich deutlich größere Schwankungen von Spiel zu Spiel.

Wie schon bei dem i5, sieht man bei Elex das GPU limit.

Ashes of the Singularity zeigt große Verbesserungen der avg FPS, jedoch keine zuverlässige Verbesserung der 0.1% low.
Die Reproduzierbarkeit ist leider zu schlecht.

Rome BI reagiert sehr schlecht auf den DDR4 Speicher, obwohl hier definitiv kein GPU limit vorliegt.
Vermutlich ist DDR4 generell deutlich schneller als benötigt und daher bleiben die Zuwächse klein.

Hitman läuft in ein FPS limit, RotTR und The Witche 3 laufen mit den 8 Kernen fast immer ins GPU limit.
Es zeigt sich jedoch schön, wie das Ram OC trotzdem etwas bringt, weil sich die Frametimes weiterhin verbessern.

Die anderen Spiele und The Witcher 3 mit nur 4 Zen Kernen profitieren grob um die 10 bis 17%

Da ich hier von DDR4 Basistakt 2133 zu teuren 3200 MHz springe möchte ich darauf hinweisen, dass der Verlauf dazwischen nicht immer linear ist.
In der Regel verbessern sich die wichtigen Frametimes stärker von 2133 zu 2666 als von 2666 zu 3200.

Beispiel linear:
prison ddr4 scale.png

Beispiel Frametimes sättigend:
hit ddr4 scale1.png

Vergleich von DDR3 und DDR4:

Hier möchte ich die Spiele in zwei Gruppen teilen.
Einmal die Spiele, die nur bis zu 4 CPU Threads nutzen und daher nicht von den 8 Kernen und 16 Threads des Ryzen 1800X profitieren.
Und dann die Spiele, die mehr Threads nutzen können und in meiner Auswahl auf 8 Kernen in ein GPU oder FPS limit laufen.

Den Ashes of the Singularity CPU-Benchmark habe ich ausgeklammert, da er in keine der zwei Gruppen passt. Hier hilft das Ram OC vor allem den avg FPS, selbst die 16 Threads werden zu 80%+ ausgelastet und die Frametimes profitieren geringer, weil das Spiel scheinbar immer unreproduzierbare Frametimepeaks hat.

Fangen wir mit den Spielen ohne gute Multithreadunterstützung an:
ges ddr rendite up to 4 c zen vs i5.png


Ich vergleiche hier wieder die Rendite, also wie viel von dem prozentualen Geschwindigkeitszuwachs des Rams, in prozentuale Performance in den verschiedenen Spielen umgesetzt wird.

Mit Ausname von Rome Barbarian Invasion, das auf dem Ryzen deutlich weniger mit dem schnellem Ram gewinnt, sind die Unterschiede zwischen dem ivy Bridge und dem Zen System gering.

Der i5 mit DDR3 gewinnt mehr in Cities Skylines und The Witcher 2.
Der Ryzen 1800X mit DDR4 gewinnt mehr in Heroes of the Storm und Starcraft 2.

Bei Thief und Prison Architect ist es schwer zu sagen, auch weil die 0.1% zu ungenau sind.

Gucken wir uns jetzt die limitierten Spiele an:

ges ddr rendite limited zen vs i5.png


Hier gewinnt eigentlich immer der i5 mit DDR3 stärker.

Für den Ryzen zeigt sich in allen vier Spielen ein nur geringer Einfluss auf die avg FPS, was logisch ist, weil nicht die CPU das alleinige Limit darstellt und der schnellere Ram nur hilft sich näher an dieses Limit heranzuschmiegen.
Gerade in Rise of the Tomb Raider und Hitman, verbessern sich die Frametimes jedoch deutlich und auch Elex und The Witcher 3 zeigen mehr Verbesserung bei den Frametimes als bei den avg FPS.

Ganz unten habe ich noch die Werte für Ryzen limitiert auf 4 Kerne und 4 Threads in The Witcher 3 hinzugefügt.
Hier sieht man nun deutliche Verbesserungen durch schnellen Ram, weil wir uns wieder mehr Richtung CPU limit verschieben.
Der i5 profitiert jedoch weiterhin deutlich mehr.

Bewertung von Gerüchten:

Ich würde mir natürlich Vergleichsdaten zu einem aktuellen Intel System wünschen, die Vergleiche zu DDR3 fand ich allerdings auch sehr interessant.

Als ich damals meinen i5 3570K gekauft habe war in CB und anderen Foren noch die festsitzende Meinung, dass schneller Ram(damals eben DDR3) nichts bringt und man höchstens 1600er nehmen sollte wenn der Aufpreis ganz gering ist.

Bei den neueren Intel CPUs hat sich diese Meinung größtenteils gehalten und erst mit Ryzen meinten dann plötzlich alle(also gefühlt alle ;) ). Dass Ryzen schnellen Ram braucht weil sonst der Infinity Fabric limitert.

Ohne hier intensiv auf den IF eingehen zu wollen, habe ich nicht die Erfahrung gemacht, dass man schnellen Ram braucht um den IF zu beschleunigen!
Der 8 Kerner gibt mir die Möglichkeit Kerne zu deaktivieren und sowohl eine 2+2 als auch 4+0 Konfiguration einzustellen.
Mit 4+0 gibt es keine Kommunikation zwischen den Kernen über den IF.
Wären die bessere Spieleperformance durch schnelleren Ramtakt also eine Folge des schnelleren IF, sollte 4+0, verglichen mit 2+2 nur geringe Verbesserungen erfahren.

Die Methode ist leider nicht so eindeutig wie ich es gerne hätte, da 4+0 den Nachteil hat, nur auf 8MB L3 Cache zurückgreifen zu können. Dadurch zeigt sich in einigen Spielen, mit 2133er Ram, bei den Frametimes schlechtere Werte für 4+0, obwohl gerade hier 2+2 besonders benachteiligt sein sollte.
Es scheint so als würde der doppelte L3 Cache für 2+2 den langsamen Ram abfedern und den Effekt des langsameren IF massiv überlagern.

Wie in diesem Beispiel zu sehen ist 4+0 zwar in der Regel 2+2 überlegen.....
hit 2+2vs4+0 mem.png
.....beide profitieren allerdings fast gleich von schnellem Ram.

Ich habe noch Beispiele, wo es genau andersherum ist, oder der Effekt stärker zu sehen ist.
Am stärksten zeigte es sich in Starcraft 2, wo der IF um die 6% ausgemacht hat. Verglichen mit den ca 15% die man hier generell auch bei 4+4(weniger Wahrscheinlichkeit für IF Kommunikation als bei 2+2)durch schnellen Ram gewonnen hat, sollten die höchstens 6% nicht der primäre Grund sein um auf schnellen Ram zu setzen.
Vor allem weil in den meisten anderen Spielen der Effekt nur 0-2% bei den avg FPS war.
Der IF zeigt sich zwar leicht hinderlich, Geschwindigkeitszuwächse duch schnellen Ram würde ich jedoch nicht auf diese Eigenart von Ryzen schieben sondern einfach durch verringerte Wartezeiten für die CPU erklären.

Fazit:

Schneller OC Ram bringt viel mehr als in der Vergangenheit behauptet wurde.

Der Ivy Bridge i5 profitiert sogar oft mehr als die Ryzen 1000er Serie.

Die Vorteile liegen sind natürlich vor allem im CPU Limit(System Limit, Software Limit wie auch immer ihr etwas bezeichnen wollt, was nicht GPU Limit oder Nachladeruckler ist) zu sehen.

Trotz GPU Limit oder FPS Limit haben sich die Frametimes teils deutlich verbessert.
Damit hatte ich selbst nicht gerechnet.

So langsam ändert sich die Einstellung zu schnellem Ram ja sogar auf CB, wobei meiner Meinung nach inzwischen, in den Kaufberatungen schon fast etwas über das Ziel hinaus geschossen wird.

Von 2133MHz rate ich zwar ab, jedoch halte ich 2666/2800 durchaus für eine legitime Kaufempfehlung solange ordentliche Timings von CL14/15 benutzt werden.

Einige Spiele profitieren deutlich von schnellerem Ram und profitieren auch noch bis 3200MHz ohne eine Sättigung zu zeigen...potentiell also noch darüber hinaus.
Ich konnte meine Timings mit 3333MHz leider noch nicht richtig stabil bekommen. Da bräuche ich wohl singel ranked ram, oder mehr Mut bei den Spannungen ;).

Der Aufpreis für 3000MHz+ sind oft so, dass man bei begrenztem Budget lieber in andere Komponenten investieren sollte und die hohen Ramtaktraten überstrahlen oft die schlechten Timings und bringen dann im Endeffekt nicht viel.
Ein häufiger Fehler bei bisherigen Tests zur Ram Skalierung.
Da werden oft verschiedene Ram Kits mit ganz anderen Timings oder zumindest anderen Subtimings verwendet.

Wer eh schon eine schnelle CPU hat, sollte sich jedoch am Ram OC versuchen und schnellen Ram kaufen.

Gerne würde ich noch Samsung B single ranked Ram kaufen und mit meinem dual ranked ram vergleichen....
Und Hynix Ram kaufen um zu sehen ob ich den schnell hinbekomme.
Und einen 2700X kaufen und einen 1200.....und ein X470 MB, Und einen neuen Intel.....nur erscheint mir das etwas zu teuer für so ein Hobby. ;)
Eventuell mache ich manches spontan doch....mal sehen :)


Was sind eure Meinungen dazu?
Habt ihr Verbesserungsvorschläge oder wollt ihr besimmte Sachen sehen, die ich hier nicht behandelt habe?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: R3DN4X, Deathangel008, Gorby und 33 andere
Wow! Toller und sehr sorgfältiger Test.

Baal Netbeck schrieb:
Ich konnte meine Timings mit 3333MHz leider noch nicht richtig stabil bekommen. Da bräuche ich wohl singel ranked ram, oder mehr Mut bei den Spannungen ;).
Probier mal die 68.6 Ohm bei 3333 MT/s. Vlt. helfen die Deinem Kit auf die Sprünge.

EDIT:
Baal Netbeck schrieb:
Ohne hier intensiv auf den IF eingehen zu wollen, habe ich nicht die Erfahrung gemacht, dass man schnellen Ram braucht um den IF zu beschleunigen!
Da die IF direkt an den RAM Takt gekoppelt ist, profitiert sie natürlich von höheren Taktraten. Unter Summit Ridge ist damit aber ab 3200 MT/ Schluss. Das sieht man dann auch an den FPS, die ab diesem Takt nicht mehr in gleichem Maße skalieren, wie noch bis 3200 MT/s.
 
Zuletzt bearbeitet:
Womit erstellt du eigentlich die ganzen Diagramme?
Loggst du die Daten mit PresentMon?
 
@curious

3333MHz lief sowieso nur mit 68.8Ohm. 3200 gehen bei mir am besten mit 60Ohm....80Ohm haben leider auch nicht geholfen.
Ich habe auch die anderen Cad Bus Werte und RTT Werte versucht, die der Ryzen Timing Calculator empfohlen hat, jedoch waren die entweder nicht stabil oder auch nicht besser als meine eigene Kombination.
Ich habe mir allerdings nicht zu lange Mühe gegeben und eventuell will mein Ram ja auch einfach nicht so hoch. Er ist ja nur 3200 CL14 und ich habe nur von 1,35 auf 1,46V probiert für die 133MHz mehr....Aida64 lief durch, aber Memtest wirft unter einer Minute schon Fehler.
Ich habe auch noch ein Beta-Bios von Weihnachten, da müsste ich mal updaten allerdings hatte ich gehofft es würde nach dem Ryzen 2000 Launch noch ein neueres Update kommen.

@SKu
Die Frametimes nehme ich mit Fraps auf. Ich habe mal mit PresentMon gegengetestet und es kommt das gleiche raus.....PresentMon nimmt allerdings noch mehr Zeitpunkte, so scheinbar auch die, die nach dem Framepacing durch die Grafikkarte entstehen....halte ich allerdings für geschönt und nicht sinnvoll in einem CPU/Ram Test.

Die Diagramme mache ich mit OriginPro 2018.
 
@Baal Netbeck: Ich weiß nicht wie Fraps arbeitet, zum Beispiel der Afterburner hat eine feste "Poll rate" (einstellbar zwischen 100ms und 2s) und berechnet die fps dann vermutlich mit finiten Differenzen o.Ä., Presentmon erfasst die Zeitpunkte, zu denen Bilder fertiggestellt werden und erlaubt so genaue Analyse von Frametimes und fps (das sind dann nämlich keine interpolierten Werte), insofern wäre mE Presentmon vor dem Afterburner zu bevorzugen. Die Fraps-Website ist nicht unbedingt erhellend bzgl. Funktionsweise von Fraps, aber dass die Anzahl Bilder pro Sekunde im Benchmark-Intervall ausgegeben werden kann, könnte auf eine ähnliche Arbeitsweise wie Presentmon hindeuten. Natürlich wäre auch eine einfache numerische Integration für ein ungefähres Ergebnis dieser Art möglich. Hast Du vielleicht so einen Log von Fraps zum Anschauen?
 
Die Fraps Frametimemessung macht das gleiche wie Presentmon auch.
Es gibt die Zeitpunkte aus, zu denen ein Frame von der Game Engine zur API gegeben wird. Es vergeht also noch etwas Zeit, bis die API, der Treiber und am Ende die GPU gearbeitet haben....dann wird in der Regel das Bild noch etwas verzögert um Framepacing betreiben zu können und dann kommt es erst Richtung Monitor.

Presentmon kann auch noch irgendwie so einen Zeitpunkt auslesen, der nach dem Framepacing erfasst wird....also ungefär das, was auch eine FCAT Analyse ergibt.

Die Frametimes nach dem Framepacing halte ich aber für geschönt. Denn sie sehen zwar deutlich gleichmäßiger aus, allerdings sind die inhaltlichen Abstände nicht gleichmäßiger.

Daher bevorzuge ich Fraps oder die erste Angabe von Presentmon, da hier die Zeitpunkte so nah wie möglich am eigentlichen Spielgeschehen erfasst werden. Also das richtige für einen CPU Test.

Du kannst die drei Dateien, die Fraps ausspuckt hier sehen:
https://www.computerbase.de/forum/threads/auswertung-und-darstellung.1728579/#post-20678307
Ich nutze nur die Frametimes Datei. Die FPS Datei ist sowas wie du für den Afterburner beschreibst, allerdings mit einer pollrate von 1s....und die minmaxavg datei nimmt die minimum und maximum FPS aus der FPS Datei, nicht der Frametimes Datei.
 
Edit: Hitman wird in diesen Tests als Beispiel für eine FPS limitierung angeführt.
Das FPS Cap ist mit neueren Versionen aufgehoben und die 8 Kerne werden deutlich besser genutzt. Das erhöht die FPS von 87,5 auf 119,3 und ohne es neu getestet zu haben gehe ich davon aus, dass nun, wie bei dem i5, eine größere Abhängigkeit von der Ramgeschwindigkeit zu sehen wäre.
 
@Baal Netbeck erneut ein richtig gelungener Leserartikel von dir, super Arbeit!

Das wir uns in Sachen Fazit einig sind, brauche ich wohl nicht gesondert anmerken.

Baal Netbeck schrieb:
Schneller OC Ram bringt viel mehr als in der Vergangenheit behauptet wurde.

Kann ich so unterschreiben.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Toller Test. Du testest viel und du schreibst gern viel, anderes Wort dafür ... Redakteur, die sollen dich hier einstellen.

Meinen ersten richtigen Ramtest hab ich 2010 gemacht mit DDR2 800 vs 1066. Das hat in F1 2010 so viel ausgemacht, als wenn ich mir die nächst teuere Grafikkarte geholt hätte. Da wurde mir das erste mal bewusst, welche Power im Ram liegt.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
meckswell schrieb:
Du testest viel und du schreibst gern viel, anderes Wort dafür ...
Das Testen liegt mir....das Schreiben ist nicht so einfach.....ich schreibe halt alles was mir wichtig erscheint, aber für einen Massentauglichen Artikel müsste ich das auf ein vertretbaren Maß kondensieren.....das bekomme ich nicht wirklich hin. ;)

Aber Danke. :D
meckswell schrieb:
Meinen ersten richtigen Ramtest hab ich 2010 gemacht mit DDR2 800 vs 1066. Das hat in F1 2010 so viel ausgemacht, als wenn ich mir die nächst teuere Grafikkarte geholt hätte.
Mit DDR2 habe ich nicht viel getestet.....das könnte ich irgendwann mal nachholen.
 
  • Gefällt mir
Reaktionen: xxlrider
Zum Aussage "schneller RAM bringt mehr, als in der Vergangenheit behauptet wurde":

Damals wurden die gleichen Tests gemacht - mit der damaligen Software hat es eben kaum nennenswerte Vorteile im CPU Limit gegeben oberhalb von 1600 MHz mit Sandy/Ivy. Die Aussage ist nach dem damaligen Stand korrekt ;)

Eine ähnliche Aussage wäre "mehr als 4 Kerne bringen mehr, als in der Vergangenheit behauptet wurde".

Danke für den Test, konnte auch bei mir teils über 20% im CPU Limit rausholen (BFV 1333CL7 vs 2133CL11).

PS: Sorry fürs "Ausgraben" ;) Ggfs. könnte man ja einen Vergleich mir Ryzen 3000 und weitaus höheren Frequenzen nachschieben. Das wird mit hoher Wahrscheinlichkeit die Kaufempfehlung von 2800MHz und darunter im Fazit ändern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
TheOpenfield schrieb:
Damals wurden die gleichen Tests gemacht - mit der damaligen Software hat es eben kaum nennenswerte Vorteile im CPU Limit gegeben oberhalb von 1600 MHz mit Sandy/Ivy. Die Aussage ist nach dem damaligen Stand korrekt ;)
Glaube ich nicht.;)
Viele der damaligen Tests waren entweder falsch gemacht....oder absichtlich so gemacht, dass sie keine Vorteile gezeigt haben.

Ich habe ja nicht nur neue Spiele drin....da sind auch einige dabei, die es "damals" schon gab.

Sandy/ivy sind 2011/2012 herausgekommen.
Rome Barbarian Invasion ist von 2005.
The Witcher 2 ist von 2011.
Starcraft 2 ist von 2010.

Der Unterschied ist sicherlich die Grafikkarte, aber zumindest Rome und Starcraft waren auch 2011 CPU limitiert.
Trotzdem gehe ich hier ja nicht auf extreme Einstellungen.....ich habe 1440p genutzt und Settings, die mir einen guten Kompromis aus Leistung und Optik bieten.....zumindest in Witcher 2....in Rome und SC2 sind es glaube ich die maximalen Settings gewesen....So, wie ich die Spiele spielen würde.

Und dann bin ich von DDR3 1333 auf 1866 gegangen....also noch nichtmal extremen DDR3 wie 2133 oder 2400er.
Und da sind es Verbesserungen im Bereich von 10-15%.

Hätte man den Test damals so gemacht....dann zwar nicht mit 1440p und sicherlich mit etwas geringeren Settings um z.B. eine damalige GTX580 nicht zu überfordern, wäre ziemlich sicher ähnliches herausgekommen.

..........typische Dinge, die damals in Ramtest nicht beachtet wurden sind z.B:
1. GPU limit, weil alles auf Ultra gehauen wird....und dann GPU limitiert getestet wird......ist legitim, wenn man zeigen möchte, dass es da nichts bringt.....aber:
1a: Nur weil man Spiele zeigt, die im GPU Limit keine Unterschiede zeigen, rechtfertigt das keine allgemeingültige Aussage ala:"Kein Spiel profitiert von Ram".
1b: Kein Untersuchen der Frametimes...Auch GPU limitierte Spiele haben oft kurze Phasen oder Frametimepeaks, die durch die CPU limitiert sind und an diesen Stellen sieht man dann ähnliche Einflüsse duch die Ramgeschwindigkeit, wie bei CPU limitierten Spielen......zeigt man nur die avg FPS, sind hier oft keine Unterschiede zu messen.... obwohl kritische Stellen Unterschiede zeigen würden und auch potentiell spürbar für den Spieler sind.

2. Auswahl der Testsequenzen...... Es ist einfacher Testszenen für GPUs zu finden....Standbilder für RTS/Strategie, laufen durch die Wildniss ohne NPCs oder Gegner....integrierte Benchmarks, die das Geschehen nicht simulieren, sondern nur einem vorgegebenen Ablauf folgen.

Teilweise nutze ich sowas auch, aber man muss genau hingucken, ob diese sinnvoll das Spielerlebnis repräsentieren....da habe ich selbst auch noch Nachholbedarf, aber ich gebe mir Mühe.....ich laufe bei The Witcher 2 nicht durch den Wald....ich laufe durch die Sadt mit vielen NPCs.....da diese zufällig laufen und auch mal im Weg stehen, ist es nicht so einfach reproduzierbar zu messen....ich muss daher oft messen und mitteln um dies auszugleichen.....etwas das gerne vermieden wird.

Es muss ja nicht immer die absolute "Worst-case" Szene des Spiels sein....aber es sollte schon sinnvoll gewählt sein um auch eine Hilfe bei der Bewertung zu sein.....In Rise of the Tomb Raider hatte ich z.B. noch eine CPU intensivere Szene ziemlich gegen Ende des Spiels gefunden....aber da ist man nur für ne Stunde....man kehrt auch nie hierhin zurück....das Geothermale Tal war hingegen etwas weniger CPU lastig....aber auch schon stärker als der Durchschnitt und man kommt öfter hier hin....hat einige Quests usw....also habe ich das Tal getestet....obwohl ich hier mit dem Ryzen zu 98% GPU limitiert bin.....wie du siehst sind die avg FPS nur 2,1% besser mit 50% schnellerem DDR4....klingt unwichtig, aber die Frametimes sind über 20% besser und das ist ein spürbarer Unterschied.

3. Es wird nicht der Einfluss der Ramgeschwindigkeit getestet, sondern verschiedene Ramkits mit XMP Profil.
Es gibt gute Gründe den Ram nicht manuell einzustellen und stattdessen Ramkits zu vergleichen.....Im Sine einer Kaufberatung.....ist Ramkit A mit seinen 30€ mehr überhaupt schneller in Spielen oder nicht.

Aber dann kann man nicht sagen, dass schneller Ram nichts bringt...man hat nur gezeigt, dass dieser Ram nicht mehr bringt.
Wenn ich 1600 Cl9 mit 1866 CL11 vergleiche, dann habe ich zwar 17% mehr Takt.....ich habe aber auch ein schlechteres Timings für die Cas Latency.....also 11,3ns zu 11,7ns ......der vermeindlich schnellere Ram braucht länger um ein Bit auszulesen, als der vermeindlich langsamere Ram.

Und so zieht sich das leider durch viele Tests.....Es wird nicht auf die Timings geachtet.....Takt geht hoch...Timings auch und am Ende sind die Kandidaten praktisch gleich, was die Latenzen angeht......und Latenzen sind in vielen Spielen der dominierende Faktor.....Bandbreiten sind sehr wichtig, wenn sie ausgereizt werden.....aber wo sie nicht ausgereizt werden sind sie praktisch egal.

So liefen ja auch die Ramtests auf CB lange ab.....Ramkit rein....XMP Laden und lostesten....

Mein Ansatz ist halt ein anderer.....Ich wähle die Timings für den maximalen Takt so gut wie möglich und dann senke ich den Takt, ohne die Timings anzufassen.
Da sich Bandbreiten und Latenzen aus Takt und Timings zusamensetzen, ist bei mir der Ram mit X% weniger Takt dann auch ziemlich genau X% langsamer.
TheOpenfield schrieb:
Danke für den Test, konnte auch bei mir teils über 20% im CPU Limit rausholen (BFV 1333CL7 vs 2133CL11).
Dann wird hier die Bandbreite eine große Rolle spielen....1333CL7 arbeitet kaum langsamer als 2133 CL11.
TheOpenfield schrieb:
Eine ähnliche Aussage wäre "mehr als 4 Kerne bringen mehr, als in der Vergangenheit behauptet wurde".
Ja, wobei das halt wirklich extrem von der Software abhängt....Wo nur 1-4 Kerne genutzt werden, ist es halt egal.

Schneller Ram sorgt für weniger Wartezeiten bei den CPU Kernen....egal ob einer oder 8 genutzt werden.
Der Ram ist weniger abhängig von dem Multithreading der Software...auch wenn mehr Threads sicherlich mehr Bandbreite auslasten.

TheOpenfield schrieb:
PS: Sorry fürs "Ausgraben" ;) Ggfs. könnte man ja einen Vergleich mir Ryzen 3000 und weitaus höheren Frequenzen nachschieben. Das wird mit hoher Wahrscheinlichkeit die Kaufempfehlung von 2800MHz und darunter im Fazit ändern.
Ich bin überrascht, dass das überhaupt jemand gefunden hat. ;)

Ja ich hätte schon Lust auf Ryzen 3000..... Ist aber zeitfressend das zu testen.....und ich habe meine Ansprüche eher gesteigert....und müsste ich erstmal kaufen. ;)

Ich wäre selbst gespant, was ich da für Ram empfehlen würde....vermutlich 3200 Cl16.....denn das entscheidende sind eigentlich weniger die Leistungssteigerungen.......viel eher Preis und Stabilität.
In 2020 würde ich 32GB empfehlen und da ist man eh dual ranked und eher in Problemen mit hohen Frequenzen.....3600 sind da scheinbar nicht so selbstverständlich, wie es oft behauptet wird.

Und die Preise sind ein wichtiger Punkt....wenn ich 3000er oder 3200er Ram mit "normalen" Timings kaufen kann, der kaum mehr kostet als 2133/2400....dann gibt es da keine Frage was von beidem gekauft werden sollte....aber 3600 ist was anderes....da würde ich selbst gerne mal gucken.
....ich glaube nicht, dass sich das lohnt......Der Takt ist schon nur 12,5% höher als 3200.....und die Timings auch bei teurem Ram tendenziell schlechter....da bleibt am Ende eher 5% im Spiel übrig......sicherlich mehr, wenn man den Ram einmal mit Ramprfil betreibt und einmal manuell optimiert......aber wie viele machen das schon ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheOpenfield
Bei CB gab es mal einen Test (der auch nach heutigem Stand sehr korrekt durchgeführt worden ist), hier war es oberhalb von 1600 ziemlich mau mit der Mehrleistung (verschiedene Spiele min. FPS in 640x480). Eine stärkere CPU war in jedem Fall die Investition eher wert, als schnellere Module.

Aber ja, das mit den "av. FPS" ist in der Tat ein Problem bei den damaligen Tests. Ebenso natürlich, dass oft im GPU Limit gebencht wurde (was teilweise auch schwer zu verhindern war mit den damaligen GPUs). Selbstredend ist hier natürlich nur ein CPU-Limit aussagekräftig. Preislich war es damals halt ähnlich - für die letzten MHz exorbitante Aufpreise. Daher eben die häufige Empfehlung bei ~1600-1866.

Bei meinem BFV Bench war ich auch überrascht - Timings waren eben auf Auto (hatte ich damals übersehen ;) ).

Mit Ryzen ist RAM OC wohl auch interessanter den je. Schließlich bieten die CPUs selbst kaum noch Potential oben heraus, und an irgendwas wollen wir Bastler eben noch drehen.. ;)
 
Zuletzt bearbeitet:
Zurück
Oben