Leserartikel Intel Core i-Serie - RAM Overclocking (Auswirkungen auf Spiele)

Tenchi Muyo schrieb:
Edit: gibt es für z490 ein Tool mit dem man den Speicher auslesen kann? Das von Asus und Asrock
funktionieren ja mit z490 nicht...
Wenn du den ASRock Timing Configurator meinst: Der funktioniert für Z490 in der älteren Version 4.0.3.
 
  • Gefällt mir
Reaktionen: Tenchi Muyo
Hab meinen 8600K gegen einen 9900K getauscht und wollte nun wissen, ob sich das FPS-technisch gelohnt hat. Kurze Antwort: Nö. :p Nicht mit meinen Einstellungen (hohe Auflösung, relativ niedrige FPS, immer im Graka-Limit).

Interne Spiele-Benchmarks, getestet mit CapFrameX unter identischen Bedingungen: Windows-Build, Nividia-Treiber, Grafikkarten-OC, RAM-OC.

AB_Grafiktests.png RAM4200.png

8600K: 5,1/4,9 GHz, AVX=0
9900K: 5,0/4,8 GHz, AVX= Auto

Ergebnisse:

SOTTR.png ROTTR.png FC5.png
BAK.png GTA5.png RDR2.png
Heaven.png

Schade, hab Anno 1800 vergessen, vielleicht hätte der 9900K da stärker punkten können. Anyway: Zum aktuellen Zeitpunkt hat sich das Upgrade nüchtern betrachtet nicht gelohnt.

Um den Achtkerner überall in Front zu bringen, müsste ich ihn wahrscheinlich ebenfalls auf 5,1/4,9 übertakten. Aber der Preis ist heiß, und das ist wörtlich zu nehmen. Denn ich hab ein durchschnittliches Exemplar erwischt, und alles über 5 GHz allcore wird teuer bezahlt.

Immerhin: Jetzt hab ich endlich auch so ein schickes Angeber-OSD mit ganz vielen CPU-Zeilen. ^^

OSD.png

Edit: Der feine 8600K steht jetzt gerade bei HWL zum Verkauf. ;)

Edit 2: Hab ein paar Spiele-Benchmarks nun auch mit 5,1/4,9 durchlaufen lassen. Nach dreien aufgehört, denn: Nimmt sich nix.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pjack und nospherato
Wow, das kann ja echt nicht sein oder?

Meine G.Skill 32GB 4.266 CL17 stehen nicht (mehr) in der QVL von G.Skill,
es gibt ein Kit mit 2 Modulen und 1,5v das würde wohl funktionieren.
Aber mein Kit mit 4 Modulen ist NICHT aufgeführt... :freak:

BTW: für's Asus Maximus XII gibt es bereits ein neues Bios für die kommende CPU Generation.
 
Mal eine blöde Frage zwischendurch: wenn mein I7 9800x nur 2666 Mhz Speichertakt im Quadchann max verarbeiten kann, bringt es mir doch nichts auf 3000 Mhz zu takten, richtig?
Da ich 3200er Corsair habe, 4x8 GB Dimm, gleiche Timings usw. einzig die Versionen sind 2x 4.32 und 2x 5.32, könnte ich nur "mehr" Leistung durch schärfere Timings bekommen, oder? Und wie ich gelesen habe kann ich durch niedrigere Frequenz die Timings besser verkürzen.
 
Shir Khan schrieb:
Kurze Antwort: Nö. :p
Mit einer RTX2070 und mehr als FHD war das doch zu erwarten. Da braucht man schon eine RTX3080
und max. WQHD um etwas vom CPU oder RAM Upgrade zu merken. Bei UHD ist es auch wieder weg.
 
0ssi schrieb:
CPU oder RAM Upgrade
Das zumindest macht einen Unterschied, wird ja auf 200 Seiten hier berichtet. Aber natürlich mit steigender Auflösung auch geringer werdend.

Ein bisschen mehr erwartet habe ich schon, geb ich zu. ;) Nicht unbedingt Average, aber bei den Perzentilen hatte ich mit durchgehend verbesserten Ergebnissen gerechnet.
 
Es zeigt halt, daß deine GPU viel zu schwach ist für CPU, RAM und Monitor. Ein typisches Mismatch. :p
 
Board im August, RAM im September, RAM-Wakü Oktober, 2TB-SSD im November, Monitor letzten Monat, CPU jetzt. Es geht halt nicht immer alles gleichzeitig, selbst wenn normalpreisige 3080 verfügbar wären. Bei dir? ;)

Und sie ist nicht "viel" zu schwach. Profitiert außerdem natürlich von den schnellen Nachbarkomponenten.
 
Zuletzt bearbeitet:
Petr88 schrieb:
Mal eine blöde Frage zwischendurch: wenn mein I7 9800x nur 2666 Mhz Speichertakt im Quadchann max verarbeiten kann, bringt es mir doch nichts auf 3000 Mhz zu takten, richtig?
Die 2666Mhz sind die höchsten von Intel offiziell unterstützten, heißt aber nicht dass mehr nicht auch geht, ist dann halt RAM OC. Weiß aber nicht inwiefern dein Board höhere Taktfrequenzen einzustellen erlaubt oder da restriktiv ist, das musst du halt schauen und natürlich ist keine Garantie dass etwas über 2666Mhz nach Jedec stabil läuft.

Beispiel, mein 9900KS unterstützt offiziell auch nur 2666Mhz beim RAM, aktuell laufen aber 2x16GB mit 4200Mhz CL16 und straffen Subtimings absolut stabil. Was stabil lauffähig ist hängt halt von 3 Komponenten ab, Memory Controller in der CPU, Mainboard und RAM selbst.
Ergänzung ()

Shir Khan schrieb:
Und sie ist nicht "viel" zu schwach
Naja sie ist schwach genug dass du quasi permanent im GPU Limit hängst und nur Far Cry 5 von deutlich besseren min. FPS profitiert. Ist ja an sich auch erstmal kein Drama, irgendwas muss sowieso immer limitieren, aber du darfst halt keine große Leistungssteigerung von der neuen CPU erwarten wenn die Graka bereits vorher der limitierende Faktor war.
 
  • Gefällt mir
Reaktionen: Pjack und Petr88
Wer das nicht alles lesen will: Ja, die Grafikkarte ist nicht stark genug. Aber das geht in Ordnung.

R1c3 schrieb:
Naja sie ist schwach genug dass du quasi permanent im GPU Limit hängst und nur Far Cry 5 von deutlich besseren min. FPS profitiert. Ist ja an sich auch erstmal kein Drama, irgendwas muss sowieso immer limitieren, aber du darfst halt keine große Leistungssteigerung von der neuen CPU erwarten wenn die Graka bereits vorher der limitierende Faktor war.
Gut beobachtet mit FC5. Das ist allerdings ein einzelner und so großer Ausreißer, dass ich Fremdeinfluss beim Messen nicht ausschließe. Hab auch nur je einen Run gemacht, so was ist immer fehleranfällig.

Von "großer Leistungssteigerung" war nicht die Rede. Ich dachte, ich gewinne ein, zwei FPS und etwas mehr bei den Perzentilen. Ansatzweise ist das ja auch zu sehen, nur nicht durchgängig. Wie ausgerechnet das prozessormordende GTA5 mit dem 8600K besser performen kann, ist mir wirklich schleierhaft.

Dass die RTX 2070 jetzt die relativ schwächste Komponente ist, wird nicht bestritten. Aber mit Verlaub, ich will im GPU-Limit hängen. Wenn die GPU-Auslastung im OSD nicht knapp 100% zeigt, erhöhe ich schon seit jeher die Grafikdetails, bis sie es tut. (Dass ich derzeit kein größeres Problem mit vollständiger GPU-Auslastung habe, liegt ja auf der Hand. ;))

Mit der neuen Auflösung von 5120 x 1440 hat die 2070 zu kämpfen, keine Frage. War auch keine Überraschung, denn im Großen und Ganzen weiß ich schon, was ich tue, wenn ich Hardware auswähle. Side fact: Das 49"-Vorgängermodell des Samsung-Monitors mit 3840 x 1080 px war bereits bestellt, um genau den Grafik-Engpass zu umschiffen, der jetzt hier adressiert wird. Im letzten Moment vor dem Versand besann ich mich eines Besseren, widerrrief und bestellte das aktuelle Modell mit der zeitgemäßeren Auflösung. Gute Entscheidung, denn sonst hätte ich mich bald über das grob aufgelöste Bild geärgert. Nun ist es halt erst mal etwas eng mit den FPS.

Es gibt trotzdem kein Problem:
  • Ich bin es von meinem alten 60 Hz-TN-Triple-Screen-Setup gewohnt, mit 50-60 FPS zu spielen.
  • Mit G-Sync statt Ingame-V-Sync ist das Bild jederzeit flüssig, mit allen hier anliegenden FPS.
  • Mit G-Sync ist auch in tiefen FPS-Regionen noch flüssig spielbar, was mit V-Sync schon ruckelig war.
  • Das Bild ist soo viel besser (Farben, Kontrast, Schwarzwert, Schärfe, Blickwinkel) als vorher.
  • Hab nun eine einzige breite Fläche, es gibt keine Monitorrahmen mehr im Blickfeld.
  • Ich spiele auch ältere Spiele, die oben nicht genannt wurden, aber von den 120 statt vorher 60 Hz profitieren, und zwar vollends.
Und jetzt kommen noch - sorry - RAM und CPU-Kerne! Die helfen richtig, wenn es viel davon gibt und wenn sie schnell sind. Ich rede nicht nur von Frametime-Spikes, die nicht mehr auftreten, geschenkt. Ruckler in GTA hab ich schon lange nicht mehr, seit ich von 16 auf 32 GB gepimpten RAM gegangen bin. Aber mit Frametimes "wie ein Strich" kann ich mit 45 FPS ein ruhigeres Spielgefühl haben als mit zittrigen 60. Solche Frametimes hab ich bisher schon meistens. Und ab sofort noch öfter.

Der schnelle RAM und die schnelle CPU sind nicht "zu schnell" für die Grafikkarte, es wäre Unsinn, das zu behaupten. Sie helfen ihr und unterstützen sie. Das gleiche gilt für den Monitor, der durch sein technisch aktuelles Niveau in der Lage ist, ordentlich mit der Grafikkarte zu kommunizieren.

All das steht nicht im Widerspruch zu den Dingen, die du und @0ssi anführen. Aber es erklärt vielleicht, warum ich hier sitze und sage: "Boah, ist das geil", während ihr von außen die Komponenten gegeneinander abwägt und mir eine "viel zu schwache" Grafikkarte attestiert.

Dass diese gerade mal eineinhalb Generationen alt und schon wieder die älteste Hauptkomponente im Rechner ist, zeigt, mit welcher Inbrunst wir dieses Hobby betreiben. Aber das nur am Rande.

Noch was hab ich gelernt: Zehn Jahre lang galt hier der "Ultra-Imperativ": Die Grafikkarte sollte immer stark genug sein, um 60 FPS bei Ultra-Einstellungen aktueller AAA-Spiele liefern zu können. Derzeit lerne ich aber eine neue Bescheidenheit: RDR2 sieht auch auf mittleren Einstellungen fantastisch aus. Zumindest hier.

IMG_4619.JPG

P.S. Wenn ich irgendwann eine 3080 oder Nachfolgerin habe, geht mich mein dummes Geschwätz von gestern natürlich nichts mehr an. Aber bis dahin gilt das heute Gesagte!

Gute N8. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Petr88
Natürlich kann man sich niedrige FPS mit G-Sync im Vergleich zu V-Sync Schönreden
und sagen die GPU ist erst 1,5 Jahre alt aber die Leistung ist ja schon über 3 Jahre alt.

Ich hatte vorher eine GTX1080Ti und die hat ca. RTX2070 Super Leistung also dürfte
eine non Super nur GTX1080 Leistung liefern und das gab es halt schon vor Langem.

Egal, sobald eine RTX3080 am Start ist dann machen 9900K und C49RG9 endlich Sinn.
 
Shir Khan schrieb:
Wie ausgerechnet das prozessormordende GTA5 mit dem 8600K besser performen kann, ist mir wirklich schleierhaft.
Kommt eventuell nicht so gut mit HT zurecht. Könntest Du ja Mal testweise abschalten und ohne testen.
 
  • Gefällt mir
Reaktionen: Shir Khan
R1c3 schrieb:
Die 2666Mhz sind die höchsten von Intel offiziell unterstützten, heißt aber nicht dass mehr nicht auch geht, ist dann halt RAM OC. Weiß aber nicht inwiefern dein Board höhere Taktfrequenzen einzustellen erlaubt oder da restriktiv ist, das musst du halt schauen und natürlich ist keine Garantie dass etwas über 2666Mhz nach Jedec stabil läuft.

Beispiel, mein 9900KS unterstützt offiziell auch nur 2666Mhz beim RAM, aktuell laufen aber 2x16GB mit 4200Mhz CL16 und straffen Subtimings absolut stabil. Was stabil lauffähig ist hängt halt von 3 Komponenten ab, Memory Controller in der CPU, Mainboard und RAM selbst.
Ergänzung ()

Ich arbeite mich bei dem Thema gerade etwas mehr rein und kann mir auch physisch vorstellen, das ein gewisser Überschuss an Daten aus dem Ram (wenn er schnell genug liefert) natürlich immernoch besser ist, als "nur" das offizielle Max mit zu verarbeitbaren 2666 Mhz. Also ich stelle mir da einen Flaschenhals (ein Tor) vor, der/das je nach CPU dann eben größer oder kleiner ist, wenn ich potenten Ram habe.

Das Board unterstützt auch ein XMP Protokoll für 3200er MHZ, aber ich denke es ist sinnvoller bei der Frequenz bei den CPU Spezifikationen zu bleiben und dann die Verarbeitungszeit zu drücken.

Jetzt ist eben noch die Frage wie schnell ich mit offiziell "zugelassener" max. Frequenz von 2666 Mhz Daten zum CPU schieben kann - lieber schneller, dafür max seine spezifischen 85 GB/s, oder lieber gemäßigter einen noch höheren Datenstrom bereitstellen? Klar steigt auch mit niedrigerer Latenz das potentielle Datenvolumen, nur wie sehr im Gegensatz zur gesteigerte Frequenz habe ich noch nicht erlesen.

Ich habe 4 Sticks im Quad Chann aktiv und so wie ich las, ist die Latenz im Vergleich zu 2 Modulen deutlich höher, bin da bei ca. 80+ ns - kann man das mit Latenzveringerung "sinnvoll" drücken? Mich interessiert da die rein theoretische Spielerei die Ram Module schneller verarbeiten zu lassen, ohne großartig in OC o.ä. zu gehen.
Darum war mir auch wichtiger ich habe lieber "hochwertigeren" Ram der downgegraded wird, als schlechten, der OC werden sollte, damit die CPU seine Leistung ausreizen kann.

Rein technisch könnte ich auf eine größere CPU umsatteln, nur selbst mit den Spitzenmodellen 10xxx XE gibt es "nur" offiziell 9 GB/s mehr raus und 300 MHZ mehr Frequenz als zuverlässig verarbeitbar.
 
0ssi schrieb:
Natürlich kann man sich niedrige FPS mit G-Sync im Vergleich zu V-Sync Schönreden
und sagen die GPU ist erst 1,5 Jahre alt aber die Leistung ist ja schon über 3 Jahre alt.
Wenn etwas subjektiv so viel besser ist, muss ich es mir nicht "schönreden". Warum beharrst du darauf, dass ich unzufrieden sein müsste? Wie alt die GPU ist, habe ich nicht erwähnt. Ich sprach von eineinhalb Graka-Generationen, und das war auch nur eine Randbemerkung.

0ssi schrieb:
Ich hatte vorher eine GTX1080Ti und die hat ca. RTX2070 Super Leistung also dürfte
eine non Super nur GTX1080 Leistung liefern und das gab es halt schon vor Langem.
Ich will nicht schon wieder rumposaunen mit Deutschlands schnellster 2070, Top 5 weltweit, blabla, aber so wie ich sie betreibe, bewegt sie sich etwa auf gutem non-OCed 2070 Super/GTX 1080Ti-Niveau.

0ssi schrieb:
Egal, sobald eine RTX3080 am Start ist dann machen 9900K und C49RG9 endlich Sinn.
Das wird natürlich ein Fest! Aber sie machen jetzt schon Sinn und mir bis dahin eine Menge Freude. Schade, dass du das nicht verstehen willst, obwohl ich mir so viel Mühe gegeben habe. :)

Edit: Jetzt hat's mich doch gejuckt und ich hab mal nachgesehen: Laut 3DMark Leaderboard wäre die Karte im Graphic Score des Time Spy Benchmark unter den Top 9/12% der 2070 Super und den Top 4/3% der 1080Ti (Deutschland/Welt).
 
Zuletzt bearbeitet:
Petr88 schrieb:
Rein technisch könnte ich auf eine größere CPU umsatteln, nur selbst mit den Spitzenmodellen 10xxx XE gibt es "nur" offiziell 9 GB/s mehr raus und 300 MHZ mehr Frequenz als zuverlässig verarbeitbar.
Umstieg auf die 10er Serie bringt nix, außer man ist auf AVX 512 angewiesen, da ist die 10er Serie tatsächlich bis zum Faktor 10 schneller. Mehr Kerne, ja gut, aber dann zwingend gute Kühlung, sonst takten die nicht mehr so gut.
Ich betreibe meinen 9980xe mit 64 (8x8) GB, GSkill Aegis Billigspeicher, Stabil mit 1500x2, also als DDR 3000 seit Dezember 2019 völlig ohne Probleme stabil. CPU hängt an einer 360er AIO (Enermax Aquafusion). Als Graka steckt seit Oktober eine 3090 drinne, arbeite und zocke an 4K Monitoren (Dual im Desktop Betrieb).
Gut, vorher war eine 2060er drin - da musste die CPU weniger schwitzen.
 
Xtrasmart schrieb:
Das bringt nix, ausser man ist auf AVX 512 angewiesen, da ist die 10er Serie tatsächlich bis zum Faktor 10 schneller.
Ich betreibe meinen 9980xe mit 64 (8x8) GB, GSkill Aegis Billigspeicher, Stabil mit 1500x2, also als DDR 3000 seit Dezember 2019 völlig ohne Probleme stabil. CPU hängt an einer 360er AIO (Enermax Aquafusion). Als Graka steckt seit Oktober eine 3090 drinne, arbeite und zocke an 4K Monitoren (Dual im Desktop Betrieb).
Gut, vorher war eine 2060er drin - da musste die CPU weniger schwitzen.
Natürlich bringt das nichts, darum geht es auch nicht und deshalb "rein technisch" gesehen.
 
Petr88 schrieb:
Natürlich bringt das nichts, darum geht es auch nicht und deshalb "rein technisch" gesehen.

Hast recht, geht auch nur darum, dass ich zumindest mit 3000 Mhz - und damit jenseits der 2666er Spezifikation stabilitätstechnisch problemlos zurechtkomme. Ggf. interessant für die wenigen Verbliebenen, die noch mit Sockel 2066 arbeiten.
 
  • Gefällt mir
Reaktionen: Petr88
@Petr88
Prinzipiell profitiert dein PC von beidem, niedrige Latenzen und höherer Bandbreite, da ich mich aber mit Quadchannel Modellen überhaupt nicht auskenne und wie sehr die übertaktbar sind was RAM angeht kann ich dir dazu leider keine Aussagen machen.

Generell würde ich die 3200 anpeilen und dann die Latenzen straffen, aber ob das bei Quadchannel so einfach wie bei "normalen" Intels ist weiß ich wie gesagt nicht.
Ergänzung ()

Shir Khan schrieb:
Von "großer Leistungssteigerung" war nicht die Rede. Ich dachte, ich gewinne ein, zwei FPS und etwas mehr bei den Perzentilen. Ansatzweise ist das ja auch zu sehen, nur nicht durchgängig. Wie ausgerechnet das prozessormordende GTA5 mit dem 8600K besser performen kann, ist mir wirklich schleierhaft.
Naja, in den max FPS kannst du ja quasi nichts dazugewinnen wenn du permanent vorher bereits im GPU Limit lagst, dann war deine alte CPU ja schon ausreichend um immer genug Daten zu liefern, die neue wird sich jetzt halt nur noch mehr langweilen.

Bei den Perzentilen kommt es sehr stark aufs Spiel und die Settings an ob du profitierst, der Großteil der Spieler hat ja noch immer Quadcore und daher sind Optimierungen auf 8 oder mehr Kerne noch nicht immer die Regel bzw. viele Spiele haben halt einfach keinen so großen Anspruch an die CPU dass das Plus an Leistung verwendet werden kann.

GTA 5 könnte ich mir vorstellen dass schlicht nicht mit so vielen Kernen skaliert oder wie oben bereits vorgeschlagen wurde dass es HT nicht mag.
 
  • Gefällt mir
Reaktionen: Pjack
R1c3 schrieb:
GTA 5 könnte ich mir vorstellen dass schlicht nicht mit so vielen Kernen skaliert oder wie oben bereits vorgeschlagen wurde dass es HT nicht mag.
War 'ne gute Idee von euch, aber: Nö, nur mit viel gutem Willen ein Unterschied zu sehen, zumindest in dieser recht groben Anschauung. Und noch tiefer ins Detail zu gehen würde nur den Wissenschaftler in mir interessieren, nicht aber den Gamer. Lass ich bleiben.

Von oben nach unten: 8600K -> 9900K HT on -> 9900K HT off

GTA5 mit_ohne_HT.png


Um wieder ontopic zu kommen: Hab bei der Gelegenheit gleich noch mal den GTA5-Benchmark @4200-16-16 mit 4400-16-17 verglichen. Unterschied: innerhalb der Messtoleranzen. Will ich mich an 4400 erfreuen, muss ich AIDA64 anwerfen. ;)

So, und jetzt kommt der neue Nvidia-Treiber drauf. Fertig mit alt vs. neu, danke für's Lesen.
 
  • Gefällt mir
Reaktionen: Petr88 und Pjack
Shir Khan schrieb:
Wenn etwas subjektiv so viel besser ist, muss ich es mir nicht "schönreden". Warum beharrst du darauf, dass ich unzufrieden sein müsste?

Ich mag es halt nicht wenn Leute meinen niedrige FPS wären durch Adaptive Sync irgendwie besser.
Klar sind 50FPS@60Hz mit V-Sync Kacke trotzdem sind 60FPS@60Hz mit V-Sync trotzdem flüssiger
als 50FPS mit Adaptive Sync weil eben 10FPS mehr. Ich verstehe aber was di meinst und das in ok.
Ergänzung ()

Shir Khan schrieb:
Ich will nicht schon wieder rumposaunen mit Deutschlands schnellster 2070, Top 5 weltweit, blabla, aber so wie ich sie betreibe, bewegt sie sich etwa auf gutem non-OCed 2070 Super/GTX 1080Ti-Niveau.
Das ist aus Hobby Overclocking Sicht natürlich cool aber eine RTX3080 ist trotzdem doppelt so schnell
also werden aus 50FPS satte 100FPS und deine CPU sowie dein Monitor werden endlich mal gefordert.

Ich hatte auch mal eine 1080Ti die 2200Mhz Chip Takt schaffte und mit höhere PL vielleicht sogar mehr
aber statt nach dem Bios Flash einen anderen DP Port zu nutzen dachte ich es war nicht kompatibel lol
Ergänzung ()

Shir Khan schrieb:
Edit: Jetzt hat's mich doch gejuckt und ich hab mal nachgesehen: Laut 3DMark Leaderboard wäre die Karte im Graphic Score des Time Spy Benchmark unter den Top 9/12% der 2070 Super und den Top 4/3% der 1080Ti (Deutschland/Welt).

Lass mal 3DMark Fire Strike durchlaufen.

https://www.3dmark.com/fs/13941427
 
Zuletzt bearbeitet:
Zurück
Oben