Verständnisfrage zu (zum Beispiel) 5800X3D oder auch DDR5

@Baal Netbeck
TechPowerUp, aber ich sehe gerade dass der Gap bei den farbigen Ergebnissen gerade mal 0.3FPS beträgt, das kann man denke ich vernachlässigen.

Ich möchte das nochmal klar stellen:
Das ist eine reine Verständnisfrage und ich möchte mir auch keinen 5800X3D kaufen! Auch die 1% Lows lasse ich weg, dass die mit solchen Upgrades in manchen Spielen höher sind ist ja klar wie Kloßbrühe
 
  • Gefällt mir
Reaktionen: Tzk
xdave78 schrieb:
Weiß nicht, halte ich so nicht für korrekt - jedenfalls nicht so wie es da steht.
Durch den Cache- also den Speicherbereich der der Verarbeitung unmittelbar vorgeschaltet ist gibt es ja ganz andere Verarbeitungszeiten die möglich sind. Anders - nur weil man mit einer i7-920 nicht ins CPU Limit kommt, bedeutet das nicht dass eine i7-12700 nicht für mehr Leistung sorgen kann.
Bei einigen Spielen habe ich durch den Wechsel vom 3800X auf den 5800X3D kaum merklich Leistungszuwachs bekommen - bei anderen Spielen habe ich 20-30% mehr FPS und bei StarCitizen haben sich die FPS quasi verdoppelt. Da ich diese Spiele aber sehr häufig anfasse, lohnt sich der Aufpreis schon.
Depends on, sag ich Mal.
Wenn eine stärkere CPU noch mehr fps aus der GPU rausholen kann dann war man vorher ganz offensichtlich im CPU-Limit. In einer CPU können diverse Bestandteile der Flaschenhals sein, z.B. der Cache, jede Software lastet die CPU anders aus, daher auch die Unterschiede.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
unins002 schrieb:
Und du hast sonst nichts geändert und warst auch vorher schon nicht im CPU-Limit?
Wie kann das sein? Damit kommen wir zu meiner Eingangsfrage zurück :D
Nö, nur die CPU getauscht.
Warum? Weiß ich im Detail nicht. Aber wenn Du Dir ein Bad einlässt und alle 30 Sekunden das Wasser für eine Sekunde ausstellst -und ein anderes Mal machst Du das Wasser alle 50 Sekunden für eine Sekunde aus - was schätzt Du wo die Wanne schneller voll ist? Das Wasser ist dasselbe, gleiche Temperatur, gleiche Füllhöhe. So würde ich es mir sehr stark vereinfacht vorstellen. Der Datenfluss ist halt schon deutlich konsistenter, wenn man mehr Platz im direkten Arbeitsvorrat hat.
 
Painkiller72 schrieb:
Bist du mit einem R7 5800X oder einem R7 3700X ins CPU Limit kommst vergehen sicherlich noch 2 bis 3 Jahre
Je nach Spiel ist man damit doch schon längst im CPU Limit.

Spiel doch mal Anno 1800, Riftbreaker oder Planet Zoo.
Oder diverse andere Spiele, die so früh in ein CPU Limit kommen, dass man sich mehr CPU Leistung wünscht.
 
  • Gefällt mir
Reaktionen: Tzk und AwesomSTUFF
Wie gesagt muss jeder selbst wissen ob dies ihm 200€ Aufpreis wert sind und sie/er das letzte an verfügbaren FPS rausquetschen will. Da ist nix mit S/W sehen sondern einzig und allein nur das P/L gefüge.
 
  • Gefällt mir
Reaktionen: Painkiller72
Baal Netbeck schrieb:
Je nach Spiel ist man damit doch schon längst im CPU Limit.

Spiel doch mal Anno 1800, Riftbreaker oder Planet Zoo.
Oder diverse andere Spiele, die so früh in ein CPU Limit kommen, dass man sich mehr CPU Leistung wünscht.

Sagt mir ein Kollege auch immer wieder, das diese Spiele extrem CPU Lastig sind, gerade im Bezug auf Anno 1800

Ich finde es trotzdem sehr merkwürdig, das gerade bei solchen Spielen auch stärkere CPUs bzw GPUs schon seit Jahren nichts groß bemerkenswertes an der Performance ändern. Nehmen wir doch mal die Total War Reihe von Sega als Beispiel.

Hier sehe ich sowohl Leistungsschwache sowie Leistungsstarke CPUs schon seit eh und eh am Limit kratzen. Liegt das jetzt an der Hardware oder an einer nicht ausreichend angepassten Programmierung ? Selbst eine Leistungsstarke GPU stemmt solche Echtzeit-Strategiespiele doch nur mit viel Mühe.

Hier sehe ich seit Jahren irgenwie keinen logischen Performance Fortschritt und damit meine ich nicht nur die Total War Reihe. Sind Echtzeit Strategiespiele im Jahr 2022 immer noch so komplex für ein Leistungsstarkes System ?

Wer kann mir dafür eine logische Erklärung liefern ?
 
unins002 schrieb:
Das ist eine reine Verständnisfrage
Was limitiert ist nicht zu jedem Zeitpunkt gleich.

Ein Spiel hat sehr schwankende Anforderungen und auch wenn meistens die CPU früh genug die Daten für die GPU bereitstellen kann(GPU Limit), muss das nicht für jeden Frame gelten.

Da werden plötzlich neue Daten benötigt und das bereitstellen dauert dann so lange, dass die GPU doch unterversorgt ist....Also "Nachladeruckler" oder Probleme mit dem Shader cache.

Oder die Zusammensetzung der Szene hat sich geändert. Es kommen mehr NPCs oder Objekte ins Bild und es wechselt in ein CPU Limit.
So kann eine Benchmarksequenz auch CPU und GPU Limit enthalten und daher sowohl von besseren CPUs als auch von besseren GPUs(oder niedrigerer Auflösung) profitieren.

Und nicht jedes Spiel agiert genau gleich.
Ein kurioses Spiel war z.B. Dirt Rally 2, wo man scheinbar dauerhaft sowohl im CPU als auch im GPU Limit ist.
Es scheint so, als würde das Spiel die Drawcalls zurückhalten und somit jeden Frame verlängern.
So bekommt man sowohl mit mehr CPU als auch mit mehr GPU Leistung mehr FPS.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
CPU-Limit ist halt nicht immer die reine CPU-Leistung sondern oft auch Engpässe im Speichersubsystem. Und genau beim Letzteren kann der X3D mit dem großen L3-Cache Punkten. Dadurch werden eigentlich langsame Anfragen an den RAM oft schon vom L3 abgefangen, die Daten sind also wesentlich schneller vorhanden. Als Nebeneffekt wird auch noch etwas Strom gespart.
 
VelleX schrieb:
wo der 5800X3D trotz 4K noch Leistung raus holt, vor allem bei den 1% lows.
Was auch wesentlicher für das "flüssige" Erlebnis ist, als eine beliebige Zahl bei den AVG FPS.
 
  • Gefällt mir
Reaktionen: Tzk
unins002 schrieb:
Naja cyberpunk in 4K kann ich mir nicht vorstellen dass da kein GPU-Limit vorliegt

Gibt auch Spiele wo man 50% CPU Auslastung und 40% GPU Auslastung hat und dennoch keine XXX FPS erreicht und bei 20 FPS rumkrötet. Manchmal kommen noch diverse andere Faktoren dazu. Wenn du in Cyberpunk mit einem riesen Tempo durch die Stadt fährst müssen auch erstmal genug Texturen und Modelle wieder neu in den Zwischenspeicher kommen und das heißt auch von der Platte wieder in die GPU, was bedeutet das man die ganze Hardware benötigt (auch wenn CPU und GPU die Hauptarbeit leisten). Nicht umsonst brechen oft die Frametimes bei Explosionen und so ein. Gerade plötzlich große Datenmengen bringen einen kurzfristig ans CPU Limit und das selbst mit anliegender 8K Auflösung.

@SavageSkull
Frametimes sind so viel wichtiger als irgendwelche FPS. Bringt mir nichts 200 FPS immer zu haben, wenn bei jeden neuem VFX oder sonstiges der PC Schluckauf hat.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Die 1% oder 0.1% lows durch die CPU werden auch in 4K noch messbar sein, wodurch man eben hier und da für ein paar Sekundenbruchteile nicht mehr vollständig im GPU Limit liegt.

Je nachdem wie stark das auftritt wird man daher auch in 4K bei den AVG FPS noch ein paar FPS unterschied messen können.

Man darf auch nicht vergessen, dass die GPU Auslastng meist nur in einem 1sec intervall ausgelesen wird und dann oft auch "nur" 99% anzeigt. In der 1 sec kann halt viel passieren und 99% ist eben dann auch nur der Durchschnittswert. Selbst 100% sind als reiner Durchschnittswert nicht aussagekräftig, wenn der aufgerundet ist...


Und noch was:

Manche Leute sind ja auch in dem Irrglauben, dass straffere RAM Timings direkt mit besseren Frametimes korellieren.
Das ist so gesehen falsch, weil die Timings am RAM (Nanosekunden Bereich) keine, also wirklich gar keine Auswirkungen auf die Frameausgabe (Millisekunden Bereich) haben kann.
Es ist ne reine performance sache im allgemeinen.
Ob die CPU schneller rechnet und die Frameteimes besser werden, weil die CPU höher taktet, weil schnellerer RAM verbaut ist oder weil mehr Cache verbaut ist, ist irrelevant. Heißt, die Art und weise wie die CPU performance verbessert oder limitiert oder überhaupt zustande kommt, ist völlig egal.

Deine Frametimes könnten also auch dann absolut perfekt sein, wenn du den schlechtesten RAM den du finden kannst verbaust. Solange das gesamtkonstrukt aus CPU, Cache und RAM genug performance liefert, damit du niemals ins CPU limit kommst.
Umgekehrt wirst du trotzdem miese Frametimes haben, wenn du voll im CPU limit hängst, egal wie schnell der RAM ist oder wie viel Cache verbaut ist.

Oder anders ausgedrückt, wenn der 5800X3D mit dem besten RAM den du finden kannst in Spiel A bei z.B. 100 FPS im CPU limit hängt, dann fühlen sich die Frametimes genauso schlecht an, wie wenn ein 5800X mit sehr schlechten RAM Timings in Spiel B bei ebenfalls 100 FPS im CPU limit hängt.

Ist ja auch logisch. CPU limit fühlt sich heute genauso schlecht und ruckelig an, wie vor 10 Jahren. Man kriegt die Frametimes im CPU limit einfach nicht glatt, das geht nur, wenn man im GPU limit ist.
 
  • Gefällt mir
Reaktionen: Willi-Fi
Painkiller72 schrieb:
Hier sehe ich sowohl Leistungsschwache sowie Leistungsstarke CPUs schon seit eh und eh am Limit kratzen. Liegt das jetzt an der Hardware oder an einer nicht ausreichend angepassten Programmierung ?
Manche nennen ein CPU Limit auch Software Limit, wenn die CPU nicht zu 100% ausgelastet wird.
Aus meiner Sicht ist das Wortklauberei....denn es meint das gleiche und zwar das die Arbeit die auf der CPU abläuft nicht ausreichend schnell bearbeitet wird um die GPU voll zu versorgen.

Sofern genug CPU Threads da sich, wäre es mit einem besseren Multithreading besser oder eben mit schnelleren CPU Kernen und schnellerem Ram.
Da der Spieler die Programmierung nicht verbessern kann, muss er die schwachen FPS mit schnelleren CPUs und Ram angehen.

Und auch die Spieleentwickler können das Multithreading nicht beliebig verbessern, da z.B. die Thread Kommunikation die es in Spielen viel stärker gibt irgendwann zu viel wird.
In Anno 1800 wäre es aber sicherlich möglich etwas mehr zu tun, da es vor allem die Drawcalls sind die über den Städten limitieren.
Painkiller72 schrieb:
Sind Echtzeit Strategiespiele im Jahr 2022 immer noch so komplex für ein Leistungsstarkes System ?
Ich habe für Anno 1800 eine Benchmarksequenz entwickelt, die das Gameplay im lategame(+DLCs) nachstellt und da ist sogar der 5800X3D zu 95% der limitierende Faktor.
Also ja...auch in 2022 sind manche Strategiespiele zu komplex für aktuelle Systeme.
Und als Grafikkarte habe ich eine GTX1080Ti oder eine Radeon VII in DX12 1080p verwendet....beides sehr ähnlich mit ca 60FPS im Schnitt. Aber auch mit 0,1% low Frametimes von unter 10 und Bereichen im Spiel mit trägen 20 FPS.
Klar könnte man die GPU Last mit einer höheren Auflösung erhöhen, aber dann könnte man auch eine bessere Grafikkarte annehmen....und wenn einem die FPS im CPU Limit schon nicht reichen ist es keine Lösung sie mit der Auflösung noch weiter nach unten zu drücken.
Ergänzung ()

W0dan schrieb:
Manche Leute sind ja auch in dem Irrglauben, dass straffere RAM Timings direkt mit besseren Frametimes korellieren.
Das ist so gesehen falsch, weil die Timings am RAM (Nanosekunden Bereich) keine, also wirklich gar keine Auswirkungen auf die Frameausgabe (Millisekunden Bereich) haben kann.
Es ist ne reine performance sache im allgemeinen.
(+1)

Ich sehe es auch so, dass schneller Ram eher allgemein die performance beeinflusst und nicht die Frametimes im besonderen.

Aber natürlich summieren sich die Verbesserungen im ns-Bereich über abertausenden Ramabfragen potentiell zu Auswirkungen im ms-Bereich auf.

Meiner Erfahrung nach wirkt sich schneller Ram auf FPS und Frametimes gleichermaßen aus. Sofern die Szene komplett im CPU Limti ist.
Wenn es teilweise ein GPU Limit ist, profitieren die Frametimes natürlich überproportional.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mimir und Verak Drezzt
W0dan schrieb:
Manche Leute sind ja auch in dem Irrglauben, dass straffere RAM Timings direkt mit besseren Frametimes korellieren.
Das ist so gesehen falsch, weil die Timings am RAM (Nanosekunden Bereich) keine, also wirklich gar keine Auswirkungen auf die Frameausgabe (Millisekunden Bereich) haben kann.
Aber genau das ist doch die Auswirkung auf die allgemeine Performance. Immer dann, wenn die Frametimes bzw. FPS durch Wartezeiten der Cpu negativ beeinflusst werden, bringt ein höherer Ramtakt und/oder bessere Latenzen was. Ob sich die Latenz des Rams auswirkt hängt halt vom Programm bzw. dessen Programmcode ab.

Ist der Cache der Cpu deutlich größer (z.B. X3D), dann wirkt sich schneller Ram natürlich entsprechend weniger aus.
 
Das Thema ist also doch etwas verstrikter als man vielleicht denkt, dennoch habe ich es zumindest im Groben verstanden. Es ist also nicht unmöglich durch solche Upgrades mehr FPS zu haben als vorher obwohl man in beiden Fällen im GPU-Limit ist, zumindest was die AVG FPS angeht.

Vielen Dank an alle!
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Tzk schrieb:
Ist der Cache der Cpu deutlich größer (z.B. X3D), dann wirkt sich schneller Ram natürlich entsprechend weniger aus.
Klar, wenn die Daten im L3 Cache länger überleben weil er größer ist, müssen sie seltener aus dem Ram kommen.
Trotzdem war ich überrascht, wie deutlich doch der Einfluss der Ramgeschwindigkeit bleibt.
Ungefär 20% weniger FPS wenn von DDR4 3400 auf 2133 heruntergeschaltet wird(alle Timings fest und gleich).
....also in Anno 1800
 
Tzk schrieb:
Aber genau das ist doch die Auswirkung auf die allgemeine Performance. Immer dann, wenn die Frametimes bzw. FPS durch Wartezeiten der Cpu negativ beeinflusst werden, bringt ein höherer Ramtakt und/oder bessere Latenzen was. Ob sich die Latenz des Rams auswirkt hängt halt vom Programm bzw. dessen Programmcode ab.

Ist der Cache der Cpu deutlich größer (z.B. X3D), dann wirkt sich schneller Ram natürlich entsprechend weniger aus.

Ja alles richtig. Aber ich hab eben schon öfter Aussagen gehört, dass man unbedingt RAM mit niedrigerer Latenz braucht, weil sonst die Frametimes schlecht wären und alle Spiele ruckeln oder weil RAM mit niedrigen Latenzen angeblich das Microruckeln im CPU limit beseitigen soll.

So als hätte eben die RAM latenz direkten Einfluss auf die Frametimes bzw. die Frametimevarianz. Das ist halt falsch. Wenn dann gibts nur indirekten Einfluss über die allgemeine CPU performance, die eben durch bessere RAM latenzen steigen kann (womit man wiederum ins GPU limit rutschen kann).

Es ist etwas schwer den Unterschied in Worte zu fassen, aber ich hoffe man versteht, was ich meine. Sollte auch nur ne Randnotiz sein.
 
  • Gefällt mir
Reaktionen: Tzk und Baal Netbeck
W0dan schrieb:
Aber ich hab eben schon öfter Aussagen gehört, dass man unbedingt RAM mit niedrigerer Latenz braucht, weil sonst die Frametimes schlecht wären und alle Spiele ruckeln oder weil RAM mit niedrigen Latenzen angeblich das Microruckeln im CPU limit beseitigen soll.
Das habe ich leider auch schon öfter gehört.

In den meisten Threads zu "Hilfe ich habe Ruckler" wird auch immer auf die Ramgeschwindigkeit eingegangen...ob das schneller Ram ist oder ob dual Channel läuft.

Und auch wenn es ganz nett ist, wenn man nebenbei die Leistung um X% erhöht, weil der TE eben kein XMP aktiviert hat, so hat es nichts mit dem grundsätzlichen Auftreten der Ruckler zu tun.
Die sind meist im Spiel selbst normal oder durch Software, durch Kabel oder USB Geräte verursacht.

Manchmal mag es sein, dass die Ruckler spürbar sind und mit deutlich schnellerem Ram werden sie soweit abgeschwächt, dass sie kaum noch spürbar sind, aber verschwinden tun sie nicht.
 
  • Gefällt mir
Reaktionen: Tzk und Mimir
unins002 schrieb:
Es ist also nicht unmöglich durch solche Upgrades mehr FPS zu haben als vorher obwohl man in beiden Fällen im GPU-Limit ist, zumindest was die AVG FPS angeht.
Ja. Ich würde das ganze grob zusammenfassen mit: Eine % Zahl zwischen 0 und 100 ist komplett unzulänglich um die Limitierungen des Symstems genau festzustellen.

Zum einen, wie schon von anderen erwähnt, wegen der zeitlichen Ungenauigkeit (zu seltenes Messen).

Aber es ist einfach eine grundsätzlichen Problematik die Auslastung von modernen Systemen relativ anzugeben. Beispiel: Ein moderner Prozessor kann jeden Kern zB von 800 MHz - 5 Ghz takten. Aber wenn alle Kerne zusammen an sind ist bei 4Ghz Schluss. Was ist in dem Fall 100%. Alle Kerne bei 5Ghz obwohl das in der Praxis nicht geht? Man kann dieser Zahl ja zB gar nicht trivial ansehen ob die CPU nur wegen einem einzigen Kern limitiert, denn wie viel Prozent Auslastung ein "voll ausgelasteter Kern" verursacht ist von CPU zu CPU unterschiedlich.

Noch ein ganz anderes Beispiel: Wenn eine moderne CPU auf Daten aus dem RAM wartet, muss das nicht unbedingt als aktive Rechnzeit gezählt werden. Denn die Recheneinheiten der CPU haben nichts zu tun. Und dank Techniken wie Hyperthreading / SMT kann der selbe CPU-Kern die Zwischenzeit nutzen um andere Berechnungen für ganz andere Prozesse durchzuführen. Kann also sein, dass mehr L3 oder kürzere RAM Latenzen zu einem schnelleren Ergebnis führen würden, der CPU-Kern aber nicht vollausgelastet ist.


Um exakt zu beurteilen wann welche Komponente limitiert (und damit ein Austauschen dieser Komponente die Performance verbessern könnte) bräuchte man viel granularere Daten über viele Teilkomponenten eines Prozessors oder der GPU, genauso wie man wissen muss, ob die ausgelastete Komponente denn überhaupt aktuell kritisch ist.

Beispielsweise kann man das Warten auf gewisse Ereignisse in einem Programm aktiv machen. Also ein permanentes Abfragen ob das Ereigniss nun eingetreten ist oder nicht für kürzestmögliche Reaktionszeit.
Das würde im Taskmanager nach voller Auslastung eines CPU-Kerns aussehen, ist aber überhaupt nicht kritisch, da das warten mit einer Reaktionszeit im Nanosekundenbereich beendet werden kann. Worauf es eigentlich ankommt ("das Kritische") ist das Ereigniss worauf gewartet wird.

Diese Auslastungszahlen taugen nur sehr grob um auf einen Flaschenhals im System zu schließen.
 
  • Gefällt mir
Reaktionen: Tzk
Die CPU Auslastung ist in der Tat sehr schwer zu interpretieren.

Aber man muss ja eigentlich nur die GPU Auslastung angucken.

Wenn du sie z.B.mit dem Afterburner als Diagramm anzeigen lässt, wird sie auch permanent aktualisiert und du hast nicht diese Mittelwerte über Zeit X.

Dazu noch die Frametimes als Diagramm und du siehst live jeden Peak und ob dabei die GPU Auslastung runter ging oder nicht.

Was willst du mehr wissen.
Ergänzung ()

Ray519 schrieb:
Aber wenn alle Kerne zusammen an sind ist bei 4Ghz Schluss. Was ist in dem Fall 100%. Alle Kerne bei 5Ghz obwohl das in der Praxis nicht geht?
Ich will nicht behaupten ich wüsste wie genau die Programmierung ist, aber soweit ich weiß gibt die Thread -Auslastung von Windows an, wie viel Prozent eines Zeitraums der CPU-Thread "besetzt" war.
Wie viel GHz die CPU dabei hat ist völlig egal.
Ray519 schrieb:
Man kann dieser Zahl ja zB gar nicht trivial ansehen ob die CPU nur wegen einem einzigen Kern limitiert, denn wie viel Prozent Auslastung ein "voll ausgelasteter Kern" verursacht ist von CPU zu CPU unterschiedlich.
Das dürfte meinem Verständnis nach keinem Unterschied machen.

Ob ein Thread voll ausgelastet ist, sieht man eh kaum, da Windows die Last gerne hochfrequent von Thread zu Thread schiebt, aber nur Mittelwerte ausgibt.

Für ein PC Spiel braucht man nur GPU und CPU Auslastung.
Ist die GPU bei 99% ist es ein GPU limit.
Ist man im CPU Limit muss man gucken ob die Auslastung einer HT/SMT CPU über oder unter 50% ist. Darunter helfen mehr Kerne/Threads kaum und darüber helfen sie.
Ray519 schrieb:
Noch ein ganz anderes Beispiel: Wenn eine moderne CPU auf Daten aus dem RAM wartet, muss das nicht unbedingt als aktive Rechnzeit gezählt werden.
Echt?
Ich nehme Mal ganz plump prime95.
Mit kleinen Dateien kommt alles aus dem Cache und der verbrauch ist maximal, da die Ausführungseinheiten keine Pause bekommen.
Mit großen Datenblöcken die nicht in den Cache passen, muss immer wieder auf den Ram gewartet werden. Trotzdem ist in beiden Fällen die CPU Auslastung bei 100%.
Ray519 schrieb:
Beispielsweise kann man das Warten auf gewisse Ereignisse in einem Programm aktiv machen. Also ein permanentes Abfragen ob das Ereigniss nun eingetreten ist oder nicht für kürzestmögliche Reaktionszeit.
Das würde im Taskmanager nach voller Auslastung eines CPU-Kerns aussehen, ist aber überhaupt nicht kritisch, da das warten mit einer Reaktionszeit im Nanosekundenbereich beendet werden kann. Worauf es eigentlich ankommt ("das Kritische") ist das Ereigniss worauf gewartet wird.
Ja. Aber warum ist das für die Entscheidung was man aufrüsten sollte interessant?

Ist doch egal ob ein Thread auf einen anderen Thread oder einen Timer oder sonstwas wartet.
Was zählt ist das Ergebnis und dessen Zusammenhänge sind so vielschichtig, dass du sie nie voraussagen kannst.

Daher gibt es ja Hardware -Tests, die zumindest Stichpunkte testen und die Zwischenräume kann man Interpolieren.
 
Zuletzt bearbeitet:
Zurück
Oben