CPU-Limit...Konsequenzen?

Lucca77

Cadet 4th Year
Registriert
Dez. 2008
Beiträge
95
Hallo, mal eine kleine Frage. Nehmen wir an, auf einem Stock(!) i5 2500k in Verbindung mit ner GTX 1070 kommt es zu einem CPU-Bottleneck...wie macht sich das in Games bemerkbar!? Tritt ausser einer Einbuße von Frames in der Gesamtperformace auch Tearing, Frame-Drops oder Microruckeln auf? Oder bleibt es nur bei generell weniger FPS im Gesamtbild und man kann trotzdem flüssig spielen?
 
Die FPS sind einfach geringer, weil die GPU nicht ausreichend "Versorgt" wird.
 
Die CPU Auslastung ist nicht bei oder nahe 100% sondern mehr oder weniger deutlich niedriger.
Wenn die CPU übertaktet wäre, könnte die Karte mehr FPS anzeigen. Es sind dann weniger FPS und wenn eben zuwenig dann kann man auch nicht mehr flüssig spielen.
30FPS sind noch "flüssig", 15FPS sind es eben nicht mehr. Andere Spiele brauchen 200FPS um "flüssig" zu sein.
 
rein technisch wartet die krafikkarte also wenn die CPU zu langsam rechnet immer darauf ganz schnell ein neues bild zu machen -so im groben.

je nach spiel kann sich das so äussern:
wenn wenig los ist(zb wenige gegener auf der karte) wir das kaum spürbar sein; wenn aber viel los ist kann es ruckeln, da die CPU nicht schnellgenug daten nachreichen kann.
allerdings wenn du zb cities skylines spielst, könnte es die fps insgesammt verlangsamen, da dort noch viel viel mehr als nur bildaufbau berechnet wird.

mfg
robert
 
Bully|Ossi schrieb:
Die FPS sind einfach geringer, weil die GPU nicht ausreichend "Versorgt" wird.

Das kommt auf das Spiel darauf an. Manchmal sorgt ein CPU-Limit auch für stark schwankende frametimes oder eine problematische Steuerung weil Anweisungen nicht oder nicht rechtzeitig verarbeitet werden.

Meiner Erfahrung nach ist ein GPU-Limit deutlich angenehmer weil die FPS einfach sinken. Ein CPU-Limit oder Speicher-Limit (gerade beim Videospeicher) zeigt sich durch starke, kurze framedrops welche deutlich nerviger sind.
 
Ein GPU limit ist immer besser, als ein CPU limit, selbst wenn die FPS meinetwegen gleich sind.

Im GPU limit sind die Frametimes meist sehr gleichmäßig. Ein GPU limit ist schließlich auch der gewollte Normalzustand.
Im CPU limit dagegen sind die Frametimes meist sehr ungleichmäßig, da die CPU sowohl das Spiel berechnen muss, als auch die Grafikkarte mit Daten versorgen muss. Zudem wird ja auch der Grafiktreiber von der CPU ausgeführt. Man kann sich also vorstellen, was passiert, wenn es hier zu Engpässen kommt...

Einfach gesagt kann die Grafikkarte und somit auch die Bildausgabe im CPU limit nicht mehr optimal arbeiten.

Ein CPU limit sollte man daher wenn möglich immer vermeiden.
 
Lucca77 schrieb:
Tritt ausser einer Einbuße von Frames in der Gesamtperformace auch Tearing, Frame-Drops oder Microruckeln auf? Oder bleibt es nur bei generell weniger FPS im Gesamtbild und man kann trotzdem flüssig spielen?

Tearing: Ja, insofern kein GSync Monitor aktiv ist, wird es zu Tearing kommen
Framedrops: Ja, sonst wäre es ja kein CPU Limit sondern alles okay
Microruckeln: Ja, durch ungleichmäßige Frametimes (s.O.)
 
Das kommt ganz aufs Spiel an. Generell wartet halt die GPu auf die CPU....aber in manchen Spielen hast du fiese Begleiterscheinungen. So kommt es gerne mal zu richtigen Aussetzern, wo das Spiel für kurze Zeit anhält und dann erst weiterläuft, was du in den fps aber kaum siehst, die bleiben weiter hoch. Bei mir Z.B. in The Witcher 3...mit i5 3570K je nach Situation ab ca. 45 fps. An anderen Stellen hab ich über 70 und das Stottern bleibt aus....

Wenn du also stottern bekommst ist die Lösung ein GPU Limit zu generieren, indem du die Anforderungen an die Graka hochschraubst oder einen Framelimiter nutzt um der CPU so arbeit zu ersparen.

Wie schon gesagt wurde tritt ein CPU Limit nicht erst bei 100% auf. Eine Multicore-programmierung kann gar nicht alles immer perfekt auslasten. Es wird also bei 4 Kernen manchmal um schon die 70% kritisch.
 
Baal Netbeck schrieb:
Es wird also bei 4 Kernen manchmal um schon die 70% kritisch.

Es reicht auch schon wenn ein Kern zu 100% ausgelastet ist, dann sind das nur 25% Gesamtauslastung (beim 2500k) und schon hat man ein CPU Limit.
 
Weil man Tearing auch ausschließlich mit Gsync weg bekommt... Ach warte mal, wie hieß das die ganzen Jahre vorher um Tearing zu beenden? Richtig, Vsync....

Natürlich kann es je nach Spiel zu Problemen mit der Frametime kommen. Aber in der Regel begrenzt es nur die FPS wie bei GPU limit. Die Frametime Probleme, können auch daher kommen das Windows 10 zb versucht die Last auf alle Kerne zu verteilen, dass lässt sich aber abstellen. Klassisches Beispiel für permanentes CPU Limit ist World of Tanks, da nur Single Thread, da ist jedes MHz mehr CPU Takt gleich mehr FPS, ruckeln tut es aber auch bei 45nicht.
 
Es gibt einige CPU-lastige Games, aber ein i5 2500K Stock reicht dafür aus.

Die CPU macht sich eher bemerkbar, wenn du in geringen Grafikeinstellungen und Auflösung zockst. Die CPU muss dann eben das Spiel und die Engine in 200 fps berechnen. Wenn du aber mit höherer Auflösung zockst, dann wird das Spiel immer mehr GPU-lastig.
Bully|Ossi schrieb:
Weil man Tearing auch ausschließlich mit Gsync weg bekommt... Ach warte mal, wie hieß das die ganzen Jahre vorher um Tearing zu beenden? Richtig, Vsync....
Du hast schon recht, aber VSYNC hat das Problem, dass zum ersten die Bildwiederholfrequenz mit den Monitor Syncron sein muss: Bei einem Beispielsweise 60Hz Monitor kannst du nur mit 60, 30, 20, 15... fps zocken. Geht die fps kurz auf 59, hast du sofort kurz 30fps. Bei Shootern total nervig. Zum anderen hast du ein Input lagg, da ein Bild angezeigt wird und das 2. Bild berechnet wird. Je nachdem wie lange es dauert, hast du input lagg. Also immer 2 Frames.

Bei GSync/Freesync ist es anders: Die Bildwiederholfrequenz ist dynamisch. Der Monitor hat mal 47Hz und dann plötzlich 65Hz. So hast du keine Framedrops. Ein TFT-Monitor ist physikalisch in der Lage dies zu tun. (Eine Röhre muss für 2-3 Sekunden umschalten.) Die Idee kam schon vor zig Jahren auf. Aufgrund von Kosten und keiner Nachfrage, einigte man sich auf 60 ggf 75Hz. TFT waren eh nur für Bürozwecke vorgesehen. Inzwischen haben 90% der Display 60Hz unterstützen aber auch 50Hz (PAL) und 48Hz. 75Hz wird heute hingegen sehr selten unterstützt.

Als alternative von Beiden empfehle ich ein Frame limiter. Die FPS auf die Zahl setzen, wie die Hz-Zahl deines Monitors und VSYNC aus. Kein Tearing, solange der PC 60fps schafft. Das tut er mir einer GTX1070.
 
Zuletzt bearbeitet:
wenn dun brauchbares board hast mach oc den 2500k kriegste auf wenisgtens 4,4ghz rauf von seinen 3,3
 
Bully|Ossi schrieb:
Weil man Tearing auch ausschließlich mit Gsync weg bekommt... Ach warte mal, wie hieß das die ganzen Jahre vorher um Tearing zu beenden? Richtig, Vsync....

Und was passiert wenn bei VSync die fps < hz sind? Entweder extremes ruckeln, adaptives abschalten oder drop auf die 1/2 Rate.
 
Ja klasse, es geht darum das lt. deiner Aussage nur mit Gsync Tearing weg geht, was nicht stimmt. Und dann ist das auch alles ansichtssache, nicht jeder empfindet das als störend.
Und ganz außerdem, dass ist hier nicht Thema.
 
Ich habe auf den Kontext geantwortet -> CPU Limit und man hat zu wenig fps, da hilft dann auch kein VSync mehr.
 
paccoderpster schrieb:
Und was passiert wenn bei VSync die fps < hz sind? Entweder extremes ruckeln, adaptives abschalten oder drop auf die 1/2 Rate.

Das ist ein uraltes Märchen. Das was du beschreibst ist Double Buffering und wird in so gut wie keinem Spiel der letzten 10 Jahre verwendet.

Bei Double buffering hat man entweder konstant 60, 30 oder 20 FPS, sobald man unterhalb einer Marke ist, fällt man direkt auf die nächsttiefere.


Bei Triple Buffering passiert das aber nicht. Da kannst du jede beliebige Framerate darstellen. Das ganze wird erreicht, indem unterhalb von 60 FPS jedes x-te Frame doppelt angezeigt wird. Bei 45 FPS wird z.B. jedes zweite Frame mit 33,33 ms angezeigt und der rest mit 16,66 ms. Die Frametime wechselt also von Frame zu frame.

Das fühlt sich eigentlich relativ angenehm an, aber dennoch merkt man schon nen recht deutlichen unterschied zwischen 60 und 50-55 FPS, je nachdem wie empfindlich man dafür ist.
Wobei VSync off das problem nicht unbedingt umgeht. Auch Vsync off erzeugt praktisch ruckler, wenn die Bruchteile eines Frames zwei Monitor refreshes lang sichtbar sind.


Ich persönlich nutze eigentlich nur Triple Buffering Vsync bzw. heutzutge in 99,99% aller Spiele einfach "Vsync ON". Wenn man auf 60 FPS abzielt ist das absolut perfekt flüssig. Wenn man weniger als 60 FPS erreicht, merkt man, dass es minimalst ruckeliger wird (ein bisschen stärker, als mit Vsync off), aber es gibt keinen Einbruch auf 30 FPS. Und Tearing gibts auch nicht.

Vsync Off nutze ich nur bei (sehr) schnellen Shootern. Da will ich möglichst geringen Inputlag.
 
Zurück
Oben