Weniger fps nach gpu Wechsel

Genau das, der Bildschirm lastet zum Ersten auf GPU um in 1440p, wenn dann noch FreeSync ins Spiel kommt wirds nochmal optimiert.
Und mehr FPS in 1440p sind in der Hardwarekonstellation wirklich völlig normal, das Limit kommt bei einer so niedrig taktiken CPU extrem Früh, deshalb kommt in 1080p weit weniger als man erwarten würde, gerade bei physiklastigen Games, was hier der Fall ist. Bei anderen Games die generell weniger auf physik gehen, mehr auf Grafik und Details wäre das anders, da wäre das aber auch niue so stark ins Gewicht gefallen.
selbst in 1440p hat seine Karte immer noch Luft nach oben, die könnte nochmal 15-20% mehr, aber da kommt dann auch in 1440p irgendwann wieder der CPU Flaschenhals.

Habe das schon zig mal gehabt, immer bei starker GPU und im verhältnis schwacher CPU, genau deswegen hatte ich ihm Empfohlen einfach auf 1400p zu gehen, günstige Lösung und extrem wirksam

Und es gibt eine ganz einfache Faustregel, es gibt derzeit KEINE CPU auf dem Markt die so hohen Takt im Einzelkern liefern würde, dass sie in 1080P eine Flaggschiff GPU der letzten 5 Jahre wirklich auslasten könnte, gerade wenn das Game auf Singlecore Takt ausgelegt ist und physiklastig, bei Multicore Games sieht das etwas anders aus, aber selbst da wirds haarig. Um aktuelle Flaggschiffe bei solchen Games halbwegs auszulasten müsstest ne CPU mit 7GHz Single Core haben
Bei extrem starken Karten ist Mindestauflösung immer 1440p angeraten um CPU Limits zu vermeiden

Aber wenn Du es nicht glaubst, vielleicht ist der TE so nett und schickt nochmal einen aktuellen Screenshot, dann siehst es selbst.
 
Zuletzt bearbeitet:
Das ist nach meinem Wissen und Empfinden weiterhin Blödsinn, also die Behauptung und deine Erklärversuche.
Ich bin jetzt hier raus aus dem Thema, das werde ich ganz sicher nicht weiter kommentieren.
 
  • Gefällt mir
Reaktionen: MORPEUS, maxi_rodriges und Ja_Ge
@Memo445 kannst vielleicht mal ne genaue Zahl nennen wie sich FPS in welchen Games verändert haben in 1440p damit sich die Ungläubigen hier mal beruhigen und Tatsachen akzeptieren, vielleicht mal n Screenshot oder so.
Da wird sich auf "eigenes Wissen und Emfinden" berufen obwohl hunderte Beispiele im Netz das klar belegen, höhere Auflösung kann je nach Hardware und Game eben höhere FPS bringen.
Da ist in vielen Köpfen wahrscheinlich immer noch der Irrglaube verankert das niedrigere Auflösung gleich höhere FPS bedeutet, was halt so pauschal einfach nicht stimmt sondern explizit von der Hardware und vom Game abhängt

Hier sind die wichtigsten Fakten zum Vergleich:
  • Höhere Auflösung = Niedrigere FPS: Grundsätzlich führt eine Erhöhung der Auflösung von 1080p auf 1440p zu weniger Bildern pro Sekunde (FPS), da die Grafikkarte mehr Pixel berechnen muss.
  • Ausnahme CPU-Limit: In manchen Fällen kann die CPU bei 1080p so stark limitieren, dass die Grafikkarte nicht ausgelastet ist. Wechselt man zu 1440p, wird die Grafikkarte stärker belastet, was manchmal zu einer stabileren oder gefühlt höheren Bildrate führen kann, aber auch selten zu mehr maximalen FPS.
https://www.gutefrage.net/frage/mehr-fps-mit-1440p-als-mit-1080p
 
Zuletzt bearbeitet:
Ich kann mir das höchstens in alten Legacy Spielen vorstellen, wenn die GPU-Last in 1080p derart gering ist, dass die Grafikkarte nicht in den für den 3DModus gedachten P0 State geht. Ob eine höhere Auflösung allerdings dann wirklich in höhere FPS resultiert, ka, hatte ich nie groß drauf geachtet (ohne FPS-Cap hat man da eh mehrere hundert FPS). In halbwegs aktuellen Spielen spielt das keine Rolle, weil die GPU-Last in FHD immer hoch genug für den P0-State sein sollte.
 
Custom-Config schrieb:
Also 300FPS haben zu wollen, wenn der Monitor nur 180Hz hätte wäre komplett nutzlos
Nicht ganz. Die Latenz sinkt.
Ich kenne einige die trotz einem 144HZ Monitor die maximale FPS anstreben. Also 500+ bei CS z.b.

Aber generell sehe ich das genauso. Die FPS auf die HZ des Monitors begrenzen.
Noch vorhandene GPU Leistung in Bildqualität stecken oder einfach den Stromspareffekt mitnehmen.
 
  • Gefällt mir
Reaktionen: Custom-Config
maxi_rodriges schrieb:
Was für ein Käse.
Du kannst maximal die gleiche FPS-Zahl haben, aber auf keinem Fall mehr. 😂
(Für mich sieht es so aus: ich weiß nicht, was ich tue).
Ich hatte den Thread doch abbestellt? Seis drum, mit dem neuen Monitor wird irgendein vorher gesetztes Framelimit aufgehoben worden sein.

SonyFriend schrieb:
Hört sich weiterhin nach Blödsinn.
Ist es im CPU Limit auch.
 
  • Gefällt mir
Reaktionen: MORPEUS
Das Frame Limit lag beim Physiklastigen und teilweise SingleCore Game ganz einfach im CPU Limit bei 1080P. bei einem vorher 144Hz 1080p Monitor wird er kein Sync genutzt haben sondt wäre er nicht auf 200FPS gekommen.
Ist die Limitierung der CPU weg bzw erhöht worden, weil die Last durch die höhere Auflösung mehr auf die GPU verlagert wird, können selbstvertändlich gesamt mehr Frames dabei rausspringen, weil die GPU ja eben auch in 1440p mehr FPS kann, als sie bisher auf geringer Auslastung erzeugen konnte, aber durch die überlastete CPU ausgebremst wurde und eben ihre Leistung gar nicht ausspielen konnte.

Das kommt aber nur bei extremen Diskrepanzen zwischen CPU Leistung und GPU Leistung so stark zum Tragen, wie eben hier beim TE.
Da hat die GPUbei durchschnittlich 50% Last und im Max bei 70% gelegen während des Gamings, weil die CPU da bereits ausgelastet war.
Durch die höhere Auflösung kann somit die CPU deutlich entlastet werden und das GPU Leistungsniveau deutlich steigen.
Hätte er eine 5600X oder eine 13600k CPU gebaht, wären die FPS auch in 1080P höher gerwesen, und am Ende wären auf 1440p maximal gleiche FPS rausgekommen, aber eher nicht viel mehr.

Hier liegt die Sache aber anders, drei Negativfaktoren für die FPS, zu schwache CPU, stark Physik und Single-Core Lastige Games und zu niedrige Auflösung.

Und wers nicht glaubt, kann jeder selbst nachstellen, ne ordentliche Grafikkarte die auf 4K Niveau liegt auf eine CPU die nicht mehr als 6K/12T hat und im Basistakt deutlich unter 3,8-4GHz liegt, Turbo zahlt nicht weil der nur kurz gehalten werden kann wie die PL2 bei Intel.
Da wirst auf einem Physiklastigen Game in 1080p im Schnitt und im Max weniger Frames erreichen als in 1440p
Kannst es auf die Spitze treiben mit nem alten Bulldozer FX8100 und ner z.B. 4090, die kommt in 1080p kaum auf 40% Last, dann ist die CPU deutlich an der Kotzgrenze, wenn Du dann auf 1440p gehst hast fast eine Verdopplung der FPS

@Ghostfacekalle, absolut korrekt, im wirklichen E-Sports Bereich oder bestimmten gewünschten Latenzen macht das auch Sinn hohe FPS zu haben, aber beim normalen Gamer zuhause ist eine gute Sync und damit Begrenzung auf Monitor Horizontalfrequenz sinnvoll.



Gerade diese Problematik bei bestimmten Games und dem CPU Bottleneck wäre mal ein Thema für einen CB Artikel und Test, ich glaube da würden einige staunen
Als CPU Celeron G5905 oder Athlon X4 950 und dann mal ne 4080TI oder 6900XTX da wird die FPS Steigerung mit steigender Auflösung krass deutlich

 
Zuletzt bearbeitet:
Custom-Config schrieb:
Ist die Limitierung der CPU weg bzw erhöht worden, weil die Last durch die höhere Auflösung mehr auf die GPU verlagert wird, können selbstvertändlich gesamt mehr Frames dabei rausspringen,
Das ist doch Unsinn. Welche Last soll die neue GPU der CPU denn abnehmen, Leg das mal im Detail dar. Die Arbeitsteilung ändert sich nicht, die Reihenfolge der Abarbeitung auch nicht. Was die GPU jetzt besser kann hat vorher die alte GPU gemacht, wenn sie dort an der Grenze war war sie im GPU, nicht im CPU Limit. Und ein CPU Limit kann eine schnellere GPU nicht ausgleichen oder erhöhen.
Ausnahme währe z.B. Video Codierung, wo eine neue GPU einen passenden Hardware Coder mitbringt die die alte GPU noch nicht hatte. Dann entlasset sie tatsächlich die CPU.
Was hier vielmehr scheint, dass das Problem vorher gar kein CPU Limit war.
 
  • Gefällt mir
Reaktionen: MORPEUS
Die Verlagerung der Leistung auf die GPU (Grafikkarte) bei höherer Auflösung (z.B. von 1080p auf 1440p oder 4K) ist ein grundlegendes Prinzip der PC-Hardware-Auslastung. Mit steigender Pixelanzahl erhöht sich der Rechenaufwand für die GPU exponentiell, während die CPU (Prozessor) relativ gesehen entlastet wird.
 
Custom-Config schrieb:
Mit steigender Pixelanzahl erhöht sich der Rechenaufwand für die GPU exponentiell, während die CPU (Prozessor) relativ gesehen entlastet wird.
Noch einmal, die CPU und die GPU berechnen verschiedene Dinge. Auch wenn die GPU das was macht jetzt schneller / besser / schöner kann muss die CPU trotzdem die gleiche Arbeit wie vorher erledigen. Wenn sie damit vorher zu 100% ausgelastet war kann sie es mit einer neuen GPU trotzdem immer noch nicht schneller.
 
  • Gefällt mir
Reaktionen: MORPEUS
Eine sehr einfache Erklärung wäre diese
Also, stell dir vor, die CPU ist ein Professor, der Hausarbeiten vergibt, und die GPU ist der Student, der sie schreiben muss.

1080p ist wie der Professor, der einen 5-Absatz-Aufsatz mit offenem Ende vergibt. Kein großes Ding, schnell und einfach für die GPU zu erledigen. Gib es dem Professor zurück, damit er es benoten kann, und sag: "Okay, fertig, gib mir die nächste Aufgabe". Das bedeutet, dass der Professor sehr häufig benoten und fast jede Unterrichtsstunde, wenn nicht sogar öfter, neue Aufgaben parat haben muss.

4k ist wie die CPU/Professor, die eine 25-30-seitige, ausführliche Forschungsarbeit vergibt. Die GPU/Student braucht VIEL länger, um etwas in diesem Umfang zu erledigen, also muss der Professor nicht annähernd so viel benoten und muss nicht so oft neue Aufgaben verteilen, weil die eine so lange dauert.

So arbeiten CPU/GPU zusammen, um die Welt aufzubauen. Die CPU sagt im Grunde: "Hey, ich brauche dich, um diese Welt zu erschaffen", die GPU rendert und sagt: "Verstanden, bitte weiter", und dann wiederholt sich das. Wenn die GPU länger braucht, bevor sie nach dem nächsten Frame fragt, muss die CPU weniger Anweisungen geben.
Auf gut Deutsch steigt die Auflösung, braucht die GPU für die Aufgaben länger und entlastet die CPU, weil die entsprechend weniger in der gleichen Zeit bearbeiten muss

Wie sich das in verschiedenen Games auswirkt ist durch die Native Programmierung des Spiels bedingt, dadurch kann es bei verschiedenen Games zu einer realen Entlastung und reduzierung von Rechenfehlern kommen.
Ist also keine generelle Auswirkung aber eine durchaus real vorkommende
 
Zuletzt bearbeitet:
Custom-Config schrieb:
Also, stell dir vor, die CPU ist ein Professor, der Hausarbeiten vergibt, und die GPU ist der Student, der sie schreiben muss.

1080p ist wie der Professor,
Nein. Bei dem was die CPU berechnet spielt die Auflösung keine Rolle. Die Pixel erzeugt erst die GPU. 1080p liegt in der Verantwortung des Studenten.
Damit solls auch gut sein.

EDIT: Da die Frage nun immer wieder aufkommt etwas genauer.
Eine GPU ist ein Prozessor bzw. im allgemeinen Sprachgebrauch die gesamte Einheit (Karte), die für das Rendern (in deutsch Erstellen) von Grafiken (Bildern) zuständig ist. Dafür benötigt sie einen Satz Anweisungen, um zu wissen was sie darstellen soll und ihre Kerne mit Arbeit zu versorgen.
Diese Anweisung liefert die CPU, das Arbeitsmaterial (z.B. Texturen) wird auch von der CPU koordiniert und liegt bestenfalls bereits im VRAM bereit, sonst im RAM (Stichwort DirectStorage) oder schlimmstenfalls auf irgendeinem langsamen Datenträger.
Der CPU ist die Auflösung, Farbe, Kantenglättung etc. ganz egal, das überlässt sie komplett der GPU. Sie hat andere Sorgen, sie muss je nach Game um Dinge wie Position von Objekten, Bewegung von Spielern und NPCs, Hitboxen mit Treffern von Waffen, Geschwindigkeiten von Autos, Bevölkerungswachstum, Fallschaden und alles andere was nicht mit der grafischen Darstellung zu tun hat berechnen.
Sie teilt diese Informationen der GPU mit, sobald sie für die Darstellung relevant sind.
Kommt die CPU nun irgendwo ins Limit, muss die GPU warten und die FPS droppen. Bei MMOs z.B. droppen die FPS eigentlich immer wenn viele Spieler online sind, da die CPU nicht mit der Positionsberchung der Spieler hinterher kommt. Die GPU spielt hier keine Rolle und eine stärkere GPU hilft nix.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MORPEUS
@Custom-Config
das ist wirklich komplett Käse, glaub uns doch einfach.

sonst sehe ich mich gezwungen dich an @HisN zu verweisen :D

Sofern die Grafikkarte voll hochtaktet, kann eine erhöhung der Auflösung keine Mehrleistung der CPU bewirken, oder für weniger CPU last Sorgen - Ausnahme wäre das man in ein GPU Limit kommt.
Auch das führt aber niemals zu mehr FPS.

Eine CPU kann in Spiel oder Anwendung X einfach eine gewisse Anzahl Frames generieren, die Auflösung spielt dafür fast keine Rolle.
 
  • Gefällt mir
Reaktionen: MORPEUS, maxi_rodriges und Ja_Ge
Zurück
Oben