Limitiert CPU XYZ die Graka ABC?

Tr8or schrieb:
Vielleicht hilft dieses Video bei der Entscheidung.
ja das hat es, danke!
HisN schrieb:
Es hängt davon ab was Du machst.
In 4k zocken und versuchen die GPU auf 90% + Auslastung zu bekommen.
HisN schrieb:
Berechnungen sind fürn Arsch.
Noch nie aufgefallen?
an und für sich ja, aber diesmal haben sie tatsächlich recht gehabt. Nachdem ich auf Grafiklastige Anwendungen gestellt habe stand, dass ich bei 4K nahezu kein CPU-Bottleneck habe was sich mit dem verlinkten YT video und der Aussage von @Tr8or deckt.

danke für die raschen Antworten und schöne Feiertage!
 
Zuletzt bearbeitet:
(+) schrieb:
In 4k zocken und versuchen die GPU auf 90% + Auslastung zu bekommen.

Du weißt schon, dass das nicht so gemeint war.
Es hängt davon ab was DU machst. Und das ist völlig unabhängig davon welche Auflösung und wie der Name der Hardware ist.

Ohohoh meine CPU ist zu lahm
cyberpunk2077_2023_01rmcfg.png

Ohohoh meine Graka ist zu lahm.
cyberpunk2077_2023_01svdmc.png


Wichtig ist: Erreiche ich das, was ich erreichen möchte. Und dazu braucht man an sich keine Videos, sondern man benutzt die Regler in seiner Software. Das macht man meistens sogar von ganz alleine^^
Und so steht das auch im 1. Post. Falls man ihn gelesen hat :-)
 
GUN2504 schrieb:
4K ist i.d.R. GPU limitiert. Sollte die CPU nicht so ein großen Faktor darstellen.
mach es wie von @HisN beschrieben und schau was die CPU aktuell schafft.

Eine 3080 kann je nach Variante zwischen 350 bis 400W auf UHD unter Volllast an Strom ziehen.
Also ohne UV bei der Karte kann es mit einem 500W NT eng werden.
Es ist nun doch eine Gigabyte GeForce RTX 3080 Ti Gaming OC-12GD geworden, weil ich dies als Geschenk erhalten habe. Dann ist wohl ohne UV erst recht unrealistisch, oder?

Das heißt ich habe diese drei Optionen eigentlich:
  • Neues NT mit mehr Watt (Würden ca. 550 reichen oder direkt 600 oder mehr?)
  • Die Gigabyte GeForce RTX 3080 Ti Gaming OC-12GD die gegen eine kleinere Grafikkarte wie die RTX 4070 oder 4060 Ti tauschen
  • UV und hoffen das es reicht
 
SourceCoder schrieb:
Neues NT mit mehr Watt (Würden ca. 550 reichen oder direkt 600 oder mehr?)
Wenn man wirklich ein neues NT kaufen will, würde ich direkt auf 850-1000W gehen.
Kostet jetzt auch nicht so viel mehr. Dann haste Ruhe ;)

Besser du diskutierst das im Kaufberatungsthread durch ;)
 
Wo ich gerade dabei war...
12400 mit 4070 (1080p/max/RT) kommt bei Cyberpunk leicht ins Limit. Ich vermute jedoch Cyberpunk ist allgemein sehr CPU lastig?
 
Mach Pathtracing an und die Graka bricht zusammen.
Mach DSR an und spiel in WQHD und die Graka bricht zusammen.
Man bekommt eine Graka immer klein.

Die Frage hier ist genau die gleiche wie im 1. Post
Reichen Dir die CPU-FPS oder reichen sie Dir nicht?
Dass die Graka sich langweilt hast Du selbst in der Hand.
 
(+) schrieb:
ch bin nun von WQHD auf 4K und habe schnell gemerkt das die Grafikkarte hier und da nicht ganz mitkommt.[...]Nun habe ich aber die Befürchtung das die CPU das nicht aushaltet.
hattest du in WQHD genug fps? ja? steigen mit der auflösung auch deine ansprüche an die grafiksettings und/oder fps? nein? warum machst dir dann sorgen wegen der CPU?

wer seine graka in zeiten von DSR, auflösungsskalierung, raytracing etc nicht ausgelastet kriegt macht was falsch.

und warum hast dir nicht einfach die anleitung im ersten beitrag dieses threads durchgelesen?


SourceCoder schrieb:
Neues NT mit mehr Watt (Würden ca. 550 reichen oder direkt 600 oder mehr?)
für ne 3080ti sollten es mindestens 650W sein.

Die Gigabyte GeForce RTX 3080 Ti Gaming OC-12GD die gegen eine kleinere Grafikkarte wie die RTX 4070 oder 4060 Ti tauschen
die 4060ti spielt in ner ganz anderen leistungsklasse. ne UHD-karte istd as mMn absolut nicht.
 
Firstdim schrieb:
Was für Thread ist das bitte ?
Ja, manchmal ruckelt der und reagiert verzögert. Keine Ahnung ich habe dich gute Hardware. Mich macht auch stutzig, dass ich immer bei 110-120 FPS bleibe, sei es high oder liw Einstellungen.
Werde den Ryzen 7 5800 3xd holen, dann aber wiederum muss gedrosselt oder neuer NT. Laut Time Spy müsste im BFV, mein System und mit aktuellen UV und sogar ultra settings auf 190 FPS+ kommen.

Ich verlinke dich mal im richtigen Thread.

Klingt nach CPU-Limit, wenn die Einstellungen egal sind und nur 110-120 rauskommen. Wenn das nicht reicht oder die etwaigen Lagspikes, 1% Lows usw. nerven, dann würde ich in der Tat einen 5800X3D reinknallen.

Und was Timespy mit den zu erwartenden FPS von Battlefield 5 zu tun hat, erschließt sich mir jetzt nicht.
Ergänzung ()

Die bestehende CPU hat 6 Kerne, evl. kann das Spiel auch 7-8 auslasten. Selbst wenn nicht, hast du höhere IPC und höheren Takt, wo das Spiel profitiert.

Ob das Netzteil reicht, wird man dann sehen. Kann man dann immer noch tauschen, wenn trotz UV immer Abschaltung kommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus und Firstdim
QUOTE="Tanzmusikus, post: 28965197, member: 513461"]
Entweder ist die SpieleEngine global auf 200FPS begrenzt ... es gibt ein FPS-Limit (MSI AB, Radeon-Software, usw.) ... oder der R5 3600 schafft einfach nicht mehr.
[/QUOTE]
Wie kommst auf die 200 FPS? Ich komme doch nicht über 120 FPS. Denke aber, dass wie du schreibst die CPU ist der limitierender Faktor.
MehlstaubtheCat schrieb:
Der 5800X3D kann man leicht Undervolten was dazu noch Leistung bringt und die 6900XT auf 250 Watt beschränken und mit dem MorePowerTool, auch Undervolten.
Dann sollte das auch bei deinem Netzteil locker gehen.
Das wäre super, da ich Softwaremäßig kein Genie bin. Die Graka habe ich mittlerweile auf 250-260W
Tanzmusikus schrieb:
Ich hab meinen 5800X3D sogar auf nur 100W limitiert. So könntest Du nochmals mehr für die GPU rausholen.
Natürlich RAM-OC und CurveOptimizer -30 vorher eingestellt.

Ansonsten finde ich, 200FPS sind schon extrem viel FPS. 🤓👍
Bin aber auch SinglePlayer-Spieler. 😉
Habe mich irgendwo vertippt? Warum schreibt ihr alle was vom 200 FPS 😯
Mein Monitor schafft 144Hz und übertaktet 165Hz, das reicht mir auch.
Reich nicht UV bei der graka und CPU?
Warum RAM OC ? Habe noch niemals gemacht und glaube geht bei der Bausteinen kaum was. Mit -30 meinst die Lüfterkurve?
Hat mir niemals gestört, höre die Lüfter kaum und die Temps scheinen wirklich gut zu sein.

So, jetzt erinnere mich, ich hatte in-game auf 120 Hz eingestellt, da die Karte sowieso nicht viel mehr schafft und so wollte ich nach Empfehlung etwas darunter fahren um die Drops zu verhindern.
Die bei neu erschienenen Treibern automatische Optimierung ( siehe Foto) funktioniert nicht im custom, daher...
Update
Nach dem ich die 120Hz Sperre aufgehoben habe, scheint alles viel flüssiger zu funktionieren, merkwürdig aber war.
 

Anhänge

  • IMG_20231229_140504.jpg
    IMG_20231229_140504.jpg
    2,5 MB · Aufrufe: 40
  • IMG_20231229_142204.jpg
    IMG_20231229_142204.jpg
    3 MB · Aufrufe: 43
Banger schrieb:
Und was Timespy mit den zu erwartenden FPS von Battlefield 5 zu tun hat, erschließt sich mir jetzt nicht.
Jetzt auf dem schnelle per Handy.
Ergänzung ()

Banger schrieb:
Jetzt sind 144 mit V-Sync aktiv?
 

Anhänge

  • IMG_20231229_145540.jpg
    IMG_20231229_145540.jpg
    1,6 MB · Aufrufe: 46
  • IMG_20231229_145840.jpg
    IMG_20231229_145840.jpg
    2,4 MB · Aufrufe: 45
  • Gefällt mir
Reaktionen: Banger
RAM-OC bringt auch etwas extra an Leistung,
überdurchschnittlich viel bei den minimalen FPS,
also den FPS Drops in Spielen.
Bei denn Aegis kann man aber allerdings die Finger lassen,
das kein Ram den man dafür nutzen sollte.
Da ist günstig gekauft leider kontraproduktiv.

Bitte las das mit dem geschätzten Spieleleistung das ungenauer Quatsch, danach kannst nicht gehen.
 
  • Gefällt mir
Reaktionen: Banger und Firstdim
Banger schrieb:
Jetzt sind 144 mit V-Sync aktiv?
Hab gelesen, dass es besser ist, den V-Sync in Treibern der graka einzustellen als in-game, finde ich aber nix in Adrenalin, daher hab im Spiel.
@MehlstaubtheCat
Ein RAM, dass sich übertakten lässt, kostet mehr als der Aufpreis auf bessere CPU, daher sah ich keinen Sinn für solche Investition.
 
Firstdim schrieb:
Jetzt auf dem schnelle per Handy.
....

Und was kommt an FPS raus, wenn man alle Limiter wegmacht, testweise? Auch möglich, dass die Einschätzung vom Benchmarkprogramm auf Singleplayer bezieht oder leerer Server. ^^

Firstdim schrieb:
Hab gelesen, dass es besser ist, den V-Sync in Treibern der graka einzustellen als in-game, finde ich aber nix in Adrenalin, daher hab im Spiel.

Am besten für Inputlag verringern und trotzdem kein Tearing ist V-Sync im Treiber und Framelimiter im Spiel, auf 141, sofern in 1FPS-Schritten einstellbar. Ich persönlich bevorzuge jedoch Framelimiter auch per Treiber, weil dieser in meinem Fall die FPS, sofern sie in den Limiter laufen, bei RE4 und Witcher 3 Nextgen besser glätten als Ingame-Limiter. GTA5 hat keinen Ingame-Limiter. Alternativ kann man statt Framelimiter im Treiber auch Niedriglatenzmodus Ultra nehmen, sofern AMD das unter einem anderen Namen im Treiber hat. Framelimiter muss aber eigentlich auch im AMD-Treiber vorhanden sein.
 
Banger schrieb:
Und was kommt an FPS raus, wenn man alle Limiter wegmacht, testweise? Auch möglich, dass die Einschätzung vom Benchmarkprogramm auf Singleplayer bezieht oder leerer Server. ^^
Also ich spiele fast immer mit 64 Spieler und meist sind das Maps, wo viel Pixelbewegung ins Spiel kommt.
Weiß nicht genau welche limiter du meinst, hab vorher geschrieben, dass unabhängig von Low oder ultra settings, blieben die FPS gleich.
Wenn ich nach Update die Graka neu einstellen muss, so sind all die Bildverbesserungen in Adrenalin eingeschaltet. Es ist so eingestellt, dass sobald 3DMark läuft, wird alles ausgeschaltet.
Banger schrieb:
Framelimiter muss aber eigentlich auch im AMD-Treiber vorhanden sein.
Leider finde das im AMD Treiber nicht und die Begrenzung in Game ist so wie im Windows unbrauchbar da nur in großen Schritten.
 
Firstdim schrieb:
Weiß nicht genau welche limiter du meinst, hab vorher geschrieben, dass unabhängig von Low oder ultra settings, blieben die FPS gleich.

Klar, wenn es in den Framelimiter läuft.

Mache mal alle Limiter und alles an V-Sync aus und dann siehst du, ob das System 190 FPS der Timespy-Einschätzung im Singleplayer oder auf einem vollen Server schafft.

Firstdim schrieb:
Leider finde das im AMD Treiber nicht und die Begrenzung in Game ist so wie im Windows unbrauchbar da nur in großen Schritten.

AMD muss es aber irgendwo haben.
https://www.amd.com/de/technologies/frtc
 
  • Gefällt mir
Reaktionen: Firstdim
@Firstdim:

Banger schrieb:
Ich persönlich bevorzuge jedoch Framelimiter auch per Treiber, weil dieser in meinem Fall die FPS, sofern sie in den Limiter laufen, bei RE4 und Witcher 3 Nextgen besser glätten als Ingame-Limiter.

Thema Framelimiter. Bei sowas bevorzuge ich dann wirklich vom Treiber, auch wenn Ingame von Inputlag ggf. besser sein mag, ist aber eh zu vernachlässigen. Selbst V-Sync bei 144/165/180 wäre noch ok.

Niedriglatenzmodus Ultra, Frameverlauf sehr schön geglättet. Monitor auf 165Hz, V-Sync im Treiber an, V-Sync im Spiel aus, Limiter im Spiel aus.
witcher3_2023_12_30_03_14_34_082.jpg


Hier kurz den Ingame-Limiter angeschaltet und der Frameverlauf ist nicht so geschmeidig, wobei ich in Witcher auch schon schlechtere Werte gesehen habe. Zumindest aber keine Lagspikes hier.
witcher3_2023_12_30_03_15_47_042.jpg


DX12-Modus mit Raytracing ist kurz abgeschaltet. Damit schafft die Karte mit meinen Settings keine 144, bzw. 168FPS. Selbst nicht mit DLSS Framegeneration. Grafik ist fast alles auf Max. Im DX12-Modus noch die Nvidia-Haare aus und diese hässliche Vignette mit dem Tunnelblickeffekt und Unschärfe aus.

Die PVP-Spiele COD und BF habe ich nicht.
Ergänzung ()

Und hier noch ein CPU-Limit-Bild. Auch im Ressourcenmonitor schwankte Witcher3.exe so zwischen 55 und 62%. Gesamtauslastung im Ressourcenmonitor war um ca. 20% höher, da schluckt scheinbar irgendwelcher anderer Kram noch mehr Leistung, aber nur während des Spiels. Aber auch nur scheinbar, da 2-3 Dienste 1% haben und der Rest 0. Immer ein Rätsel, der Ressourcenmonitor.
witcher3_2023_12_30_04_09_20_484.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Firstdim
Das heißt also alles auf Max. und ohne DLSS und ohne FG? Könnte auf 1440P dann evl. etwas besser als Witcher 3 Nextgen performen.

Edit: Ach nee, ist ja Äpfel und Birnen, weil 4080 und 4090.
 
Zuletzt bearbeitet:
Na schaue mal an! Witcher 3 kann ja sogar die komplette (!!!!) CPU benutzen! Im Ressourcenmonitor alle Kerne und Threads bei 100%!
witcher3_2024_01_28_01_39_24_649.jpg

Nach der Beendigung des Spiels im Ressourcenmonitor 1-4% Gesamtauslastung, also fehlen noch 4-7% im angezeigten OSD vom AB.

Aber vielleicht bugt auch das Spiel rum, weil außer 2 Wachen ist dort sonst niemand und Tiere und Monster sind auch keine in der Nähe. Novigrad mit unzähligen NPCs hat sogar bessere FPS.

Hier, um Grafikkartenlimit zu vermeiden, DX11-Modus mit alles auf Maximum, außer Linseneffekt und alles was mit (Tiefen-)Unschärfe zu tun hat, denn die sind aus.

Naja, GTA5 und Minecraft könnten dermaßen besser laufen, wenn sie mehr von der CPU benutzen.
Ergänzung ()

Ok, da sind schon noch paar Tiere in dem Bereich, aber daran liegt es nicht. Das Weinanbaugebiet zieht die Leistung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HisN
Zurück
Oben