Gigabyte RTX 4090 Gaming OC erzeugt flackerndes Bild

Karachow76 schrieb:
Eigentlich will ich auch auf die 15th Gen von Intel warten. Aber mal sehen ob ich so lange warten kann 😅
Das dachte ich mir, dass das nun auch nur vorĂŒbergehend ist erst mal mit dem 8700K.
Aber auch so, hast du nun fette Leistung mit dem Upgrade.
Eine neue GPU brauchst du so schnell keine mehr und die wandert mit ins neue System.
ErgÀnzung ()

Wie gesagt, der GPU einfach mehr zu tun gegeben, wenn sie sich zu langweilen scheint.
Z.B Antialasing, hat mit der CPU nichts am Hut, da kannt du bei deiner 1440p Auflösung
der Karte schon gut zu tun geben und anderen Settings die nur auf die GPU gehen.
Das gebottlenecked hier wird oftmals völlig ĂŒberbewertet.
 
Zuletzt bearbeitet:
Alexander2 schrieb:
Also zwischen 13000 und 14000 ist kein Unterschied, solange nicht bei den Modellnummern die Taktraten oder Kernzahlen angepasst wurden, das Topmodell ist nicht unterscheidbar im rahmen der messungenauigkeit wenn ich das noch recht weiß. mal sehen was sich bei 15er dann tut... vielleicht 5% overall zugewinn?

große SprĂŒnge sind das in letzter Zeit ja nicht :D aber vom 8000er aus sollte ETWAS zu bemerken sein :D
Also Mindestens der Stromverbrauch bis um die 300W sollte auffallen (beim Topmodell)
Ja bei der 14ten Generation ist eigentlich nur der 147000k von der Leistung her etwas gesprungen, bzw. von der Anzahl der Kerne her.
Aber die 15te soll wohl wieder einen deutlichen Sprung machen. Glaube aber auch eher an 10-15% Steigerung. Aber vllt werden die CPUs dann wieder effizienter.
Wollte mir eigentlich auch einen Ryzen 7800X3D zulegen. Aber irgendwie ist fĂŒr mich immer Intel + NVIDIA als die beste Lösung im Kopf. Bin auch 90er Baujahr und vllt. bin ich deswegen noch in dem Denkmuster eingefahren 😅
mikepayne schrieb:
Benchmarks einiger Games wÀren schon spannend. Mit hie und da ein paar intelligenten EinschrÀnkungen, wie oben erwÀhnt. Vielleicht hast du ja die Geduld uns das ein oder andere Ergebnis zu liefern.

Bei meinem 7700K5Ghz (der war nur 4C/8T) war die 1080Ti das Limit. 3070 wurde bereits ausgebremst.

Bin zuletzt mal bewusst komplett auf AMD gewechselt - die Marktanteile der anderen waren mir zu hoch :D
Kann die Ergebnisse dann gerne mal zusammenfassen. 👍
Glaube in 4K wird man keine riesigen Unterschiede merken. Eher so im Bereich von 20 Prozent, wenn ĂŒberhaupt.
ErgÀnzung ()

Nickel schrieb:
Das dachte ich mir, dass das nun auch nur vorĂŒbergehend ist erst mal mit dem 8700K.
Aber auch so, hast du nun fette Leistung mit dem Upgrade.
Eine neue GPU brauchst du so schnell keine mehr und die wandert mit ins neue System.
ErgÀnzung ()

Wie gesagt, der GPU einfach mehr zu tun gegeben, wenn sie sich zu langweilen scheint.
Z.B Antialasing, hat mit der CPU nichts am Hut, da kannt du bei deiner 1440p Auflösung
der Karte schon gut zu tun geben und anderen Settings die nur auf die GPU gehen.
Das gebottlenecked hier wird oftmals völlig ĂŒberbewertet.
Ja das war auch das Ziel. Die GPU wollte ich auf jeden Fall die nÀchsten 4 Jahre nutzen. Mal sehen ob der Plan aufgeht :D

Da bin ich ganz bei dir. Dieses Gerede ĂŒber Bottlenecks und Mikroruckler ignoriere ich gekonnt. Da bilde ich mir lieber selbst ne Meinung.
Ich spiele auch nur in 4K. Da sind die Unterschiede eh gering und die Leistung hÀngt eher von der GPU ab. Wollte eigentlich erst einen 14700k und ne 4080 kaufen. Aber ich wollte lieber eine 4090 haben weil sie mir in 4K mehr Frames bringt.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: mikepayne
Ah, gut. Ich dachte der Monitor wĂ€re fĂŒr 1440P.
Aber da könnte man ja mit Downsampling auch in 4K spielen.
 
Ja hÀtte ich vllt. dazu schreiben sollen. Den Monitor gab es ja mal mit 1440p und erst die neuere Version hat 4K.
Daher bin ich recht entspannt :)
4K 144hz war schon immer ein Traum. Hatte mal 4K 60Hz und bin zu 1440p zurĂŒck gewechselt weil ich 144hz haben wollte. Das war dann auch geil, aber wenn man 1 Mal 4K gewohnt war, will man kein 1440p mehr. Daher musste ich nun doch in den sauren Apfel beißen und mir die 4090 zulegen. :)
 
Huhu,

von mir auch und Feuer frei beim zocken.

LG
 
  • GefĂ€llt mir
Reaktionen: Karachow76
mikepayne schrieb:
Benchmarks einiger Games wÀren schon spannend. Mit hie und da ein paar intelligenten EinschrÀnkungen, wie oben erwÀhnt. Vielleicht hast du ja die Geduld uns das ein oder andere Ergebnis zu liefern.

Bei meinem 7700K5Ghz (der war nur 4C/8T) war die 1080Ti das Limit. 3070 wurde bereits ausgebremst.

Bin zuletzt mal bewusst komplett auf AMD gewechselt - die Marktanteile der anderen waren mir zu hoch :D
Also ich habe nun einiges getestet und kann sagen, dass der 8700k im Falle meiner Beispiele sehr gut performt solang man wirklich alle Settings in 4k auf das Maximum dreht.
Hier mal eine Übersicht der getesten Spiele:
Cod Warzone: 180 FPS mit DLSS QaulitÀt CPU Auslastung: 65% GPU: 99%
GTA5: 91 FPS CPU Auslastung: 42% GPU 99%
Rust: Naja das ganze Game ist natĂŒrlich ein Bootleneck :D ca. 110 FPS mit DLSS QualitĂ€t, aber CPU und GPU liegen bei einer Auslastung von ca 60-80 Prozent.
Cyberpunk: 70FPS mit DLSS QualitÀt CPU Auslastung: 60% GPU 99%
BF2042: 90FPS DLSS off, da das Game mit eingeschaltetem DLSS die CPU komplett in die Knie zwingt.
CPU Auslastung: 95% GPU Auslastung. Ohne DLSS ist hier also scheinbar eine optimale Balance gefunden wenn man nach Rohleistung geht.
Read Dead Redemption 2: 105 FPS mit DLSS: QualitÀt CPU Auslastung: 72 GPU: 99%.
Spiderman Remaster: 100FPS mit DLSS: QualitÀt CPU Auslastung: 80% GPU 85%

Viele sagen ja immer, dass man anhand der Auslastung sieht wo der Bottleneck sitzt. Aber bei Spiderman und Rust haben mir die Auslastungen nicht viel ausgesagt.
Die Spiele liefen alle flĂŒssig bis auf Battlefield 2042, welches einfach nur zu bĂ€ndigen ist wenn man viele Kerne hat (laut meiner Recherche). Rust und GTA5 hatten auch leichte Ruckler, obwohl die Games im Online Modus bei mir schon immer Ruckler hatten. Egal mit welcher Hardware und welcher Auflösung.
Also ich muss sagen, dass ich in Competitiv Games lieber mehr FPS in den Games hĂ€tte Jedoch bringt Grafik runterschrauben nichts, da der 8700k zu schwach fĂŒr 144hz 4k ist. Ich wĂŒrde bei Spielen wie BF2042 lieber auf high/med Settings gehen und mit 144hz, statt mit 100FPS auf Ultra zu spielen. In Single Player Games reichen mir persönlich 60fps.

Ich persönlich weiß nicht so recht was ich mit der Erkenntnis anfangen soll. Ich werde die 4090 vermutlich zurĂŒckgeben und mir lieber einen 14700k + eine 4080 Super zulegen.
Somit wĂŒrde ich in Singleplayer Games immer auf meine 60FPS kommen und in Competitiv Games habe ich dank der Mehrleistung der CPU mehr Anpassungsmöglichkeiten.
Klar ich könnte auch die 4090 behalten, aber irgendwie halte ich das fĂŒr meine Usecases nach meinen persönlichen Tests nicht mehr fĂŒr sinnvoll und fange doch an ĂŒber den Mehrwert fĂŒr grob 1000 Euro Aufpreis nachzudenken.
In Singleplayer verliere ich Leistung und in Competitiv erhalte ich quasi mehr. Daher gleicht sich das gegenseitig aus, ich habe aber einmal alles neu und somit auch neue Garantie.
 
Karachow76 schrieb:
Kannst du in die Tonne treten...

eine CPU mit 4 Kernen und 8 Threads kann bei 12,5% fĂŒr das Spiel am Anschlag sein, also voll im Limit und alles wartet auf den :-)

Oder wie bei meiner mit 12 Kernen und 24 Threads kann es entsprechend bei 4,16% soweit sein...

Und im Taskmanager kannst du es auch nicht erkennen, ob die CPU gerade der Limitierende Faktor ist.
https://www.computerbase.de/forum/t...kelt-fps-brechen-ein-framedrops-lags.1367247/
https://www.computerbase.de/forum/threads/limitiert-cpu-xyz-die-graka-abc.818979/

Im Grunde ganz einfach - meistens richtig, da wo die GPU nicht zu 95+% ausgelastet ist hast du entweder ein SOftwarelimit wie Vsync oder FPS Limiter an, oder deine CPU stellt das Limit dar egal wie da die % Auslastung aussehen...

Also Rust ... bist du im CPU LImit.
Spiderman Remaster ebenso
und der eher seltene fall, wo man es sogar an den CPU% sehen kann, da braucht man es dir ja nicht sagen..

Aber mach dir nichts draus DENN:
Irgend ein Limit hast du IMMER, denn sonst hĂ€ttest du ja unendlich FPS ĂŒberall
Die einzige entscheidende Frage ist.. ist dir das genug so wie es ist, das kannst nur du selbst entscheiden.

Edit:
Karachow76 schrieb:
Viele sagen ja immer, dass man anhand der Auslastung sieht wo der Bottleneck sitzt. Aber bei Spiderman und Rust haben mir die Auslastungen nicht viel ausgesagt.
Du kannst das ja noch verinnerlichen, wie das abzulesen ist :-) die meiste Zeit ist es einfach zu erkennen, weil der Blick auf nur einen Wert (GPU-Auslastungs%) eben meistens hinreichend genau ist

Edit:
Karachow76 schrieb:
GTA5 hatten auch leichte Ruckler,
Gerade GTA V ist halt Programmierseits so Ausgelegt, das es ab einer bestimmten Menge an FPS (darĂŒber) dann anfĂ€ngt Ruckler zu generieren, egal was du machst (mit der ausnahmen das komplette Spiel neu zu programmieren natĂŒrlich). Rust kenne ich nicht gut genug. Manche Spiele haben halt auch einfach IMMER hier und da Ruckler.
 
Zuletzt bearbeitet:
Karachow76 schrieb:
Viele sagen ja immer, dass man anhand der Auslastung sieht wo der Bottleneck sitzt. Aber bei Spiderman und Rust haben mir die Auslastungen nicht viel ausgesagt.
Die Spiele liefen alle flĂŒssig bis auf Battlefield 2042, welches einfach nur zu bĂ€ndigen ist wenn man viele Kerne hat (laut meiner Recherche). Rust und GTA5 hatten auch leichte Ruckler, obwohl die Games im Online Modus bei mir schon immer Ruckler hatten. Egal mit welcher Hardware und welcher Auflösung.

Je nach Engine ist die GPU 95-99% voll ausgelastet.
Ist dies nicht der Fall, ist die CPU das Bottleneck.
Das sagt pauschal schon genau das aus ;)

GTA5 ist ein Spezialfall.

Zum Thema online Latenz und Optimierung https://www.youtube.com/@BattleNonSense/videos

Fun Fact: Slime Rancher benutzt gewisse Assets, welche nur X FPS gerendert werden können. Da kannst du Hardware hinschmeissen was du willst.
 
ZurĂŒck
Oben