RTX 4090 mit I9 9900k CPU Bottleneck?

@OZZHI

Ja, falsch gerechnet meinerseits, dann eben ist der 9900K 30-37% langsamer als der 13900K. Ich glaube, du verstehst worauf ich hinaus will. Es sind keine 500% mehr Leistung beim 13900K gegenüber dem 9900K. Was auch die Aussage vom SkyDiver war. Niemand bestreitet dass ein 13900K schneller ist, es gibt aber auch kaum einen Grund warum der 9900K für 4K für nicht zu gebrauchen wäre, wo die Unterschiede minimal sind, bis man irgendwann den Unterbau auswechseln gewillt ist.
Ergänzung ()

sethdiabolos schrieb:
Testing Games gibt es ja schon eine Weile und die Video-vergleiche wirken recht seriös. Da ist der Unterschied zwischen den Generationen schon sehr beachtlich. Mal sind es nur 20-30% Leistungsplus, in einigen Spielen verdoppeln sich die Frames fast (z.B. Spiderman).

In 1080p kann es zutreffen, in 4K sieht man dass die Unterschiede entweder so gut wie nicht vorhanden sind oder wie bei früheren Prozessoren auch die 0.1% lows betreffen. Avg FPS verändern sich so gut wie nicht.
Beispiel PUBG: 13900K in 4K bei 216 avg FPS, der 9900K bei 201 avg FPS.
Das ist kein CPU Limit Test, aber eine Realitätswiedergabe wie die Leute dann in Wirklichkeit spielen, und kaum einer wird eine 4090 für 1080p benutzen. Da der TS aber in 4k spielen will, darf man da nicht allzuviel von einem CPU Wechsel erwarten, je nach Spiel. Natürlich wird der 13900K aber immer besser sein, was ausser Frage steht, nur ob der Kosten-Nutzen da so gut ist für 10 avg FPS mehr einen Unterbau zu wechseln (insofern einem die 1% lows reichen), sei mal dahingestellt.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jak80, TheAnswer42 und Smartin
Das muss man eben schauen. Wenn Raytracing genutzt wird sackt die CPU-Performance u.U. ja nochmals nach unten. Man kann es natürlich erstmal testen aber mein vorheriger 3950X hat in UHD nicht immer gereicht und wurde deswegen gegen den 5800X3D getauscht. Der 9900k liegt in den meisten Games ja auf dem gleichen Level wie der Zen 2.
 
sethdiabolos schrieb:
Das muss man eben schauen. Wenn Raytracing genutzt wird sackt die CPU-Performance u.U. ja nochmals nach unten.
Durchaus gibt es CPU intensivere Games und wie gesagt, der 13900K ist sicherlich in jeder Situation besser. Aber in 4K wie die Tests gezeigt haben, sind in den meisten Spielen die Unterschiede gar nicht groß oder gar bemerkbar, auch in Cyberpunk (13900K avg FPS 69.3, 9900K avg FPS 68.2). Klar, nicht nur auf die avg FPS kommt es an, aber auch bei den 1% lows sieht es in 4K in dem Spiel genauso aus, 2 FPS Unterschied zwischen dem 9900K und dem 13900K. Deswegen allzu viel darf man vom 13900K gegenüber dem 9900K auch nicht erwarten, es sei denn man spielt natürlich in 720p oder 1080p. Was ja hier nicht der Fall ist.

sethdiabolos schrieb:
Man kann es natürlich erstmal testen aber mein vorheriger 3950X hat in UHD nicht immer gereicht und wurde deswegen gegen den 5800X3D getauscht. Der 9900k liegt in den meisten Games ja auf dem gleichen Level wie der Zen 2.
Laut CB-Base Test liegt ein 9900K/10700 zwischen Zen 2 und Zen 3. mit Tendenz Richtung Zen 3. Der 9900K bzw. ein 10700K ist 15% schneller in Spielen als ein 3950X und ein 5800X dann 9% schneller als der 9900K/10700K. In 720p, auch da relativieren sich die Unterschiede in 4K, genauso wie es die Unterschiede zwischen Zen 3 und Raptor Lake sich da relativieren.
 
Hier muss man mal klarstellen
Spiele sind linear mit paar ausnahmen in dx12 vulkan
Daher gilt je schneller ein cpu kern ist von einer cpu ist, da ist IPC und cache sehr wichtig
Desto schneller wird gerendert.
Die Anzahl an cpu kernen sorgt nur dafür das der eine thread auf einen cpu kern weniger zeit verliert folge dessen die ipc des cpu thread auf einen kern steigt.
Das OS ist hier entscheidend abseits vom Treiber der das aufteilt wohin was geht.
Windows neigt dazu alle aufgaben immer auf allen kernen zu verteilen. Ansich eine gute Idee da ansonsten wen auf einen kern fixiert wäre die Zeit für den process zu gering ausfällt und wartezyklen gibt die dann die leistung reduziert.
Daher ist es wichtig das man den richtigen Treiber hat und nvidia Treiber neigen zu höheren cpu last als das amd tut dafür übernimmt der Treiber aber sämtliche shedulling bei spielen.
Das hat den Vorteil das bei games OHNE command list, eine erstellt wird und alte spiel oder neue je nachdem auf der cpu die höchste ipc eines Kerns garantiert .
Das problem ist aber das der eine kern aber schnell sein muss und hier kommt es auf Takt an.
Das hat zeitliche gründe je höher getaktet wird desto besser.
Darum skaliert bei amd ryzen auch der ram mit.
Abfedern kann das der interne cache der cpu je mehr desto weniger ist man auf dem systembus angewiesen.
bei intel ist der systembus der uncore Takt meist mittlerweile um die 4ghz
bei amd ist es der inf fab Takt der liegt bei am4 1800-1933mhz und bei am5 2400-3000mhz
Der cpu coreclock ist relativ egal bei den meisten games um die 4,5ghz reichen völlig aus. sofern genug cache vorhanden ist.
Deswegen performen 3d vcache cpu so gut mit games oder intels größere sku mit mehr L3
Die ideale cpu für Spieler wäre 6 kern mit viel cache so ab 1mb L1, 24mb L2, 128mb L3 bei 4,5ghz
und ja der ci9 9900k ist selbst in 4k zu schwach für die rtx4090
Aktuell würde ich dieser gpu nur den r7 7800x3d oder ci9 13900k empfehlen.
 
Ich habe ein System mit 9900KF. Vor einigen Tagen eine 4080 FE geholt und Folgendes beobachtet.

Starte ich CP2077 auf der 2070, liegt die CPU-Auslastung bei rund 60%, davon entfallen 57-58% auf CP2077, die GPU-Auslastung liegt konstant bei 98%.

Starte ich CP2077 auf der 4080, liegt die CPU-Auslastung bei 100%, davon entfallen 97-98% auf CP2077, und die GPU-Auslastung liegt bei rund 70%. Bei gegebenen Einstellungen liefert die 4080 nicht die FPS-Werte, die ich in diversen Tests auf YouTube mit 13700K / 13900K beobachten kann.

Alles in 1440P. Nur Infos, kein Hilfegesuch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Volvo480 und OZZHI
Ich bin mal gespannt. Hab auch eine 4090 bestellt, da sie in mein Meshlicious mit dem 5900X wohl nicht reinpassen wird, kommt sie wohl in den anderen Rechner mit dem 9900k. Gespielt wird in 4K@120Hz… mal gucken wo die Kombi dann bei BF2042 landen wird… die 3080 müht sich in 4K schon ordentlich ab und für ordentliche Performance müssen da schon die Details runter und DLSS an.
 
@NHP
Sieht im 1. Fall nach einem klassischen GPU Limit und im 2. Fall nach einem CPU Limit aus.
Das würde dir Aussage bestärken, dass die Graka der Overkill bei der CPU Kombi wäre. Erst recht mit der 4090🙁
Jetzt wäre aber interessant, ob in 4K eine bessere Auslastung der Graka erfolgen würde…
@daniel 1301
Bitte teile mal Deine Ergebnisse hier mit. Würde mich sehr interessieren. Hat Du zufällig auch den MSFS ?
 
SkyDiver schrieb:
@daniel 1301
Bitte teile mal Deine Ergebnisse hier mit. Würde mich sehr interessieren. Hat Du zufällig auch den MSFS ?
Ja mal schauen wann die Karte kommt. Hab die KFA Bestellung storniert und jetzt die MSI Ventus (aufgrund der Größe) bestellt. Werde die Karte aber sicherlich zuerst im großen Case mit dem 9900K probieren. MSFS hab ich auch.
 
NHP schrieb:
Ich habe ein System mit 9900KF. Vor einigen Tagen eine 4080 FE geholt und Folgendes beobachtet.

Starte ich CP2077 auf der 4080, liegt die CPU-Auslastung bei 100%, davon entfallen 97-98% auf CP2077, und die GPU-Auslastung liegt bei rund 70%. Bei gegebenen Einstellungen liefert die 4080 nicht die FPS-Werte, die ich in diversen Tests auf YouTube mit 13700K / 13900K beobachten kann.

Alles in 1440P. Nur Infos

SkyDiver schrieb:
@NHP
Das würde dir Aussage bestärken, dass die Graka der Overkill bei der CPU Kombi wäre. Erst recht mit der 4090🙁

Wie viel FPS "liefern" sie denn?
Liefert die CPU 70 FPS, kann man die 4090 problemlos, ohne große Anstrengung ins Graka-Limit schieben in 1440p.
REGLER (hab ich schon mal gesagt, wa?).
Ich schätze nicht dass der 9900KF unterhalb dieser Marke liegt. D.h. ... die Regler sind nicht angezogen. Sonst würde sich die Graka nicht langweilen.

Cyberpunk2077_2022_12_29_01_50_03_471.jpg


In 4K muss ich mit der 4090 schon Qualität aufgeben, damit ich auf FPS komme.

Cyberpunk2077_2022_12_29_01_55_30_790.jpg


Also nix gegen Dich @NHP , Du wirst schon einen Grund haben, warum Du die Regler-Stellung so wählst, aber die reine Info verleitet den lieben @SkyDiver falsche Schlüsse zu ziehen. Er glaubt nämlich jetzt, dass es an fehlender CPU-Leistung liegt, was einfach nicht der Fall ist. Da Du ja Deine Beobachtungen ohne diesen Wert lieferst.

Wenn Du jetzt z.b. 80 FPS sagst, dann liegt Dein CPU-Limit bei 80 FPS aufgrund Deiner Regler-Stellung. Was nicht bedeutet, das die Graka Overkill ist, sondern nur das Du Deine Regler so gewählt hast.
Jetzt müsste sich der liebe @SkyDiver nur damit auseinandersetzen ob die 80 FPS "genug" oder "nicht genug" für ihn sind. DAS ist der eigentlich wichtige Wert. Wie viel FPS stemme ich im CPU-Limit. Ist das genug für mich.

Jedenfalls wäre das meine Herangehensweise und nicht das völlig aus der Luft gegriffene "Overkill". Schon gar nicht bei einem Grafik-Vernichter wie Cyberpunk, den die meisten von uns mit reduzierten Qualität-Settings fahren. Und JA .. DLSS ist eine Reduzierung. Erst die macht das ganze in 4k "spielbar" auf der 4090 :-)

https://www.cpuagent.com/cpu-compar...7/nvidia-geforce-rtx-3070?res=1&quality=ultra

Ach ja .. und YT ist (mMn) eine sehr Bescheidene Quelle für FPS, weil man in den meisten Videos gar nicht sieht was die Leute da eingestellt haben in ihren Settings und scheinbar auch nicht unbedingt hinterfragt WARUM sie es so eingestellt haben, wenn man die Settings doch irgendwo sieht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wolve666, Klever, OZZHI und 2 andere
HisN schrieb:
Wie viel FPS "liefern" sie denn?
25-30 FPS mehr.

HisN schrieb:
(hab ich schon mal gesagt, wa?)
Es interessiert mich nie, was du schon mal gesagt hast.

HisN schrieb:
Ich schätze nicht dass der 9900KF unterhalb dieser Marke liegt.
Du hast dich verschätzt.

HisN schrieb:
warum Du die Regler-Stellung so wählst
Ich habe auf die "gegebenen Einstellungen" hingewiesen, diese sind logischerweise durch den Test auf YouTube festgelegt. Was für eine Frechheit, dass du die anderen für so dumm und dämlich hälst, daran für einen representativen Vergleich mit dem Test nicht zu denken. Bilde dir niemals ein, du wärest intelligenter, wüsstest mehr und könntest alles besser als die anderen.

HisN schrieb:
Jedenfalls wäre das meine Herangehensweise
Auch habe ich auf "kein Hilfegesuch" hingewiesen, somit ist es ohne Bedeutung, was deine Herangehensweise wäre.

Ansonsten lasse ich dein Expertenfachwissen im "Reglerschieben" unkommentiert.
 
Uhhhh... na haben wir nen guten Tag gehabt. Feini Feini :-)

Alles auf das Du da eingehst war nicht an Dich gerichtet, sondern an den TE. Warum ziehst Du Dich daran hoch? Für mich alleine wäre eine absolute Zahl interessant gewesen.
Da ich nicht weiß wie viel FPS es vorher waren sind 30-40 FPS mehr genau so aussagelos wie der ganze Sermon davon von Dir.

Ich hab doch gesagt, Du wirst Deine Gründe haben. Interessiert mich Null. Und ne Hilfestellung für Dich sollte mein Beitrag auch nicht sein, da Du ja EXPLIZIT drauf hingewiesen hast, dass Du das nicht brauchst.

Warum also bist Du zu blöd zu lesen und eierst mich von der Seite an? Du interessierst mich NULL (und Dein rumgereire auch nicht).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wolve666 und Pisaro
NHP schrieb:
Vergleich mit dem Test nicht zu denken. Bilde dir niemals ein, du wärest intelligenter, wüsstest mehr und könntest alles besser als die anderen
er kann zumindest mit Fakten argumentieren und liefert handfeste Ergebnisse, deine gequirlte Sch.. mit YT Videos halt nicht.
Wenn du keine Ahnung hast, ist es nicht schlimm, das auch zuzugeben, aber direkt persönlich zu werden und andere Benutzer zu beleidigen, geht garnicht.
 
  • Gefällt mir
Reaktionen: HisN und Pisaro
wolve666 schrieb:
Wenn du keine Ahnung hast
Wenn du keine Ahnung hast, ist es nicht schlimm, sich nicht zu äußern.

Du sollst auch lernen, aufmerksam zu lesen und lexikalisch zu verstehen, was du gelesen hast.
Ergänzung ()

HisN schrieb:
Warum also bist Du zu blöd zu lesen und eierst mich von der Seite an? Du interessierst mich NULL (und Dein rumgereire auch nicht).
wolve666 schrieb:
deine gequirlte Sch.. mit YT Videos
Die Wortwahl lässt klar erkennen, wer wen zu beleidigen versucht.

Ich wünsche euch beiden alles Gute.
 
daniel 1301 schrieb:
Ich bin mal gespannt. Hab auch eine 4090 bestellt, da sie in mein Meshlicious mit dem 5900X wohl nicht reinpassen wird, kommt sie wohl in den anderen Rechner mit dem 9900k. Gespielt wird in 4K@120Hz… mal gucken wo die Kombi dann bei BF2042 landen wird… die 3080 müht sich in 4K schon ordentlich ab und für ordentliche Performance müssen da schon die Details runter und DLSS an.

Karte ist angekommen, BF2042 läuft in 4K auf Ultra, ohne DLSS und ohne Raytracing bei knapp 120fps. GPU Auslastung liegt bei >90%.

MSFS 2020 läuft im Ultra Preset über London bei 30-50fps @ 4K. DLSS kann ich leider nicht testen, da mit DX12 das Spielt direkt nach dem Laden abstürzt. Hab noch nicht herausgefunden wieso.
 
  • Gefällt mir
Reaktionen: Klever
Wieso kaufst du dir die Karte nicht einfach und testest selbst mal.
Lass dir doch die Karte mit deinem Prozessor nicht schlecht reden.
Immer dieses Pseudo Fachgeschwurbel
 
Zuletzt bearbeitet:
daniel 1301 schrieb:
Karte ist angekommen, BF2042 läuft in 4K auf Ultra, ohne DLSS und ohne Raytracing bei knapp 120fps. GPU Auslastung liegt bei >90%
Das klingt doch schonmal gut, oder? Von wegen die 4090 wird nicht ausgelastet mit der 9900k… Ist sicher auch ein wenig abhängig vom Game.
Aber scheinst war das noch Luft im Vergleich zur 3080. Beim Msfs ist das Ergebnis allerdings enttäuschend. Aber das ist es glaube ich mit jeder CpU/GPU
Vielleicht hast du ja noch mehr Tests. 🙂
 
@daniel 1301

Hi, jetzt sind ja wieder ein halbes Jahr ins Land gegangen:)
Hast Du noch weitere Erfahrungswerte mit Deiner 4090/ 9900k Kombi?
 
Zurück
Oben