14900KS und RTX 5090 zu heiß! Aber warum sind 95 Watt auch bei CPU intensiven Games genauso schnell wie 200W Powerlimit in 4K Gaming?

Raptorlake schrieb:
wenn die Grafikkarte es zulassen würde, richtig?
Du meinst das GPU-Limit, hoffe, ich hab‘ dich richtig verstanden😋 aber genau das dazugehörige CPU-Verhalten war glaube ich, meine Eingangsfrage… Nehmen wir an die GPU könnte mehr, dann könnte der KS in 200W auch mehr leisten als mit 95W und wir sehen mehr FPS, wahrscheinlich in 720P der Fall… Ich nehme jetzt mal Cyberpunk als Beispiel, absolut GPU limitiert… Was ich aber bei mir nicht verstehe ist Folgendes: Wenn ich der CPU 200W gebe, saugt sie diese förmlich auf und versucht höher zu takten, drosselt sich nach einiger Zeit auch gerne mal kurz, aber im Endeffekt taktet sie höher als mit 95W. Dennoch sehe ich bei den FPS Max. und Min. keinen Unterschied… Wofür ‚verballert‘ die CPU über 200W, wenn ich auf dem Bildschirm keinen Unterschied sehe… Das verstehe ich überhaupt nicht!!! Deshalb war ich ja so verwundert, als ich beim Afterburner und HWinfo weniger Takt sah, aber das gleiche Resultat. Und wie gesagt, selbst als der KS sich mal bei 200W drosselte, hatte er noch locker einen höheren Takt als mit 95W!
GPU-Limit heißt ja nicht, dass die CPU egal ist und gerade auch in heutigen Zeiten, ist ja erkennbar, dass die CPU eine gewichtige Rolle spielt, auch in 4K. Nur frage ich mich bei obigen genannten CPU-Verhalten, warum der KS bei 200W mehr verbraucht und nichts auf dem Bildschirm an Mehrleistung erkennbar ist!!??🤪
Ergänzung ()

Baal Netbeck schrieb:
daher hat er keinen Nachteil, wenn die CPU effizienter und langsamer läuft, da sie weiterhin schnell genug ist.
Genau das meinte ich mit Effizienz!:hammer_alt:
 
derfernseher schrieb:
drosselt sich nach einiger Zeit auch gerne mal kurz
Templimit würde ich jetzt vermuten, wenn das passiert, verliert sie die Leistung dann wieder. Mit deiner 5090 die bis 600 Watt zieht wäre das sogar logisch, da ja das Gehäuse mit aufgewärmt wird und das bekommt die CPU dann ab.

Aber auch das Mainboard kann bei wärme drosseln.
 
  • Gefällt mir
Reaktionen: derfernseher
Raptorlake schrieb:
Yes, Templimit! Daher mein ganzer Umbau mit Kühlung und dann der Wechsel auf 95W.✌️
Ergänzung ()

derfernseher schrieb:
Nur frage ich mich bei obigen genannten CPU-Verhalten, warum der KS bei 200W mehr verbraucht und nichts auf dem Bildschirm an Mehrleistung erkennbar ist!!??🤪
Ich frage mich hier auch, ob die CPU vielleicht verzweifelt versucht schneller zu sein, weil sie ja mehr Saft bekommt als mit 95W… und vielleicht in einigen Mikrotausendstelundetwas Sekunden es tatsächlich auch schafft und ich das auf dem Bildschirm (und Messprogrammen) mit meinen Augen halt einfach nur nicht sehen kann… Ansonsten verstehe ich echt nicht, warum sie Strom ohne echten Mehrwert zieht und seien es nur 3-4 Fps, dann könnte man zumindest sagen, hier mehr Watt, mehr Leistung… aber so, mehr Watt=gleiche Leistung… Ich merke, dass Thema lässt mich noch immer nicht los… 👹 Vielleicht stelle ich nachher mal Oblivion Remasterd auf 200W CPU-Limit, aber sicher kommt das Gleiche heraus… Höherer Takt und dennoch gleiche FPS Zahl wie bei 95W… Und na logo, würde ich das Spiel in diesem Fall nicht auf 60FPS limitieren… sondern dem Spaß freien Lauf lassen😁
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iWebi
derfernseher schrieb:
Yes, Templimit! Daher mein ganzer Umbau mit Kühlung und dann der Wechsel auf 95W.✌️
Wie gesagt, wenn dir das reicht und zufrieden mit bist ist das PT reduzieren die richtige Wahl.

Mach ich mit meinen ja ebenfalls auf PL1+2 auf 125W. Da ich ebenfalls im GPU Limit spiele in 4K. Könnte natürlich auch 95W eingeben und würde nichts von merken aber wollte etwas luft lassen :hammer_alt:

Mein Windows ist ebenfalls auf Energiesparmodus eingestellt, da zieht die dann noch weniger als deine vergebenen 95W. Beim Spiel Rocket League verbraucht sie sogar nur 14-20W :smokin: Aber auch bei Anspruchsvollen Games sehe ich nicht mehr als 40-60 Watt.

Ich bin also auch so einer der sein System so Effizienz wie möglich betreibt. Meine Stromrechnung sagt Danke :daumen:
 
  • Gefällt mir
Reaktionen: derfernseher
Raptorlake schrieb:
Beim Spiel Rocket League verbraucht sie sogar nur 14-20W :smokin:
Hammer!!! :hammer_alt: Ich glaube, ich habe das Thema ‚GPU-Limit‘ nicht richtig gechecked😅Ich dachte, CPU wird gebremst, orientiert sich also auch an der GPU, aber dann braucht die CPU doch nicht alles zu geben wie im Fall von 200W, wenn kein Mehrwert gegenüber 95W besteht… alles verwirrend für mich, vielleicht mal ausschlafen😅
 
  • Gefällt mir
Reaktionen: iWebi
Wie gesagt, das sind schöne Werte fürs Auge, bedeutet aber nicht das die CPU schon alles gezeigt hat was sie könnte, da die CPU nicht auf volle Leistung unter 100 Watt kommt. Das würde man auch sehen wenn man das mit 720p testet, dass die nicht mal Ansatzweise das liefert was sie könnte, aber das geht halt nur indem man sie ziehen lässt.

Geil fürs Auge, schlecht für die Stromjahresrechnung.
 
  • Gefällt mir
Reaktionen: derfernseher
  • Gefällt mir
Reaktionen: iWebi
@derfernseher aber du bestätigst selbst im Gpu limit zu sein. Im prinzip hat dein Upgrade von 12th gen zu dem KS rein gar nichts gebracht. In Lite Load Szenarien eventuell, dort werden ja dann nur 1-2 kerne angesprochen und deswegen bleibt man unterhalb des PT und kann diese Taktraten erreichen. Sobald man aber andere spiele spielt welche mehr auf Multithreading setzen, wird der KS durch das PT gebremst, solange die Gpu nicht limitiert.
Und da du 4K spielst, ist im Prinzip immer die Gpu der limitierende Faktor. Außer du verbaust nen 12100F oderso.
Alles über nem 12700K würde dir keinen Vorteil mehr verschaffen. Das ist nunmal fakt.
 
  • Gefällt mir
Reaktionen: BReTT PiTT und iWebi
Supertoaster98 schrieb:
Alles über nem 12700K würde dir keinen Vorteil mehr verschaffen. Das ist nunmal fakt.
Da ich vom 12700K kam muss ich Dir leider recht geben :stacheln:
 
  • Gefällt mir
Reaktionen: Supertoaster98
Man muss halt einfach bei den Fakten bleiben. Ein 14900KS mit PT ist schlechter als ein 12700K mit PT. Denn auch mit PT ist die angelegte Spannung zu hoch und führt zu höheren Taktratendrosselungen als bei einem 12700K, welcher von Werk aus allgemein ne niedrige Spannungskurve hat.
Klar hat er mehr Kerne als der 12700K. Diesen Vorteil kann er allerdings nicht nutzen, da er mit seinen mehr Kernen schneller im PT von 95W landet als ein 12700K, 12900K, 13600K, 13700K usw.
Dadurch sinkt der Takt aller Kerne ab. (Außer man nutzt nur Anwendungen welche den Fokus auf single und dualcore legen)
Und für 100% der spiele ist es irrelevant, ob ich 8P cores und 8E cores habe, oder ob 8P Cores und 16 E Cores.
Kein Spiel ist darauf ausgelegt auf 24C/32T zu skalieren. Und bis es dazu kommt ist diese Plattform eh massivst veraltet.
Zuallererst wird die Workload von games eh erst auf die 8P Cores gelagert. Die E cores sind nur support falls das game mit noch mehr Kernen skalieren kann oder für Hintergrundanwendungen. 8E cores als support + Hintergrundanwendungen sind aber mehr als genug. Zumal ein E-Core grob die Leistung eines 10700K cores hat. Da braucht kein Mensch für gaming 16E-Cores im Hintergrund. Sie erhöhen dadurch nur Leistungsaufnahme und Temperatur, ohne die Performance zu verbessern.
Fürs reine aktuelle gaming reicht jede aktuelle cpu zwischen 8 und 16 Kernen vollkommen aus. Alles darüber sieht aufm papier besser aus, aber ingame zeigt sich der nachteil dann, da die CPU sich selbst immer wieder drosselt.

Der Sinn solcher Cpus mit vielen E cores liegt eher im Bereich für Homeserver oder Produktive Arbeiten.

@derfernseher Aktuell fallen dir keine niedrigen Taktraten auf, da du im GPU Limit bist. Dadurch kommt die cpu erst gar nicht dazu, so viel leisten zu müssen. Das ganze ändert sich aber schlagartig, wenn du nur noch 1080p oder 1440p nutzt. Du wirst maximal im Cpu limit landen und deine cpu kann nicht mehr leisten, da sie beschnitten ist auf 95W. Sobald du das PT aber öffnest, hast du nen massiven verbrauch der in keinster Weise effizient noch gerechtfertigt ist.

Aktuell hast du einen 14900KS, welcher unterfordert ist, aufgrund des Gpu limits.
Du hättest selbige Framerates mit einer deutlich günstigeren CPU erreicht. Das ist einfach ein fakt.
Desweiteren ist ein PT alleine, nur Leistungspotenzialverschwendung.
Er könnte mit den richtigen Spannungseinstellungen und taktratenreduzierung im kleinen Maß, trotz PT viel mehr leisten, sofern er mal gefordert wird und die gpu nicht der limitierende Faktor ist.

Mein 13700K ist im benchmark beim Multithreading wenn man die gleiche threadzahl von 24T vergleicht sogar schneller, als ein stock 14900KS, obwohl ich aktuell nur ein All core boost auf 5.4Ghz 1,15v und LLC6 habe und damit 300mhz niedriger als der KS im allcore takte (aber die 5,7ghz hält der KS auch nicht konstant und deswegen leistet er dann weniger). Wenn man es zu den kompletten 32T des KS vergleicht ist er wiederum langsamer als der KS. Logischerweise, da ihm ja 8 E cores fehlen.
Allein dadurch, dass er sich sich aber weder durch Leistungsaufnahme, noch Temperatur selbst drosselt überholt er aber den KS im direkten vergleich mit der gleichen Threadanzahl.
Der KS hat einfach eine zu hohe V-curve. Und zu viele "nutzlose kerne". In single-dualcore Anwendung ist der KS wieder schneller als mein 13er, da ich den nur bis 5,8GHz boosten lasse, da alles andere ineffiziente Spannungserhöhungen erfordern würde.
 
Zuletzt bearbeitet:
Supertoaster98 schrieb:
Aktuell hast du einen 14900KS, welcher unterfordert ist, aufgrund des Gpu limits.
Du hättest selbige Framerates mit einer deutlich günstigeren CPU erreicht. Das ist einfach ein fakt.
Das der 14900KS so unterfordert sein wird, trotz 5090, hätte ich nicht gedacht. Ich glaube mich zu erinnern, dass damals hier einige meinten, dass mit der ‚kommenden‘ 5090, auch ein 12900K in 4K limitieren könnte und v.a. die Min.Fps. auf jeden Fall des Raptors besser sein würden. Letzten Endes stimmt es ja auch, aber der Unterschied ist nun mal nicht so groß, aber davon war auszugehen. Ich wollte halt hauptsächlich keine Bremse für die 5090. Damals war aber noch nicht bekannt, dass nur knapp 30% Leistungszuwachs gegenüber der 4090 hinzugelegt wird.
Supertoaster98 schrieb:
Ein 14900KS mit PT ist schlechter als ein 12700K mit PT.
Laut Techpowerup stimmt das nicht. Der 14900KS ist auch mit einem Powerlimit von 95Watt schneller, auch als meine alte CPU und wie bereits erwähnt, spüre ich das auch in Emulatoren z.B. PS 3. Grundsätzlich gehört er trotz GPU-Limit Titel zur schnellsten CPU und wenn die Differenz zu den absteigenden auch nur klein ist.
https://www.techpowerup.com/review/...ke-tested-at-power-limits-down-to-35-w/6.html

IMG_4013.jpegIMG_4012.jpeg

Diese ganzen Tests hängen natürlich von den Games ab. Im Endeffekt bin ich von Intel aufgrund der hohen Leistung trotz Reduzierung absolut begeistert, weil die CPU mit 95 Watt eine hammer Leistung abliefert (damit sollten sie stärker werben, aber für die Krone muss ja leider alles ausgefahren werden und dann wird es in der Tat mega ineffizient).
Daher gibt es für mich überhaupt keinen Grund das PL zu erhöhen oder auf AMD zu wechseln. Ich glaube, Intel hatte damals RaptorLake auch beworben, dass sie mit viel weniger Watt bereits die Leistung eines Alder Lakes übertreffen. Wenn die CPU mal voll mit über 200Watt ausgelastet werden sollte und ein richtiger Unterschied zu meinen 95Watt erkennbar ist, dann wahrscheinlich erst in einer Zukunft, in der bereits wieder eine neue Generation angefangen hat…noch mehr P-Cores etc. …und’ne 6090…;)

Für‘ s erste denke ich, sollte es so passen✌️
Ergänzung ()

PS Warum unterscheiden sich überhaupt CPUs auch im GPU-Limit? Müssten nicht alle die gleiche Fps anzeigen oder gibt es da noch andere Faktoren? In Cyberpunk weiß ich, dass mein alter 12900K (als auch viele andere CPUs) genauso schnell wie der 14900KS ist, aber in Spiderman ist der 12900K unterlegen, wenn auch nur knapp. Reizt der 12900K also die GPU hier nicht ganz aus?
IMG_4015.jpeg

Ergänzung ()

PPS Rückblickend betrachtend war meine ganze Aufrüstungsaktion leider mehr als kostspielig und der Mehrwert auch mehr als fraglich… CPU/GPU/Kühler/Netzteil… und dann dieser Preis für die 5090…:kotz: Ich wär, denke ich, bei meiner 4090 etc. geblieben… Tja, mal schauen, ob ich für‘s nächste Mal gelernt habe…:rolleyes:;) und danke nochmal für die Hinweise, glaubt mir, ich habe es schon gemerkt -nicht nur in der Geldbörse- das mehr nicht unbedingt wirklich ‚besser‘ ist:schluck:
 
Zuletzt bearbeitet:
@derfernseher deswegen wartet man benchmarks ab, um zu wissen, ob sich ein Performanceupgrade überhaupt lohnt. Dann hättest du ganz schnell gewusst, das eine andere cpu nichts bringt. 👀

Die test von techpowerup sind nutzlos um zu vergleichen wie viel stärker eine cpu ist als eine andere. Das testet man nicht in 4K.
Differenzen, die du dort hast, sind messtoleranzen. Immerhin spricht man da grade von einer 1%igen Differenz.

Die Cpus unterscheiden sich nicht.
4K im Gpu limit
121 zu 124 fps sind 1% = Messtoleranz
Warum du dort weniger frames in Spiderman hast kann ich dir nicht sagen, ohne zu wissen wie dein system ausgelastet ist.

Kein problem, dafür ist ja so'n forum auch da🤙🏻
Helfe immer wieder gerne. 👉🏻
Nur fürs nächste mal gerne weniger Beratungsresistent sein😂
 
  • Gefällt mir
Reaktionen: derfernseher und iWebi
Der KS bleibt eine fragwürdige CPU. Intel weiß das auch, aber sie wissen auch, dass sie immer paar **** finden.

Ist nicht böse gemeint aber ist wirklich wahr 😅
 
  • Gefällt mir
Reaktionen: Supertoaster98 und derfernseher
Raptorlake schrieb:
aber sie wissen auch, dass sie immer paar **** finden.
Die 6,2 Ghz sahen zu lecker aus… ich Marketingopfer😅
Supertoaster98 schrieb:
Nur fürs nächste mal gerne weniger Beratungsresistent sein😂
‚Well - I'll do my very best!‘ :D
 
  • Gefällt mir
Reaktionen: Supertoaster98
Raptorlake schrieb:
Der KS bleibt eine fragwürdige CPU.
Kann ich nur zustimmen. 14900 ist die behindertste CPU die ich je hatte. Allein die Stunden an Zeit. Ich hab sie untertaktet, abstürze gehabt und nun wieder Intel Powerlimit drin. Ständig Drosselung wegen 100 Grad unter Wasser. Da helfen auch keine Radiatorfläche weil die CPU einfach zu klein ist um rechtzeitig die Energie abzugeben.
ganz üble Ingenieurskunst. Ich wusste auch vorher dass sie in der Kritik stand, aber nicht dass es so ein Ausmaß nehmen würde :D
 
Zuletzt bearbeitet: (war unsichtbar :D)
Ach ja, es gibt manche Spiele die eine ms-Anzeige für CPU und GPU in Echtzeit mit Graphen anbieten.^^

Wenn man die beobachtet versteht man auch das es auch in 4K minimale Abweichungen geben kann, aber in der Regel sieht man mit dieser Anzeige 99% der Zeit entweder ein GPU-Limit oder ein CPU-Limit und auch wie groß die Abweichung ist.^^

Ich habe z. B. in Path of Exile 2 eine große Diskrepanz der ms zwischen CPU und GPU und letztere ist eindeutig bei mir der limitierende Faktor, allerdings kommt es alle 5-10 Sekunden zu Ausreißern bei der CPU bei dem diese weit mehr Zeit als die GPU benötigt.^^

Aber ist halt in Relation zur gesamten Dauer trotzdem quasi nichts.^^
 
Zuletzt bearbeitet:
Gravlens schrieb:
@izanagi23 Was auch immer du mit der Schrift gemacht hast, der Text ist im Dark Mode aufgfund der Farbe nicht lesbar.^^
Bin halt gern geheimnisvoll :D
Ne im ernst ich habe keine Ahnung wie das passiert ist ^^ habs mit Formatierung-Entfernen korrigiert.
 
  • Gefällt mir
Reaktionen: Gravlens
Zurück
Oben