Test Kleinste Acht-Kern-CPUs im Test: Intel Core i7-11700(K) gegen AMD Ryzen 7 5800X

GERmaximus schrieb:
wo kommt dieses Märchen eigentlich her?
Daher, dass viele wohl immer noch nicht verstanden haben, dass eine 10°C wärmere CPU nicht automatisch bedeutet, dass auch 10°C wärmere Luft ins Gehäuse befördert wird^^
 
  • Gefällt mir
Reaktionen: A.Xander und GERmaximus
Blumentopf1989 schrieb:
Der 5800X ist indes eigentlich aufgrund der doch immer wieder benannten Hitzeproblematik eher kritisch zu sehen.
Über Unwissen reg ich mich gar nicht mehr auf ist mir maximal nen Link wert.
https://www.pcgames.de/AMD-Firma-238123/News/cpu-zen-3-ryzen-heiss-1364870/
Genau wie hier
Mad79 schrieb:
Was nützt mir ein günstiger leistungsstarker 8 Kerner von AMD wenn ich mir noch eine völlig überteuerte Grafikkarte einbauen muss um ein Bild zu bekommen.
Als rechenstarke Arbeitsmaschine bleibt nur Intel. Schade das AMD hier nichts bringt. Die haben schließlich mal mit den APUs angefangen.
Ist ja erst seit der Computex bekannt das die neuen APU´s offiziell für Consumer kommen.
https://www.computerbase.de/2021-06...n-7-5700g-und-ryzen-5-5600g-kommen-im-august/
Den 4000er als tray gibt es auch noch. Leider beide nur mit Vega Grafik aber war ja klar bis Intel da was brauchbares einbaut wird es auch eher dabei bleiben.

Schönreden ist halt momentan so ein Intel Ding, war lang genug andersrum, da haben die AMD´s wie ein schwarzes Loch alles was nach Energie aussah aus der Leitung gezogen und waren hintendran, dafür günstig zu bekommen.
Kann für uns eh nur gut sein wenn Intel da mit Alder Lake was ordentliches abliefert, je enger der Konkurrenzkampf umso besser für den Konsumenten.

Zum Thema:
Der Test bestätigt mich nur in meiner Wahl des 5600X. Ryzen ist und bleibt also vorerst das bessere Produkt, mit dem 5600X gibt es da für mich als reinem Gamer genug Leistung bei sparsamen Verbrauch.

@Volker Danke für den Test. Wobei sich mir die Frage stellt wo der 5600X bei der Leistungsaufnahme in Spielen ist, gibt es da Hoffnung das der nochmal vielleicht im Zuge der 5000G Reihe nochmal seinen Weg auf das Testsystem findet. Würde das Bild einfach komplett machen, auch da hier oft der 11400f als Alternative empfohlen wird.
 
GERmaximus schrieb:
wo kommt dieses Märchen eigentlich her?
Ja 7nm sind im CPU Inneren wärmer als 10 oder 14nm, produziert im Gesamten aber dennoch weniger Abwärme. Das Temperatur Arbeitsfenster hat sich leicht verschoben, ist aber völlig ok.

Ein heutiger Turbo Motor erreicht mit 950-1000C* auch deutlich mehr als alte Turbo Motoren mit 850-900C* oder Saugern mit um die 700C* Abgastemperatur.
Neue Technik und Materialien sind das Stichwort.
Das was früher 50C CPU last war sind heute halt 75C, macht aber nichts und ist normal.
Was bringt dir das Ganze, wenn die (geringere) Abwärme aufgrund der Konstruktion aber nicht gescheit abgeführt werden kann? Es ging doch nur um den 5800x, die 5900x haben aufgrund des anderen Aufbaus nicht dieses Problem in der Form.


A.Xander schrieb:
Über Unwissen reg ich mich gar nicht mehr auf ist mir maximal nen Link wert.
https://www.pcgames.de/AMD-Firma-238123/News/cpu-zen-3-ryzen-heiss-1364870/
Das es aufgrund der 7nm u.a. so ist geschenkt...ein gewisses Marketing ist aber auch immer dabei. Das der Grenzbereich deutlich schmaler dadurch wird sollte aber auch klar sein. Gerade Boxed und günstige Kühler zeigen ja, dass es eben nicht möglich ist diese höhere Temperatur zu nutzen um eine höhere und längere Boostperformance zu bekommen.
 
Blumentopf1989 schrieb:
Was bringt dir das Ganze, wenn die (geringere) Abwärme aufgrund der Konstruktion aber nicht gescheit abgeführt werden kann? Es ging doch nur um den 5800x, .

Mir ist nicht ein Fall vom 5800x bekannt, wo dieser seine Abwärme aufgrund der Konstruktion nicht gescheit abführen kann.

Die Arbeits bzw. Temperatur Fenster hat sich einfach nach oben verschoben OHNE dabei mehr Abwärme zu produzieren. Im Gegenteil.

ja der 5900x der sich seine 12 Kerne auf je 6 Kerne aufteilt ist kühler.
Ja der 5800x ist wärmer, aber von Problemen zu reden verstehe ich nicht.
Die Wärme die der Lüfter abführen muss ist ja quasi identisch
 
  • Gefällt mir
Reaktionen: iron-man und DonL_
Mad79 schrieb:
Was nützt mir ein günstiger leistungsstarker 8 Kerner von AMD wenn ich mir noch eine völlig überteuerte Grafikkarte einbauen muss um ein Bild zu bekommen.
Als rechenstarke Arbeitsmaschine bleibt nur Intel. Schade das AMD hier nichts bringt. Die haben schließlich mal mit den APUs angefangen.

Sorry jede APU von AMD ist besser - weil die Treiber von Intel immer noch Grütze sind...
Die Kollegen aus der Entwicklung jammern Rum wegen Bluescreens... Kenn ich auf meiner AMD APU keinen einzigen... Und ich hab en scheiß Dell Laptop...
 
  • Gefällt mir
Reaktionen: DonL_
Blumentopf1989 schrieb:
Was bringt dir das Ganze, wenn die (geringere) Abwärme aufgrund der Konstruktion aber nicht gescheit abgeführt werden kann? Es ging doch nur um den 5800x, die 5900x haben aufgrund des anderen Aufbaus nicht dieses Problem in der Form.
Liest dich vielleich mal ein bisschen in Thermodynamik ein, bevor du hier ständig wieder in die falsche Richtung läufst. Noch einmal zum Mitschreiben und Nachdenken:

Der 5800X und der 5900X haben die gleiche TDP und das gleiche maximale Powerbudget. Das heist soweit für beide CPUs fällt die gleiche Wärmeleistung an, die abgeführt werden muss. Damit erwärmen beide CPUs die Umgebung im Gehäuse auch gleich.
So, warum ist der 5800X jetzt wärmer, kann die Wärme aber trotzdem abgeben? Der 5800x hat, wie bekannt, ja nur ein Chiplett im Gegensatz zum 5900X, dadurch ist der Gesamtwärmewiderstand aufgrund der geringen Fläche höher. Bei gleicher Kühlung erhöht sich dann die Temperatur der CPU bis zu einem bestimmten Niveau, bis sich der Wärmestrom durch das Temperatur-Delta soweit erhöht hat, um einen Ausgleich zu schaffen. Je höher das Temperatur-Delta, desto mehr Wärme wird übertragen.
Wenn man (unnötigerweise) versucht, niedrigere Temperaturen im Kern des 5800X zu erreichen, muss man das Temperatur-Delta erhöhen, also zwischen DIe und dem Boden des Kühlkörpers. Das funktioniert bei niedrigeren Temperaturen immer schlechter, da der Kühlkörper selbst auch ein Wärmewiderstand besitzt und die Wärme an der Umgebungsluft, die ja auch eine gewisse Temperatur hat, abgeben muss.

Im Grunde kann man sagen, dass ein Kühler, der die Wärmeleistung eines 5900X gebändigt bekommt, auch die des 5800X gebändigt bekommt. Es kann maximal ein schmales Fenster bei knapp dimensionierten Kühlern vorkommen, bei dem ein max Boost des 5800X nicht so lange gehalten werden kann, wie beim 5900X. Dann reden wir aber eher von wenigen Sekunden, bevor der 5900X ebenso drosseln würde. Funfact dabei, wenn man schon so knapp dimensionieren muss: ein vergleichbarer Intel würde da sogar früher drosseln, weil die Wärmeleistung einfach höher ist und der Kühler insgesamt mehr Leistung abführen muss.

Im hier vorliegenden Test hat das System mit 5800X sogar eine etwas geringere Leistungsaufnahme, als das mit einem 5900X, würde insgesamt bedeuten: das 5800X-System erzeugt weniger Wärme, obwohl die Temperatur der CPU höher ausfällt.
 
  • Gefällt mir
Reaktionen: A.Xander, Synxalot und floq0r
A.Xander schrieb:
@Volker Danke für den Test. Wobei sich mir die Frage stellt wo der 5600X bei der Leistungsaufnahme in Spielen ist, gibt es da Hoffnung das der nochmal vielleicht im Zuge der 5000G Reihe nochmal seinen Weg auf das Testsystem findet. Würde das Bild einfach komplett machen, auch da hier oft der 11400f als Alternative empfohlen wird.

wir haben da grad NDA .. aber vielleicht .. maybe .. eventuell .. ;)
 
  • Gefällt mir
Reaktionen: ThomasK_7, BorstiNumberOne und A.Xander
Mit welcher Graka wurden die Test durchgeführt? Habe leider nichts in dem Bericht gefunden!
 
A.Xander schrieb:
Wobei sich mir die Frage stellt wo der 5600X bei der Leistungsaufnahme in Spielen ist
Der 5600X liegt idR ~15-20W unter dem 5800X in den gleichen Szenarien, also meist im Bereich 50-65W
 
Ist doch völlig wumpe ob der 5800x höhereTemps anzeigt als z. B. 5600x oder 5900x solang das Ding so funzt wie es soll. Ist ja nicht so dass das Teil ständig am köcheln ist sondern die Max Temps laut Monitoring tools halt eben bisschen höher sind. IRL macht der 5800x durch die Abwärme den Raum nicht heisser als ein 5900x.Nur Das und die einwandfreie Funktion interessiert mich als Consumer.
 
  • Gefällt mir
Reaktionen: pisaopfer und Taxxor
Erzherzog schrieb:
Es sollte schon irgendwas sinnhaftes sein. Mit dem Ferrari komm ich wenigstens von A nach B und das Teil hat einen gewissen Wertbesitz und dient irgendwo auch als Statussymbol. So eine Grafikkarte ist schnell wertloser Elektroschrott und mal absolut kein Vergleich, auch wenn manch einer das immer wieder so sieht!

Das ist eine sehr subjektive Sache - die Grenze der Sinnhaftigkeit da zu ziehen wo es einem nach eigenem Ermessen entweder passt oder nicht. Für dich mag ein Ferrari sinnvoll sein um eine Person von A nach B zu bringen, für mich ist es nicht. Wenn wir schon über Sinnhaftigkeit von motorisierter Mobilität uns unterhalten, tut es ein Dacia Logan auch. Oder ein günstiger Daewoo, Skoda usw.

Da ist eine bessere Grafikkarte sogar sinnvoller, ermöglicht sie doch eine angenehmeres Spielerlebnis. Anders als ein überteuerter Sportschlitten der bis auf Blickfang keine Vorteile gegenüber einem Dacia hat und dabei unrentabler ist. Aber wenn die Menschen dafür Geld ausgeben, ist es halt so.

Erzherzog schrieb:
Der Kollege Beszos fliegt sogar ins All und jetzt? Soll ich jetzt das Gas aufdrehen weil ich niemals so viel wie der verbrauche?

Nein, aber auch Herr Besos kann dafür mit seinem Geld innerhalb der Gesetzeslage alles machen was er für richtig hält und sich dabei nichts vorschreiben lassen, abhängig davon ob du oder ich es sinnvoll finden oder nicht.

Erzherzog schrieb:
Bei Gaming ist es sinnvoller das Rest-Budget in eine bessere Grafikkarte zu investieren. Je höher die Settings, desto weniger wichtig wird die CPU. Es macht eigentlich seit den Multi-Cores auch nur noch sehr bedingt eine Plattform "auf Vorrat" zu kaufen, es ist viel wichtiger die aktuelle Technik zu haben und starke Cores, nicht viele die nach paar Jahren schwach sind.

Beim Gaming ist es sinnvoller ein gemäß seinen Ansprüchen abgestimmte Platform zu haben mit möglichst wenig Limitierungen. Es bringt nicht viel, eine 3090 mit einem Vierkerner zu betreiben um dann die Karte bei 70-80% Auslastung in einem auf Multicore optimierten Titel zu sehen, genauso wenig wie es was bringt einen 5950X mit einer GTX 1050 Ti zu paaren und sich dann wundern, warum die FPS nicht besser werden.

Erzherzog schrieb:
Mein 6 Core schlägt lockert alte 8 Cores und hat einen Bruchteil gekostet, ist dabei effizienter.

Und bei einem auf Multicore optimierten Spiel schlagen dann diese 8-Kerne deinen Sechskerner, so what? Heisst es jetzt, die Leute hätten sich den ganzen Fortschritt mit Mehrkern CPUs sparen können und bei Vierkernern bis 2021 bleiben sollen? Reicht doch auch aus, wer braucht schon mehr?


Erzherzog schrieb:
Löbliches Ziel. Habe ich mehr oder weniger geschafft, wobei mein Comet Lake noch genügsamer war. Allerdings kann man den Rocket Lake auch bei 65 TDP laufen lassen, nur verliert man da Leistung. Ist dennoch alles sehr leise und stark. Mir tun die Leute mit 9900k da eher leid, das Ding ist am Limit geprügelt und kaum besser als meiner.

Ein 5800X zieht unter Blender auf Stock mehr Strom, als ein 9900K auf Stock, mit entsprechender Mehrleistung als ein 9900K. Tun dir auch alle Leute Leid, die eine performantere CPU besitzen oder sich eine Zen 3 CPU gegönnt haben?

Dass der 9900K "kaum besser" ist als ein 11400 ist unwahr. Natürlich gibt es bei Titeln die mit 6 Kernen auskommen keinen relevanten Unterschied, aber es gibt durchaus Titel die mit bis zu 10-12 Kernen gut skalieren können, und wo 8 Kerner bessere low Perzentil-FPS haben als Sechskerner der nachfolgenden Gen wo sich bei Intel bis auf Anhebung der PLs und dem Backport nicht viel getan hat. Das ist diesselbe Geschichte wie damals mit Duo- und Quadcores, am Anfang gab es auch nicht genug Software die es nutzen konnte, mittlerweile ist es ein Standard.

Überdies gibt es Menschen die ihren PC nicht nur fürs Spielen betreiben, sobald es ins Produktive geht sieht der 11400 kein Land gegenüber dem 9900K, ob man jetzt Videoediting, Rendering oder Kompilierung betreibt.

Als Beispiel der GN Test bei Blender, wo der 9900K fast 30% schneller ist, als der 11400:

Blender 2.92.png

Bei Kompilierung sind es dann 22% mehr Performance von einem 9900K auf Stock gegenüber dem 11400 auf Stock.

Chromium Compile.png

Was den Vebrauch und die angeblich bessere Effizienz des 11400 im Vergleich zu dem 9900K angeht - die CPU hat 2 Kerne weniger die versorgt werden müssen, warum sollte es denn wundern wenn der 11400 weniger Strom verbraucht?

Wenn man sich dann die tatsächlichen Zahlen beim Verbrauch ansieht, stellt man schnell fest dass ein 9900K auf Stock ziemlich genügsam ist. Bei einem Blender Lauf mit hoher Mehrkernauslastung auf Stock zieht er nämlich 93,6 Watt, während der 11400 auf Stock 68 Watt zieht.

Blender Power Consumption.png

Also braucht der 11400 bei dem Blender Test von Gamersnexus 27% weniger Strom als der 9900K, liefert dafür aber auch rund 30% weniger Performance bzw braucht 30% länger Zeit um dieselbe Aufgabe abzuschliessen - in der reellen Welt, wo weniger Zeit für erledigte Arbeit durchaus relevant ist. Da kann man auch nicht sagen, der 11400 mit bis zu 30% weniger Leistung und 27% kleinerem Stromverbrauch als der 9900K sei effizienter.

Und dass der 9900K "ans Limit geprügelt wurde" trifft genauso wenig zu. Man kann die CPU sehr gut auf 5.1 GHz und mehr Allcore übertakten, was in Spielen für keinen großen Anstieg an Verbrauch sorgt, aber gar nicht möglich wäre wenn die CPU "am Limit geprügelt" wäre. Die Existenz von dem 9900KS mit noch besserer Übertaktbarkeit widerlegt diese Behauptung ebenfalls.

Erzherzog schrieb:
Es bringt einem nichts ältere Enthusiast Hardware zu betreiben, wenn genau hin schaust ist die nach 1-2 Jahren meist eh ersetzt. Daher bin ich da raus, da es einfach sich etwas vormachen ist.

Dem kann ich mich auch nicht anschließen. Wenn du alle 2 Jahre Geld für neue Hardware ausgeben möchtest mitsamt Platformwechsel, kannst du es ja gerne tun, ich persönlich sehe keinen großen Sinn darin, es gibt genügend Anwender die sich genau andersherum verhalten - lieber einmal kaufen und für das eigene Anwenderszenario für Jahre richtig.

Es gibt nicht ohne Grund Leute die noch vollkommen mit ihren älteren Systemen zufrieden sind, die Top Hardware bei Erscheinung waren, ein 7800X oder ein 6850K z.B., von den etwas neueren der 1700X/2700X mag älter sein aber noch vollkommen benutzbar und für die meisten Sachen ausreichend, auch für Gaming Szenarien - wofür ünnötigerweise Geld ausgeben und den Elektroschrott wachsen lassen?

Es gibt Menschen die betreiben ihre CPUs 5-6 Jahre oder länger, wozu ich mich auch zähle. Nur weil manche meinen jede CPU Gen mitmachen zu müssen, heißt es nicht dass es alle tun müssen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MegaDriver
Klever schrieb:
Ein 5800X zieht unter Blender auf Stock mehr Strom, als ein 9900K auf Stock
Das größte Problem an dieser Aussage ist, dass es bei Intel Stock und "Stock" gibt.

Das erste ist die Intel-Spec, die beim 9900K als Limits 95W/119W/28s vorsieht. Diese Werte sieht man aber quasi nur bei OEM-Fertig-PCs mit dem Prozessor. Auf einem Retail-Mainboard läuft der Prozessor meist ab Werk unlimitiert und verbraucht dann dauerhaft über 200W, wenn man die entsprechenden Lasten fährt. Beim 11900K sind es dann über 300W. Der Käufer muss hier selbst aktiv werden, und die Limits forcieren.

Beim Ryzen kommen hingegen alle Boards mit deaktiviertem PBO beim Käufer an, und dann verbrauchen die Prozessoren maximal 142W.
 
Nixdorf schrieb:
Das größte Problem an dieser Aussage ist, dass es bei Intel Stock und "Stock" gibt.
Wenn beide Prozessoren so wie es in dem Fall bei dem GN Test auf Stock betrieben und getestet werden, gibt es da auch kein Problem. Da wird sowohl der 5800X auf Stock wie auch der 9900K auf Stock auf ihre Leistung und Stromverbrauch getestet. Und da zieht ein 5800X 127 Watt, während der 9900K 93,6 Watt in Blender auf Stock zieht. Multicore Leistung steht ja auch da, die natürlich bei einem 5800X besser ist.

Dass ein 9900K auf einem Retail Board 200 Watt "dauerhaft" verbraucht, stimmt einfach nicht. Spiele sind kein Prime95, auch wenn manche meinen das sei dasselbe. Selbst mit starker AVX Last bei Spielen wie Battlefield V übersteigt ein 9900K unlimitiert nicht mal 120 Watt bei Standard Allcore Turbo, der durchschnittliche Verbrauch befindet sich so bei 70-80 Watt je nach Spiel, was meilenweit von den angeblichen 200 Watt entfernt ist.
 
Zuletzt bearbeitet:
Klever schrieb:
während der 9900K 93,6 Watt in Blender auf Stock zieht.
Klar, da setzt ja auch nach 28 Sekunden PL1 ein. Einfach Board kaufen, CPU drauf, einschalten führt aber in den meisten Fällen eben nicht zu diesem Wert. Das 95W-Limit gibt es meist nur, wenn man es im UEFI aktiviert. Das ist dann nüchtern betrachtet äquivalent zum Aktivieren des Eco-Modes bei AMD.

Wenn man also nach der Logik der derzeitigen Intel-Marktsituation im Retail-Markt geht, dann könnte AMD eigentlich den 5800X auch genau so mit 142W PPT verkaufen wie jetzt, aber trotzdem 88W auf die Packung schreiben.

Klever schrieb:
Dass ein 9900K auf einem Retail Board 200 Watt "dauerhaft" verbraucht, stimmt einfach nicht.
Das hab ich nie behauptet. Die Formulierung ist "verbraucht dann dauerhaft über 200W, wenn man die entsprechenden Lasten fährt". Dass die Prozessoren in Spielen vergleichsweise genügsam bleiben, wird nicht bestritten. Aber es gibt auch andere reale Lasten mit dauerhaft hohem Verbrauch. Dazu gehören zum Beispiel Blender und HandBrake, wo ein unlimitierter 9900K ganz regulär an der 180W-Grenze kratzen kann. Und in optimierten AVX-Lasten (und ja, auch die gibt es real und nicht nur bei Prime) fällt dann die 200W-Marke.
Ergänzung ()

Kleiner Exkurs: Beim 9900K funktioniert das mit dem Limit noch ganz wunderbar. In Blender braucht er hier bei ComputerBase dann 9% länger. Beim 10400F als Sechskerner mit 65W-Limit funktioniert es auch noch gut, der braucht 7% länger. Erst mit Rocket Lake werden die Limits zu einem großen Problem, weil das breite Cove-Design eigentlich nie für 14nm gedacht war. Der 11400F braucht mit Limit 27% länger, was dann doch arg schmerzt. Beim 11700 sind es schließlich 44% und es wird klar, dass 65W und acht Cove-Kerne auf 14nm einfach nicht passen. Besserung wird erst Alder Lake auf 10nm bringen.
 
Nixdorf schrieb:
Klar, da setzt ja auch nach 28 Sekunden PL1 ein. Einfach Board kaufen, CPU drauf, einschalten führt aber in den meisten Fällen eben nicht zu diesem Wert. Das 95W-Limit gibt es meist nur, wenn man es im UEFI aktiviert. Das ist dann nüchtern betrachtet äquivalent zum Aktivieren des Eco-Modes bei AMD.

Das handhaben diverse MB Hersteller unterschiedlich, wobei laut Steve Burke das immerhin mit den neueren Mainboard-Modellen und BIOS-Updates besser geworden ist. Jedenfalls war bei meinem UEFI nach dem Update was ich letzlich durchführte XMP und MCE standardmäßig deaktiviert. Es ändert sich, und letztlich sind die MB Specs auch nicht das Problem von Intel.

Was bleibt ist aber dass auf Stock der 9900K weniger Strom zieht, als der 5800X auf Stock. Was dann nicht Stock ist, ist eine andere Sache, den 5800X kann man auch übertakten und noch mehr Strom als auf Stock verbrauchen lassen. Es ging in der Frage auch hauptsächlich um den Verbrauch eines 11400 im Vergleich zu dem 9900K auf Stock und dass ein neuerer Prozessor auf Stock noch mehr Strom zieht, warum dann einem die Käufer leid tun sollen erschließt sich mir dabei nicht.

Ich sehe keine Effizienzunterschiede bei einem Sechskerner (genauso wie bei dem 9900K können ja auch bei einem 11400 die PL überdies angehoben werden) der auf Stock einen 27% kleineren Stromverbrauch hat als ein 9900K auf Stock und dafür 30% weniger Multicore Leistung aufweist, ebenfalls mit den Stockwerten.

Nixdorf schrieb:
Das hab ich nie behauptet. Die Formulierung ist "verbraucht dann dauerhaft über 200W, wenn man die entsprechenden Lasten fährt". Dass die Prozessoren in Spielen vergleichsweise genügsam bleiben, wird nicht bestritten. Aber es gibt auch andere reale Lasten mit dauerhaft hohem Verbrauch. Dazu gehören zum Beispiel Blender und HandBrake, wo ein unlimitierter 9900K ganz regulär an der 180W-Grenze kratzen kann.

Selbst in einem POV Ray Rendering Run was auch AVX nutzt verbraucht ein 9900K unlimitiert keine 180 Watt, geschweige schon 200.

fgs.png

Nixdorf schrieb:
Und in optimierten AVX-Lasten (und ja, auch die gibt es real und nicht nur bei Prime) fällt dann die 200W-Marke.

Komisch, in den Tests verbraucht ein unlimitierter 9900K mit dem 4.7 GHz Standard Allcore Boost gerade bei Prime 200 Watt. Und ich bezweifle dass es viele Programme gibt die den PC mit derselben Last dauerhaft und täglich belasten wie Prime95 in einem Torture Loop.
 
Zuletzt bearbeitet:
Klever schrieb:
wobei laut Steve Burke das immerhin mit den neueren Mainboard-Modellen und BIOS-Updates besser geworden ist.
Das ist eine gute Entwicklung. Offenbar hilft es doch, dass einige Publikationen das immer wieder anprangern. Gerade bei den 65W-SKUs empfand ich es fast schon als Sachmangel, wenn das Board die dann ab Werk genau so viel verbrauchen lässt wie das 95W-Modell (z.B. 8700 vs 8700K).

Klever schrieb:
Selbst in einem POV Ray Rendering Run was auch AVX nutzt verbraucht ein 9900K unlimitiert keine 180 Watt, geschweige schon 200.
Ugh, sorry. Meine Antwort war erst länger und enthielt zu Beginn auch einen Disclaimer, dass das Angaben zum Idle-Last-Delta sind (also inkl. VRM und Netzteil). Das erklärt die Abweichung von 12W. Vielfach wird ja das Gesamtsystem gemessen und nicht die Package Power. Mir ging es auch weniger um die 200W als magische Zahl, sondern darum, dass die 80W in Spielen eben nicht das komplette Bild sind. Zumindest Videokonvertierung (z.B. mit HandBrake) ist eine sehr weit verbreitet genutzte Anwendung.
 
Nixdorf schrieb:
Das ist eine gute Entwicklung. Offenbar hilft es doch, dass einige Publikationen das immer wieder anprangern. Gerade bei den 65W-SKUs empfand ich es fast schon als Sachmangel, wenn das Board die dann ab Werk genau so viel verbrauchen lässt wie das 95W-Modell (z.B. 8700 vs 8700K).


Ugh, sorry. Meine Antwort war erst länger und enthielt zu Beginn auch einen Disclaimer, dass das Angaben zum Idle-Last-Delta sind (also inkl. VRM und Netzteil). Das erklärt die Abweichung von 12W. Vielfach wird ja das Gesamtsystem gemessen und nicht die Package Power. Mir ging es auch weniger um die 200W als magische Zahl, sondern darum, dass die 80W in Spielen eben nicht das komplette Bild sind. Zumindest Videokonvertierung (z.B. mit HandBrake) ist eine sehr weit verbreitet genutzte Anwendung.
Im großen und ganzen hast du aber schon recht.
Jeder der schon Coffee oder Comet Lake hatte weiß das die unter Vollast echt saufen, grade wenn man nen "Gurkenchip" hat wird es ziemlich heftig.

Ansich ist das beim Gaming Wurst weil die meisten Game's nur eine geringe Vollast aufweisen, ziehen die da eigtl. nicht sehr viel.
Allerdings bei Games wie BF5 sieht das halt schon anders aus oder grade das entpacken der Texturen, das ist dann echt Vollast so mal zwischendurch.
Das ist auch der Grund wieso ich nur 5,1Ghz fahre selbst mit Perle, weil ich quasi ohne 1FPS mehr zu haben mit 5,3Ghz nur sinnlos mehr Strom ziehe und das ist ne wenig.

Nur wenige Boards halten sich an die TDP oder man wird quasi im Bios gefragt mit oder ohne.
Ohne Leistungsbegrenzung überfordert das auf jeden Fall schon einige CPU Kühler.
 
Zuletzt bearbeitet:
PhoenixMDA schrieb:
Jeder der schon Coffee oder Comet Lake hatte weiß das die unter Vollast echt saufen, grade wenn man nen "Gurkenchip" hat wird es ziemlich heftig.

Das aber wenn man beträchtliches OC betreibt. Rendering Vollast auf Standard Allcore von 4.7 GHz habe ich oben ja verlinkt, 168 Watt bei einem Rendering Programm mit AVX Belastung wie POV Ray, unlimitiert. Mit Stock Betrieb wird 95W TDP eingehalten.

PhoenixMDA schrieb:
Allerdings bei Games wie BF5 sieht das halt schon anders aus oder grade das entpacken der Texturen, das ist dann echt Vollast so mal zwischendurch.

Battlefield V ist ja auch ein sehr CPU-lastiges Spiel mit ausgiebiger Nutzung von AVX, was selbst bei Cyberpunk das mit Kernen gut skaliert nicht vorkommt. Mein 9900K zieht bei Bf V um die 110-120 Watt, mitsamt XMP und offenen PLs mit 4.7 GHz, was für mich vollkommen in Ordnung ist. Cyberpunk läuft auf einem 9900K da niedriger, mit 70-80 Watt. Von der Kühlung passt es mir auch ganz gut, mit ca 75 Grad max bei Battlefield V im Sommer.

Die Coffeelakes und Cometlakes sind innerhalb ihrer Standard Boost-Taktrange meist genügsamer als es die Berichte über Prime95 Runs einen glauben lassen.
 
Zuletzt bearbeitet:
@Klever
Hängt von der Güte deines Chips ab und wie gut der gekühlt wird.
Ich hatte einen 9900k also das war ne richtig böse Gurke, ohne Leistungsbegrenzung wäre der nicht mit 200W Vollast hingekommen, der ist @Stock selbst unter Wakü 95° heiß geworden.

Im Gegensatz dazu sieht mein 10900k weniger als dein 9900k und das trotzdem er 2Kerne mehr hat.

Trotzdem sind es ja sehr gute Gaming CPU, die ne Top Leistung und Frametime liefern.
Es sind halt keine Energiesparwunder, dafür kannst du die Teile aber so heftig runterkühlen, daß sie quasi nur Handwarm werden^^.
Bei entsprechender Wakü.
 
Dass ein 9900K auch noch unter einer Wakü im Alltag 95 Grad heiß wird, ist aber eigentlich nicht normal. Da hatte entweder der Heatspreader der CPU einen Defekt oder irgendwas mit der Wakü würde nicht stimmen, aber dass ein 9900K so heiß wird kann eigentlich nur unter Prime mit dauerhaftem Torture Loop vorkommen falls kein Defekt vorliegt aber nicht in Spielszenarien.

Ein nicht über dem Allcore Boost-Takt übertakteter und unlimitierter 9900K wird keine 200 Watt selbst bei anspruchsvollen Anwenderszenarien ziehen, geschweige schon Gaming. Es sei denn, Prime95 läuft öfter als Spiele. ;) Oder man betreibt OC bis zum letzten MHz, wo auf die CPU mit LLC 6-7 auch noch mit 1.35 V beträchtliche Spannungsovershootings einwirken, die die CPU zusätzlich aufheizen. Sollte man deswegen auch lieber von Hand einstellen, mit besser weniger LLC als zu viel.

Und ja es hängt auch von der Güte des Chips ab, was sich dann bei OC mehr auswirkt. Meiner brauchst unter BfV so um die 1.180-1.210 v mit einem 4.7 GHz Takt mit eingestelltem Offset mit niedrigster LLC-Stufe und minimalem OC von 4400 MHz Uncore. Da bleibt die Temperatur beim Spielen unter BfV sogar unter 70 und geht kurzfristig höher bei Map Wechsel, wohl Battlefield spezifisch.

Der 9900K braucht da meiner Erfahrung nach keine Custom Wakü oder eine 280/360er AiO um in Lastszenarien gut gekühlt zu werden, jedenfalls nicht mit dem Standard Boost Takt mit offenen PLs, da ist temperaturtechnisch mit nur einer 240er AiO auch noch Luft für etwas OC drin.
 
Zuletzt bearbeitet:
Zurück
Oben