Test Intel Core i9-14900KS im Test: Die beste Special Edition der 14. Generation Core

Oldtimer schrieb:
6,2 GHz sind ja auch eine Ansage bzw. Wert, der beeindruckend ist.
Mich irritiert nur, das der Basistakt der CPU bei nur 3,2 GHz liegt. Das empfinde ich als recht wenig.
Mein 7950x hat einen Basistakt von 4,5 GHz und maximal 5,2 GHz allcore. Das klafft nicht so weit auseinander.
Braucht dich nicht irritieren oder sonst irgendwie Belasten.
Denn: Der Basistakt einer modernen, aktuellen CPU bzw. die Angabe eines Basistaktes ist in etwa genauso wichtig wie die Leerlaufdrehzahl eines Autos, nämlich überhaupt nicht.
Egal wie das Nutzerprofil aussieht, der Basistakt wird kaum bis gar nicht anliegen. Und sorry für den Autovergleich.
 
supermanlovers schrieb:
@Bügelbernd
An welches denkst du? Ich hatte bisher kein Spiel in dem sich meine übertaktete 4090 gelangweilt hat weil mein übertakteter 13900k am Limit war.

Ich passe meinen Text aber gerne an zu "alle für mich relevanten Spiele".

X4 Foundations, Total War serie, oxygen not included und anderes zeug was man gar nicht erst auf die Konsole bringt weil die cpu zu schwach ist. Oder man bringt das Zeug auf die Konsole und es ruckelt.
 
Celticon schrieb:
Denn: Der Basistakt einer modernen, aktuellen CPU bzw. die Angabe eines Basistaktes ist in etwa genauso wichtig wie die Leerlaufdrehzahl eines Autos, nämlich überhaupt nicht.
Egal wie das Nutzerprofil aussieht, der Basistakt wird kaum bis gar nicht anliegen. Und sorry für den Autovergleich.
Kein Problem mit dem Vergleich.
Aber: Es gibt Anwendungen, in denen der Basistakt eine Bedeutung (für mich) spielen.
Als Beispiel möchte ich dir das sog. Verteilte Rechnen anführen.
Dort gilt nicht unbedingt die Abfrage der maximalen Leistung wie bei einem Spiel oder Bild- oder Videoverarbeitung etc. Allgemein gilt bei einem Prozessor die Regel „Je schneller, desto Strom."
Wenn ich also bei einem 16-Kerner auf 32 Threads Höchstleistung anfordere, stände das Kosten-Leistungsprinzip in einem falschen Verhältnis zueinander. Bei einem 24/7 Betrieb wären die Kosten einfach zu hoch und der Hardware würden die permanenten recht hohen Temperaturen im Dauerbetrieb auch nicht gut bekommen.
An der Stelle kommt bei mir der Basistakt ins Spiel. Bei 4,5 GHz Allcore hält sich der Stromverbrauch in Grenzen und die Temperaturen in unbedenklichen Bereichen, sodass man den Rechner ohne weiteres unbeaufsichtigt laufen lassen kann.

BTW: ich habe zwei 7950x in der Garage, äh im Büro stehen.
 
Zwirbelkatz schrieb:
Gleiches gilt übrigens für die RTX4090. Wird sie richtig gefordert, zieht sie über 400w. Selbst wenn sie, je nach Titel, bei 144 Frames, nur 250w brauchen kann, ist dies nicht die ganze Wahrheit. Viele Leute reden sich Teillastszenarien schön.

Netzteil und Peripherie sollten trotzdem den maximalen Verbrauch verkraften können.
(Ja, mir ist bewusst, dass es Undervolting und Powerlimits gibt)
Selbst schuld wer seine 4090 so betreibt. Meine Zeit unter volllast (4K + RT) nicht über 250W. Dabei habe ich etwa 5% Performanceverlust ggü out of the box. Das Kühlsystem der FE schafft die 250W easy bei 15% lüfterdrehzahl. Der Rechner bleibt de facto lautlos. Und das bei high end Leistung.
Alles unter Luft.

Der 14900KS hier ist halt für Enthusiasten, Sammler und Bastler. Vernunft aus und einfach gib ihm.
Da hab ich auch nichts gegen und fände so ne hart selektierte all in Version von amd auch nicht verkehrt. Man darf es aber auch nicht als was anderes sehen.
Für Otto normal ist die CPU Mist. Zu teuer, zu hungrig, zu wenig Mehrperfomance. Das lohnt alles nicht, rational gesehen.
Aber so what ?
Das Geld wird mit der Mittelklasse gemacht.
Mit 14600k &14700k hat Intel brauchbare Produkte die im Gegensatz zum 14900ks nicht CRINGE rufen.
Tote Platform, aber interessiert nicht jeden. Daher gute Alternative.
Mal gucken was jetzt kommt wenn Intel auch anfängt CPUs zu kleben. Kann nur besser werden
Ergänzung ()

Oldtimer schrieb:
Dann trittst du aber auch schon gewaltig auf die Bremse! Die 4090 ist mit 450 Watt angegeben und die nimmt sie sich auch bei entsprechendem Monitor und Einstellungen. Dass sie bei einem 1080p Monitor und Textverarbeitung einschläft, ist klar.
Ich kann dir nur meinen Leserartikel empfehlen. Hier zeigt sich was passier wenn man einer 4090 auf Effizienz trimmt :)

Wie man seine GPU optimal betreibt

TLDR:
Lässt man 70% PT (ca 270W Boardpower) zu und reizt die Takt/Spannungskurve etwas aus, verliert man etwa 5% ggü. 100%PT

Umgekehrt bringt mehr TDP und Takt kaum Mehrleistung (wie hier beim Intel ). Fährt man das schwere 600W BIOS und taktet am Limit gewinnt man etwa 5-10% ggü. Stock.

Ergo stehen zwischen Brechstange und Effizienzgesteigerter Optimierung etwa 15% Leistungsdifferenz über 100% Verbrauchsdifferenz. Das muss man schon wollen.

man kann sie auch abwürgen. Das passiert bei unter 50%PT. Da leidet dann die Effizienz drunter und die Leistung fällt überproportional ab. Mit 30% PT bleibt die Karte vllt passiv ist aber langsamer als eine 4060. hat man wenig gewonnen 😅
 
Zuletzt bearbeitet:
iron_monkey schrieb:
@FX/OCmaster

Also doch nur Geschwafel...



Aus dem Test den du gepostet hast...



Sieht richtig mies aus, vor allem für das Intel Setup, wenn man die Anschaffungskosten einbezieht.

Des Weiteren bist du uns immer noch einen Screenshot deiner Intel CPU mit DDR 8000 aufwärts schuldig!

Hier hast mal was zu lesen, damit du nicht unwissend bleibst und dich in Zukunft nicht wieder mit solchem Geschwafel unglaubwürdig machst.

Wenn man manchmal das Geschwafel einiger Fanboys liest, könnte man auf die Idee kommen, dass die CPU Hersteller einfach nur dämlich sind, weil sie ihre CPUs so schlecht konfiguriert auf den Markt werfen.
und was ist daran so schlimm das der 12900K mal schnell war ? is doch ega lwas die cpu mal konnte, schließlich gibts jetzt 13900k und 14900k usw....



naja, 14900k system is nich wirklich teurer, 100-200€ mehr oder wovon redest du jetzt ? , richtig mies beim 4000€ pc nochmal 200€ mehr auzugebe nalso, ich glaube du schwafelst hier sinnlos rum, warum bin ich ein screenshot schuldig ??? und warum mit meiner ???? hab ich das gesagt das ich so etwas verbvaut habe ? nein


also ist pcgh unglaubwürdig ? ahja.... ja sagte der amd fanboy hhahahahaha


und was hat jetzt der 13900k mit dem 14900k zu tun ?



achso, jetzt erst dein
"Hau mal raus deine Benches mit mehreren 12900K und den krassen RAM-Settings die sie ALLE schaffen aber vergiss nicht den Zettel mit deinem Nick am Monitor. "
gesehen,

wozu mehrere 12900k´s wenn ein 14900k kann?

Zettel mit meinem nick am Monitor ??? wozu soll ich das machen ? es gibt doch bereits test´s dazu....

du glaubst mir doch sowisao nicht wenn du dich schon als amd fanboy ausgibst...
Ergänzung ()

0ssi schrieb:

Das ist FHD also CPU Limit ... in WQHD noch geringere Unterschiede in UHD bzw. im GPU Limit
fast kein Unterschied mehr und selbst wenn 50 vs. 100 Watt ist es egal bei 300 Watt GPU Power
und wenn das "AMD System" im 2D Betrieb 50 Watt mehr zieht dann hat man eh Nichts gespart.
amd fanboys müssen halt irgend ein müll raus hauen um zu protzen haha
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Infi88

iNFECTED_pHILZ schrieb:
Selbst schuld wer seine 4090 so betreibt.

Ich habe ja auch geschrieben, wenn man eine 4090 lässt, wie sie kann, nimmt sie sich die 450 Watt.
Bei mir wird sie ebenfalls gebremst, wenn auch mit anderen Mitteln, wie du sie einsetzt.
Es führen ja bekanntlich viele Wege nach Rom...
 
Zuletzt bearbeitet von einem Moderator:
Verstehe nicht warum immer solche utopischen Verlustleistingen getestet werden.
Wenn man sich nicht an den von Intel angegebenen Wert von max 253 W hält. braucht man sich nicht über sinkende Leistungswerte durch Turboalterung wundern.
Extrem OC mit LN2 oder fl. Helium mal ausgenommen.
Aber aufgrund der Lötverbindung mit dem IHS
ist auch eine 360er Wakü nicht in der Lage die
kurzzeitigen Temp. Spitzen bei synthetischen
Vollast Szenarien zu vermeiden.
Weder der 13900ks noch 14900ks sind dazu
gemacht worden stundenlang Allcore mit 6,0
oder 6,3 Ghz zu laufen.
Kommt doch mal alle bischen runter.
Das Intel das erlaubt, finde ich auch etwas
daneben.
 
  • Gefällt mir
Reaktionen: Infi88
Xedos99 schrieb:
Verstehe nicht warum immer solche utopischen Verlustleistingen getestet werden.
Wenn man sich nicht an den von Intel angegebenen Wert von max 253 W hält. braucht man sich nicht über sinkende Leistungswerte durch Turboalterung wundern.
Weil Intel selber im Reviewers Guide für die CPU den Test mit höheren Limits vorsieht.
1710771454066.png


Und wenn man den KS nur mit PL1 auf 253W limitiert testet, kann man sich den Test eigentlich auch sparen, weil dann der Performanceunterschied zum K wahrscheinlich in den Bereich der Messgenauigkeit fällt. Der KS zeigt sein potentielles Leistungsplus gegenüber dem K also erst mit höheren Limits (oder unlimitiert), also setzt man im Test die Limits auch so, dass das die potentielle Mehrleistung sichtbar wird.
 
  • Gefällt mir
Reaktionen: Miuwa
307A und 253W sind auch bei anderen K CPUs Intel Standardwerte :rolleyes:.

Es gibt auch kein "unlimitiert" bei Intel, 4096Watt und 512A sind maximal Werte der Boardpartner.
Sachlich gesehen gibt es keinen Grund für diese "unlocked" oder "unlimitiert" Testweise, außer halt den AMD Justus zu bespaßen.

Speziell "unlimited" Cinebench Multithread Werte zeigen eben genau das Gegenteil und führen zu solchen Fehlinterpretationen.
Der KS throttelt eben evtl. sogar früher als seine K oder non K Geschwister und kann sein kleines/minimales Leistungsplus durch besseres binning eben nicht ausschöpfen unter extremer Volllast.

Weniger ist mehr trifft also bei dem KS auch zu, nur wer tatsächlich die Kerntemperaturen drücken kann und entsprechende Kühllösungen hat kann vielleicht von sehr hohen bzw. "unlimitierten" Power Limits überhaupt profitieren, daher empfiehlt Intel eben auch solche.
 
Zurück
Oben