News Intel Core i7-14700K: Für bis zu 21 % mehr Leistung benötigt man 13 % mehr Energie

Riiimz schrieb:
Intel packt mal wieder die Brechstange aus, lächerlich!
Lächerlich finde Ich immer diese Aussagen und dann ne 3090 oder 4090 im System haben.
 
  • Gefällt mir
Reaktionen: Bulletchief, Clany, EntelodonX und 14 andere
0ssi schrieb:
Wenn bei Gen15 15600K 8 P-Cores, 15700K 12 P-Cores und 15900K 16 P-Cores
dann sitzt du da mit deiner "8 P-Core Gurke" also die Gen kannst du weglassen.

Da der Rechner eh nur fürs Gaming genutzt wird, reichen 8 P-Cores absolut aus.
Denn die Konsolen nutzen sowieso nicht so viele Kerne.
Den Fehler hatte ich mit meinem 10850K schon gemacht.
 
  • Gefällt mir
Reaktionen: CableGuy82
Huhu,

mein 5800x reicht mir für das was ich aktuell mach, ganz locker. Wozu Geld aus dem Fenster werfen.

LG
 
  • Gefällt mir
Reaktionen: Zik0815 und Klever
HyperSnap schrieb:
... und dann ne 3090 oder 4090 im System haben.
zwischen 3090 (vor allem 3090Ti) und 4090 liegen aus Effizienz Sicht: Welten ... Galaxien ... Universen. :heilig:
 
  • Gefällt mir
Reaktionen: Harpenerkkk, Bulletchief, suessi22 und 13 andere
Die Steigerung bei gleichem Verbrauch ist halt ‚lächerlich‘ gering. Das überzeugt den Enthusiasten nicht nach 1-2 Jahren aufzurüsten. Damit man wenigstens in den unteren zweistelligen Bereich kommt, muss halt mehr Saft drauf. Geworben wird schließlich nur mit dem Mehr an Leistung und nicht mit dem Mehr an Verbrauch. Da nutzt man lieber die gesteigerte Effizienz für die Werbetrommel
 
RogueSix schrieb:
Insofern ist diese affektierte "OMG DER STROMVERBRAUCH WIRD UNS ALLE TÖTEN!!!!1111" Panik etwas übertrieben ;) .
Haste Recht. Ich bastel zwar gerne, mir ist das Feintuning aber mittlerweile zu aufwendig. Ich will Hardware, die möglichst effizient ist, ohne dass ich viel einstellen muss. Das ist bei 14900K und 4090 eben nicht der Fall. Wenn ich mich nicht damit beschäftige, heizen die meine Hütte unnötig auf. Deshalb lautet meine persönliche Lösung: Hardware verbauen, die einfach nicht so viel verbraucht. Mal davon abgesehen, dass ich für den Preis einer 4090 lieber eine Woche in London verbringe, habe ich mehr davon. 😁
 
  • Gefällt mir
Reaktionen: Harpenerkkk, Nebula123, Sherman789 und eine weitere Person
Wer die Prozessoren im Normalbetrieb nutzt, wird vermutlich bei Intel einen gleichwertigen oder sogar geringeren Verbrauch erhalten.
Das Undervolting sollte auch beim 14700k gängige Praxis sein. Und wie viele %+ man mit diesem Szenario erhält, wird sich zeigen.
Letztlich liefern die modernen Prozessoren für die meisten User Anwendungen deutlich mehr als genug Leistung. Da muss man es schon drauf anlegen, um konstant 80%+ Auslastung zu fahren.

RogueSix schrieb:
Niemand "spielt" den ganzen Tag Cinebench oder Prime95 oder bei den GPUs FurMark oder so ein Zeug. Insofern ist diese affektierte "OMG DER STROMVERBRAUCH WIRD UNS ALLE TÖTEN!!!!1111" Panik etwas übertrieben ;) .

Das stimmt. Diese Messwerte, ob nun potenzielle FPS auf 720P oder Verbräuche bei maximaler Auslastung sind entweder theoretische Natur à la nice to know oder treffen nur auf einen kleinen Teil der Anwendergruppe zu, die dann wohl sowieso mit anderen Hardware Specs plant. :)

RogueSix schrieb:
Entgegen aller Unkenrufe von wegen BOOOOAAAHHHH 600W KERNSCHMELZE!!!11 ist die RTX 4090 meine bisher leiseste und effizienteste Grafikkarte.
Die Performance ist brachial und der PC bleibt flüsterleise. Das ist echt der Hammer.

Zweifelsohne ist die 4090 ein Schritt nach vorne, was Performanz und Effizienz angeht. Die Vorgänger Generation hat sich da nicht so hervorheben können. Ich bin mal auf den Schritt zur 5000er Generation gespannt.

Eine Frage, die mich umtreibt ist: Im Vergleich zu anderen Generationen, wo etwa die 3080 (Ti) oder andere Karten eine sinvolle Alternative waren, haben sich vergleichsweise sehr viele eine 4090 gekauft. Sicher hat das NVIDIA gefallen und ihre Strategie ist aufgegangen.
Ich würde meinen, das die meisten Nutzer von der Leistung her vermutlich nicht die 4090 gebraucht hätten. Und nur ein Teil reizt diese Karte wirklich aus.
Jetzt kann man argumentieren, dass diese Karte einem auch in den nächsten Jahren ruhe verschafft und bei NVIDIA sind Zweifel angebracht, dass man mit der 4000er Mitelklasse das gleiche behaupten darf.
Hätte es bei dir die Leistung der 4090 sein müssen oder hätte auch weniger ausgereicht?
Mich interessiert das mal, weil ich jemand bin, der kein Problem damit hat, die Settings runterzustellen, um Strom zu sparen. Von daher habe ich mich für eine 4070 entschieden, obwohl ich zeitweise auch mit einer 4090 geliebäugelt habe, diese aber völlig overkill gewesen wäre.
 
  • Gefällt mir
Reaktionen: Zik0815 und Klever
Gen14 war doch eigentlich auch gar nicht so geplant auf der Roadmap oder?
Ist doch im Endeffekt nur eine umgelabelte Gen13 weil man scheinbar mit der neuen Fertigung für eine richtige "neue" CPU nicht soweit ist aber trotzdem was ins Regal stellen will fürs Weihnachtsgeschäft?

Aber eine größere Auswahl, vor allem neue Optionen bei P + E Cores kann für den Endkunden ja nicht schaden.
Man muss ja zum Glück nicht jede Gen mitnehmen. ;)

Wobei so ein 14700k als Austausch für mein 12900k schon interessant wäre... aber ich warte denke trotzdem noch was, aktuell drückt der CPU Schuh nicht.
 
Aduasen schrieb:
Den Fehler hatte ich mit meinem 10850K schon gemacht.
Da hätte tatsächlich ein 10700K(F) ausgereicht aber es gibt doch bereits viele Spiele
die mit 10, 12 und 16 Kernen Skalieren also zum Ende der 8 Kern Ära 8 Kerne kaufen,
klingt nicht besser als zu früh mehr als 8 Kerne zu kaufen. Intel gehört boykottiert. :evillol:
 
Voldemordt schrieb:
Huhu,

mein 5800x reicht mir für das was ich aktuell mach, ganz locker. Wozu Geld aus dem Fenster werfen.

LG
Hätte Intel das nur gewusst, dann hätten die sich die Vorstellung sparen können.
 
  • Gefällt mir
Reaktionen: Bulletchief, Veitograf, Captain Mumpitz und 7 andere
ddoren schrieb:
... sicherlich uninteressant. Aber ich z.b. will von einem 7 Jahre Alten system mit einer 1070Ti und einem AMD Ryzen 7 1800X Eight-Core auf ein neues aktuelles Wechseln.
je nachdem was du mit dem Rechner vorhast (Zocken?) und ob dein Board "es" kann, ist die Frage auf was du upgradest zumindest bei der CPU nicht minder uninteressant. -> 5800x3D. Und selbst wenn es nicht ums Zocken gehen sollte (und natürlich das Board es hergibt), ist Zen3 immer noch eine sehr interessante Wahl, einfach weil du für vergleichsweise geringe Anschaffungskosten (~180 bis 440€) 8 bis 16 Kerne bekommst, die im Vergleich zu deiner bisherigen CPU alles wegledern und, auch wenn Zen3 natürlich nicht mehr das neueste vom neuen und aller schnellste ist, dir dennoch 3 bis 5 Jahre Zeit vor einer kompletten Neuanschaffung besorgen / dem ganz tiefen Griff in die Geldbörse.
Und wie die Klischee-Schotten schon immer sagen: Geld nicht auszugeben, ist die allerbeste Art, Geld zu sparen ;)
 
  • Gefällt mir
Reaktionen: Zik0815, Anon-525334, MiroPoch und eine weitere Person
Hm kein Sockel 1700v2 ?

Hat Intel Tick Tock verschlafen?
 
  • Gefällt mir
Reaktionen: Lord B.
Mit Brechstange hat das hier überhaupt nichts zu tun. Davon redet man, wenn die Leistungsaufnahme überproportional zur Performance steigt. Wenn man also 10% mehr Performance erreichen wollte um an die Spitze zu kommen, und dafür aber in Kauf nimmt dass diese 10% dann z.B. 30% mehr Leistungsaufnahme bedeuten.

Hier jedoch, ist die Performancesteigerung signifikant größer als die gesteigerte Leistungsaufnahme. Das ist also keine Brechstange, sondern Effizienzsteigerung. Dreht man das Powerlimit auf den Wert der Vorgängergeneration, bleibt ein deutliches Leistungsplus.
 
  • Gefällt mir
Reaktionen: MrHeisenberg, Bhaal3010, Faultier und 2 andere
Tja mit dem Verbrauch wird man vorerst leben müssen, die Fertigungsstrukturen können nicht mehr so verkleinert werden wie früher, Transistoren sind schon länger am Minimum angelangt.

Bin schon gespannt wie sich das weiter entwickelt einfacher wird das nicht ausser man macht es komplett neu wie Apple, und geht andere Wege.
 
DJMadMax schrieb:
ich wechsel die CPUs (neben dem Netzteil ^^) mit am Seltensten in meinen PCs. In der Regel halten die zwischen 2 und 5 Jahre. Der 12600K ist nun seit ca. 1,5 Jahren im PC und wird es voraussichtlich auch noch ein paar Jahre bleiben.

Ich finde man kann die Nutzungsdauer durchaus noch verlängern, bei mir sind es nun schon 9 Jahre.
Ging aufgrund geschickter HW planung (Stichwort: das richtige Mainboard mit vielen Sockeln).

Ich habe mein E5-1650 v3 basiertes System 2014 gekauft und hin und wieder CPU und GPU geuupgraded.
Durch die vielen gut angebundenen Sockel auf meinem Supermicro Server Mainboard hatte ich auch prima Erweiterungsmöglichkeiten zB hinsichtlich weiteren USB3 Schnittstellen.

Das System performt immer noch toll und ich werde es in der Form noch bis Supportende von Win10 und vielleicht sogar noch (mit tweaks) unter Windows 11 (oder 12) weiter

HW Upgrades seit 2014:
CPU:
1. auf E5-1650v4 (wg Spectre/Meltdown, gebraucht, günstig bei eBay)
2. auf E5-1680v4, (gebraucht, günstig bei eBay)
GPU:
1. GTX 970 -> 980
2. auf RTX 2070 SUPER
3. auf RTX 4070 (benötigt nur 2 Sockel Breiten, gab mir einen "wertvollen" PCIe 3.0 x8 Sockel frei ..

Mit dem 6 und jetzt dem 8-kerner kann man unter Windows 10 noch prima aktuelle Spieletitel spielen:
X4 Foundation, CP2077, Baldurs Gate3

Bei einigen (speziellen) Audio Anwendungen merke ich, dass der höhere Basistakt des 6-kerners manchmal von Vorteil ist (damit verbundene höhere Singlethread Performance ). Aber grundsätzlich lohnt sich die Performance durch weitere 2 Kerne / 4 threads in den meisten Anwendungsfällen. Die Leistungsunterschiede sind ganz gut im gemischten Passmark Benchmark zu sehen.

Inzwischen sind ausschliesslich SSDs (Sata 6) verbaut und (mit den richtigen Lüftern) ist das Gerät auch beim Gamen flüsterleise, zudem die Temperatur der GPU so gut wie nie die 60°C überschreitet.

In meinem Raum ist es bei angeschaltetem Rechner extrem ruhig: 28 dB (!).

Solche Systeme wünschte ich mir mal von der Stange .. war doch einiges an Feinarbeit, das ganze so gut hinzubekommen.

Und die CPU ... wird gerade mal 35°C warm (Balanced) während ich das hier im Forum tippe. Tja, das waren noch Zeiten ... Für meinen Geschmack sind die CPUen heutzutage zu überzüchtet und geben zu viel Wärme ab.

Ich hoffe die nächste Intel CPU Generation wird besser, vielleicht mache ich dann auch wieder mal ein Upgrade. Von AMD hört man immer wieder mal, die hätten schlechtete Treiber.
Im Recording Bereich hört man, dass man da mit USB Controllern vom Chipset kommend eher mal Probleme hat als bei Intel. Solche Dinge schrecken mich von AMD immer noch was ab.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Holzinternet und Klever
<- Lacht in 5800X3D Eco Mode.

Dass die CPUs standardmäßig so konfiguriert sind ist einfach irrsinn. Die Leute heulen jetzt schon die Foren voll, wenn mal ein Spiel 10 Minuten Shader kompiliert und das Powerbudget solange voll ausreizt. Kaum eine Kühllösung ist dem gewachsen. Schon gar nicht leise. Zum Release von Last of Us hat man ständig Posts gelesen im Sinne von "Game is overheating my CPU, this is ridiculous, fix the game!!!"

Hier wäre ich fast schon für eine Eco Richtlinie, wo angegeben wird, wie viel Leistung die CPU bei 100W Verbrauch erreicht. Das sollte dann auch die Standardeinstellung sein. Wer mehr will kann dann ja das Powerlimit selber im UEFI anheben.

Aber mit immer höherem Verbrauch mehr Leistung zu suggerieren, obwohl das kaum jemand sinnvoll nutzen kann oder will finde ich daneben.
 
  • Gefällt mir
Reaktionen: Harpenerkkk, Schokolade, DerBandi und 6 andere
Steini1990 schrieb:
Ich frage mich wirklich wo beim Stromverbrauch bei den Consumer-CPUs einmal das Ende erreicht sein wird bevor es nur noch mit sehr viel Aufwand gekühlt werden kann. Mir scheint das da nicht mehr sehr viel Luft nach oben ist.
Das will aber niemand

Hat Intel doch mit der 13. Generation gemacht. Ein 13900T hat eine 35W TDP/PL1 und ungefähr die Leistung des 12900k mit 240W PL1

Der 13900k hat dann für "nur" 40% mehr Performance das PL1 Limit wieder auf 250W angehoben.

Und nun rate mal was die Leute kaufen? Die Leute wollen einfach einen chip and Kotzgrenze. Und wehe der taktet mal wegen Powerlimit oder Temperatur runter. Dann ist die Kühlung, das System nicht ausreichend.......

Die modernen Architekturen sind alle effizient, da sie primär mobil eingesetzt werden. Da ist der Markt größer. Aber beim Desktop will der Kunde halt das letzte bisschen Leistung rausquetschen weil er denkt er nutzt den chip sonst nicht voll aus. Wieviel der chip am Ende verbraucht bestimmst du. Alle Limits sind justierbar. Aber scheinbar will sie niemand nach unten justieren.
 
  • Gefällt mir
Reaktionen: Lord B. und thuering
catch 22 schrieb:
je nachdem was du mit dem Rechner vorhast (Zocken?) und ob dein Board "es" kann, ist die Frage auf was du upgradest zumindest bei der CPU nicht minder uninteressant. -> 5800x3D. Und selbst wenn es nicht ums Zocken gehen sollte (und natürlich das Board es hergibt), ist Zen3 immer noch eine sehr interessante Wahl, einfach weil du für vergleichsweise geringe Anschaffungskosten (~180 bis 440€) 8 bis 16 Kerne bekommst, die im Vergleich zu deiner bisherigen CPU alles wegledern und, auch wenn Zen3 natürlich nicht mehr das neueste vom neuen und aller schnellste ist, dir dennoch 3 bis 5 Jahre Zeit vor einer kompletten Neuanschaffung besorgen / dem ganz tiefen Griff in die Geldbörse.
Und wie die Klischee-Schotten schon immer sagen: Geld nicht auszugeben, ist die allerbeste Art, Geld zu sparen ;)
Es wird ein Rednersystem. Zocken ist zweitrangiog, was aber dann auch mal gemacht wird. Man will die 4090 dann auch mal im Spiel ausreizen. Auch wenn ich Grafisch eigentlich geringe Ansprüche habe beim Zocken. Spass ist wichtig.
Wenn ich nur damit Zocken wollte, dann würde ich auf alle Fälle ein Full AMD System wählen bei der aktuellen preiswahl, aber ich bin leider auf Cuda angewiesen. Also muss es eine RTX werden und da ist zum Render keine Alternative zur 4090, auch wenn ich so gar nicht auf den Preis Geil bin.
Für mich ist jetzt interessant, welche CPU rein kommt. Und da bietet mir das Refresh vielleicht nochmal eine interessante Entscheidungsperspektive. Mal sehen.
 
2023 und Intel bringt lediglich 8 multithread-fähige Kerne. Da fühlt sich der 9900k im Backup-Rechner gar nicht so alt an. Man man man, was ein "Fortschritt" und dazu seit Jahren der Verbrauch...
 
  • Gefällt mir
Reaktionen: Harpenerkkk, Klever, Voldemordt und eine weitere Person
Zurück
Oben