News Nova Lake a.k.a. Core Ultra 400: Maximalverbrauch von 700 Watt sorgt für wilde Gerüchte

ElliotAlderson schrieb:
Also ich betreibe einen 12900K mit NH-D15 und der ist zu kühlen. Verbreiten wir wieder Mumpitz?
Ich hoffe ja, dass, wenn ChatGPT & Co. die Leute mit Werbung zumüllen werden, wir solche Statements in Zukunft viel weniger zu lesen bekommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Leon_FR
Volker schrieb:
Ja das geht easy. Unsern im Büro kühlen wir auch damit. Erst bei 320+ Watt beim KS war der langsam am Limit.
Vermutlich in einem angemessenen Gehäuse. Es soll ja auch Genies geben, die sagen "oh Gott, so viel Leistung, so ein dicker Kühler dafür, dann kauf ich lieber ein schallgedämmtes Gehäuse, damit das leise bleibt" und ihren PC damit in einen Glutofen verwandeln.
Ergänzung ()

Slavefighter schrieb:
im Serverbereich musste auch irgendwann mit Hörschutz rumrennen :D
Dat gebrülle der Lüfter um da sauber zu Kühlen, is nicht ohne.
Ach... da bewegen wir uns mittlerweile in einem Bereich, bei dem immer öfter bei Wasserkühlung verwendet wird. Man glaubt gar nicht, wie leise ein volles Rack sein kann, wenn man das Gebrüll gewohnt ist :p
Ergänzung ()

Perdakles schrieb:
Die Ultra 7 werden wohl die Modelle für Gamer, da Intel vermutlich in das gleiche Problem wie AMD laufen wird: Das zweite Chiplet/Tile bringt im Gaming keine/kaum Vorteile.
Es dürfte wirklich so sein, dass die meisten Spiele kaum von zusätzlichen Kernen profitieren und daher die Mittelklasse dann optimal ist.

Allerdings ist es möglich, dass Intel im Gegensatz zu AMD keine Nachteile durch die Nutzung von zwei Chiplets bekommt (weshalb ja Tools wie Process Lasso oder AMDs "Game Mode" existieren, der einfach die halbe CPU abschaltet). AMD hat durch den Infinity Fabric sehr hohe Latenzen zwischen zwei CCDs. Intel hat seine Chiplets (Xeons bestehen ja schon aus mehreren) bislang viel enger gekoppelt als AMD, sodass dieses Problem kaum vorhanden ist. Davon gehe ich auch bei Nova Lake aus, so dass sich das große Modell viel mehr wie "eine CPU" verhalten sollte als AMDs Dual-CCD-CPUs.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Volker
Wenn der bisherige Core Ultra 9 285K als Spitzenmodell eine TDP (PL1) von 125 Watt hat, glaube ich kaum dass man beim Nachfolger mit mehr als doppelt so vielen Kernen plus mehr Cache auch mit Technikverbesserungen eine ähnliche Leistungsaufnahme von 125-150 Watt hinbekommt. Es sei denn man würde zusätzlich den Takt noch etwas drosseln. Ich halte daher eher mit Verbesserungen der Strukturbreite eine Größenordnung von um die 200 Watt für realistisch. Das sollten die großen Luftkühler auch noch hinbekommen. Im Zweifelsfall greift bei extremer und längerer Totalbelastung das Throtteling etwas früher.
 
700W PL4 als Aufschrei ist komplett sinnbefreit. Entweder die Leute verstehen den Sinn von PL4 nicht oder bei Intel + hohen Wattzahlen wird ihnen alles rot vor Augen. Dann eben kein Doppelchipsystem (und mal Kaufen was man auch braucht) und PL4 wird sicher humaner ausfallen. Ansonsten - ja, was erwarten Leute denn bei 48 Kernen? Haben die Leute auch bei 48 Kernen in Threadrippern aufgeschrien, weil die, oh Wunder, auch kurzzeitig Stromschlucken wie die Weltmeister?

Was mich mehr interessiert, und leider nicht im Artikel vorkommt, ist ob der Leaker mit dem Abschalten von P-Kernen in Clustern Recht behält und P-Kerne in Nova Lake jetzt ebenso wie E-Kerne irgendwie gruppiert werden. Vielleicht ist es auch eine logische Gruppierung anstatt eines hierarchischen Zusammenschluss.

Perdakles schrieb:
Das bedeutet aber auch, dass im Gaming dann Zen6 mit (gerüchteweise) bis zu 12 Kernen pro Chiplet gegen 8 P-Cores pro Tile antreten wird
Nee, das heißt, dass 12 Kerne gegen 8 P-Kerne + 16 E-Kerne antreten werden.
Oder auch 24 Threads (12 Starke, 12 Schwache) vs. 24 Threads (8 Starke, 16 "Mittelstarke"). Bis zu den Benchmarks sehe ich auch keine Chance einen Favoriten zu picken; bLLC und 1.8nm sind da zu große Unbekannten.
Dem Rest stimme ich zu.
 
  • Gefällt mir
Reaktionen: MalWiederIch
stefan92x schrieb:
Intel hat seine Chiplets (Xeons bestehen ja schon aus mehreren) bislang viel enger gekoppelt als AMD, sodass dieses Problem kaum vorhanden ist. Davon gehe ich auch bei Nova Lake aus, so dass sich das große Modell viel mehr wie "eine CPU" verhalten sollte als AMDs Dual-CCD-CPUs.
AMD wird bei Zen6 ja vermutlich ebenfalls die Art und Weise des Packagings der Chiplets radikal umbauen. Angeblich kommt dann das bei "Strix Halo" erprobte Packaging zum Einsatz (TSMC's InFO-oS ?), was dem Intel Ansatz sehr ähnlich ist.
Damit kenne ich mich aber ehrlich gesagt überhaupt nicht aus. Da die Chiplets aber viel näher aneinander rücken, gehe ich mal von Vorteilen aus:

Strix Halo:
1770729892892.png


Zen 5:
1770729666056.png
 
Zuletzt bearbeitet:
So ungewöhnlich ist das nicht. Die Threadripper können auch viel Watt fressen wenn man sie saufen lässt.

Hohe Anzahl von Kerne hoher Takt = Viel Watt

Intel soll Gas geben ich will auf Nova Lake wechseln. ;)
 
  • Gefällt mir
Reaktionen: unbekannter1000
Perdakles schrieb:
AMD wird bei Zen6 ja vermutlich ebenfalls die Art und Weise des Packagings der Chiplets radikal umbauen.
Aber nach allem was man weiß nicht den logischen Aufbau. AMD hat halt pro CCD einen (intersected) Ringbus, an dem alle Cores hängen. Ebenso pro IOD einen Ringbus, an dem alle Kommunikationskanäle hängen. Verbunden werden diese Ringbusse über den Infinity Fabric, und der verursacht eben Latenzen. Der große Vorteil ist, dass AMD die einzelnen Chiplets als komplett eigenständige Komponenten betrachten kann, weshalb eben problemlos die gleichen CCDs im Server oder Desktop verbaut werden können, und weshalb es diverse Bestückungsvarianten gibt, also ein IOD mit ein oder zwei CCDs im Desktop oder mit allem möglichen von 2 bis 12 CCDs im Server. Es ist für AMD halt völlig egal, wenn Ports am Ringbus im IOD einfach ungenutzt bleiben.

Intels Chiplet CPUs (also die Xeons) hingegen haben so etwas wie den Infinity Fabric nicht. Die sind nach wie vor eine einzelne logische CPU, die einfach "durchgeschnitten" und durch das Packaging wieder zusammengefasst wird. Das bedeutet dann eben, dass Intel nicht frei kombinieren kann wie AMD, aber eben auch dass die einzelnen Chiplets logisch viel besser gekoppelt sind.
 
  • Gefällt mir
Reaktionen: nyster, Wanderwisser, CDLABSRadonP... und 4 andere
Auch wenn ich momentan mit meinem 9800X3D zufrieden bin muss ich gestehen, dass ich schon mit einem "großen" Intel mit Zusatz-Cache liebäugle und bin definitiv nicht abgeneigt Ende des Jahres zu wechseln.
 
Wusste gar nicht das ein PL4 gibt, dachte eigentlich es gibt nur 1 und 2.

Mir gefallen die vielen Kerne für die Workstation! Gibt es schon eine Roadmap, in der steht wann die Generation offiziell vorgestellt wird?
 
700W? Wer braucht da noch eine Heizung im Winter?


Ich würde NIEMALS 700W meiner CPU gönnen.
Erstens ist das TEUER, zweitens schädigt das ziemlich sicher die Hardware!

Intel darf nicht wieder mit Brechstange die Leistungskrone kriegen mit Bereichen, wie sie eh keiner laufen lassen würde. So ineffizient ist das nicht brauchbar.
Daher ist viel interessanter, wenn man sich das mit verschiedenen TDP-Limits anguckt und das auch so propagiert, dass intel und AMD darauf optimiert zielen dazu punkten. Das wird teilweise schon gemacht, findet aber viel zu wenig Beachtung.

Ich brenne dafür zu sehen, wie z.B. ein Ersatz meines i7-13700K aussehen würde, wenn der z.B. auf einem TDP-Limit von 80-90W mit UV laufen würde - SingleCore/MultiCore/AVG/Games.
(Hab ich jetzt 90W/UV/8P0E - läuft beim gaming silent mit 400-700rpm CPU-Lüfter je nach Gaming-Last)
Und was hab ich mir schon für dumme Kommentare angehört, warum ich den kastrieren würde .... und dann kaum raus: zu hohe Spannung tötet die Baureihe ganz gerne und bios-updates waren notwendig!
Gab sogar Vorschläge lieber einen i5 mit 6C (statt der 8C) mit niedrigerem Takt zu nehmen und dann dafür kein TDP-Limit zu setzen, wäre am Ende ein schlechteres Ergebnis bei rumgekommen für mich .... aber gut, wo es viele solcher Leute und in Laut gibt ... warum sollte Intel und AMD sich dann darauf fokussieren?

~80-120W sollten Gaming-CPUs sich unter VOLL-LAST maximal gönnen. Mehr ist eigentlich abartig unnötig und Optimierungen sollten weiter verfolgt werden.
 
  • Gefällt mir
Reaktionen: Mario2002 und Nighteye
Was Nvidia kann, kann Intel schon lange.:king:

Kleine Anspielung auf die 600Watt einer RTX5090 und das Intel sonst immer die Wattkeule genommen haben für das Topmodel.^^
 
  • Gefällt mir
Reaktionen: Nighteye und daknoll
Bei den Verbräuchen bin ich froh Intel den Rücken gekehrt zu haben. Und AMD auch.
 
BxB schrieb:
700W? Wer braucht da noch eine Heizung im Winter?


Ich würde NIEMALS 700W meiner CPU gönnen.
Erstens ist das TEUER, zweitens schädigt das ziemlich sicher die Hardware!
Sag mir, dass du den Artikel nicht gelesen hast, ohne mir zu sagen dass du den Artikel nicht gelesen hast.
 
  • Gefällt mir
Reaktionen: lSonicXl, JanJ, bensen und 8 andere
12nebur27 schrieb:
Da will das Volk einfach mal in Frieden Intel basierend auf höchst fragwürndigen Informationen bashen und dann kommt ihr an mit einem differenzierten und Artikel der tatsächlich Inhalt hat. Unmöglich ist das.
:lol:
 
Ich für mich bin jetzt weiter 2 Jahre raus aus dem PC Neubau. Ich habe mir aus finanziellen Gründen immer 1-2 Generationen ältere Hardware gebraucht gekauft. Die Generation 13-14 würde ich aber dem Stecken nicht anfassen, wennst wegen der "Degrading" Thematik nicht weißt, was Du gebraucht bekommst.
Und ehrlich, wenn jetzt solche Watt Werte aufgerufen werden, muß man auch erstmal ein Jahr warten, um zu sehen, ob die CPU´s das überleben. Auch wenn das nur ein absoluter Peak Wert ist, ist das schon heftig, welche Ströme da fließen.....
 
Ich bin gespannt, was Intel da bringt. Durch die extremen Preise werde ich eh frühestens in 2...3 Jahren etwas Neues holen.
 
Core Ultra 9 4xxK, 52 Kernen (16P+32E+4LPE), 288 MB bLLC

Klingt ja hoch intressant. Wird dann gegen einen 12 Kern-CCD X3D von AMD antreten.
Muesst dann beim Gaming nur +-5% vom X3D entfernt liegen, dann passt das.
 
Auch wenn der Aufreger mit den Vergleichswerten bisheriger Generationen beim PL4 deutlich geringer ist: Der Trend nach immer höherem Stromverbrauch schmeckt mir so gar nicht. Und ist auch ölologisch und ökonomisch alles andere als sinnvoll.

Was Intel da zusammen köchelt, ist fragwürdig in meinen Augen.
 
Das sind aber ganz ominöse Gerüchte...das wird sicher nicht der Fall sein.
Beim 700W wären manche Luftkühler überfordert - und falls es sich nur um kurze Lastspitzen handelt, wären manche Netzteile überfordert, wenn GPU und RAM und Lüfter auch noch Power brauchen.
Aber im Bereich von 250 - 300 Watt bewegen wir uns ganz sicher bei den neuen Monster CPUs.
 
Zurück
Oben