News Core i9-14900KS: Intels erster 6,2-GHz-Prozessor soll Mitte März erscheinen

Pizza! schrieb:
Wer nur zocken will, greift am sinnvollsten zum 7800X3D oder 5800X3D. Top Leistung und wenig Verbrauch.
Naja "Top-Leistung" würde ja Bestleistung implizieren. Das sehe ich bei beiden CPUs nicht als gegeben an.

Screenshot 2024-02-29 140445.png

Pizza! schrieb:
Bei AMD Top Leistung und relativ wenig Verbrauch mit dem 7950X3D, mit dem kleinen Nachteil dass die Zuordnung der Kerne nicht immer perfekt funktioniert plus Idle Verbrauch nicht so gut.
Wenn man die CPU länger behält und Spiele auch das andere CCD fordern, wird das in einer Katastrophe enden. Da wäre der 7800X3D schon weit besser und die Empfehlung schlechthin, wobei der 13600K bis auf wenige Prozent herankommt und auch nicht sonderlich verschwenderisch ist.
MalWiederIch schrieb:
40W mehr bei Vollast bei der dicksten CPU, 40W mehr in Spielen …
40 Watt? Rechne in der Spiele- Praxis lieber mit 100 Watt und 120W zwischen 14900KS und 7950X3D/7800X3D.
 
150w tdp für Singlecore ist schon heftig.

Wenn Intel den Weg der Brechstange weitergehen sollte, würde es mich nicht wundern wenn man irgendwann Kooperationen mit Elektrogrill Herstellern eingehen würde.

Dann heißt es in der Webung: Im Dynamic 4000 sorgt ein 14900KS für die nötige Power, damit das Fleisch für die ganze Familie gut durch ist.
 
  • Gefällt mir
Reaktionen: ComputerBase101 und TheAnswer42
Ja, das der 3D Cache warm wird, ist mir klar. Dennoch irrt hier oft der Fehler durchs Forum, dass AMDs einfacher zu kühlen sind weil diese eben weniger Verbrauchen. Dem wollte ich nur widersprechen. Nicht mehr, und nicht weniger.

Ja, ich habe auch Zugestimmt das AMD technologisch besser da steht, aber eben nur auf die Effizienz bezogen. Und APUs sind wirklich nicht meine Welt, und interessieren mich NULL. Die wird direkt deaktiviert beim ersten Start im UEFI.

Wie gesagt, ich mag beide. Ich habe beide. Und ich sehe bei beiden die Vor und Nachteile, ungeachtet dessen, wer in synthetischen Tests 400W ziehen soll, oder nicht. Der 14900KS wird sicher in keinem Spiel auf 400W kommen, aber es wird immer so dargestellt, als wäre die Differenz x3D zu Intel quasi Avg 58W für x3D, und dann werden die 300+W immer für den Intel genommen. Dabei läuft der auch bei mir immer zwischen 70 und 150W, außer bei CP2077 vielleicht.

Emotional mag mein Post rüber gekommen sein, (war aber nicht wirklich so) aber es ist einfach zum Kotzen, dass man IMMER und IMMER wieder das Selbe liest. Die Themen interessieren einen, und zwar nicht nur mich, sondern jeden hier von uns der sich damit befasst und hier postet, aber im Grunde kannst du von 300 Posts 10 für Voll nehmen, die anderen sind alle Bullshit und ein und die selbe Leier! In jedem CPU Thread hier.... AMD super, Intel kacke.
Ob ich mit einem Ferrari 250 km/h fahre, oder mit einer S-Klasse 250 km/h fahre, ist völlig Wumpe: Beide sind schnell. Einer ist laut und hart, der andere komforabel und leise. Der eine macht Spaß, der andere aber nicht weniger! Im Ferrari passt nix rein, in der S Klasse eben mehr. Das Ergebnis ist das Selbe! 250 km/h erreichen beide! Aber das eine "schlecht" zu reden, und das andere in den Himmel loben, hilft niemandem! Jeder kauft das, was ihm persönlich zusagt! So auch die CPU´s und jeweiligen Hersteller!

PS: "Lichtjahr" ist nach wie vor keine Angabe der Zeit, sondern der Strecke!
 
Pizza! schrieb:
Mal 2 Beispiele warum Intel Fans witzig sind.

1. Gehen in die Tests von Gaming Benchmarks und argumentieren dann mit mehr Anwendungsleistung des Intel.

2. Ignorieren den extrem hohen Lastverbrauch von Intel CPUs, aber meckern dann dass die 10 Watt mehr von AMD im Idle super schlimm sind.
Mal 2 Beispiele warum AMD Fans witzig sind.

1. Gehen in den Test von Anwendungsbenchmarks und argumentieren dann mit der guten Effizienz.

2. Ignorieren dann den hohen idle Verbrauch von AMD CPUs, aber meckern dann dass die 40-50 Watt mehr in Anwendungsleitung super schlimm sind, weil diese maximal Auslastung bekanntlich 24/7 anliegt.

Merkste was? Ist absolut unnötig, solche Kommentare zu schreiben, die sich 1:1 umdrehen lassen.
Sam Miles schrieb:
AMD ist technologisch so weit weg, wie soll das gehen?
Wer kennt sie nicht, die AMD Technologie aus dem Jahre 2040, die Intel komplett in den Schatten stellt ^^ Deshalb hat auch immernoch Intel global gesehen den größeren Marktanteil.
Sam Miles schrieb:
  • 3D Falten des Speichers
  • des CPU Aufbau generell
  • der Fertigung generell
  • APU... wo ist da Intel? Auf dem Parkplatz?

Das sind nur die offensichtlichen Dinge. Da ist ist nicht einmal die Energieeffizienz aufgelistet.
Der CPU Aufbau generell???? Deswegen ist selbst ein 7800x3d ein absoluter Hitzkopf, trotz des niedrigen Verbrauchs unter Last? Macht Sinn. Fertigung? Du meinst sie können gut bei tsmc fertigen lassen? Intel hängt dort zwar hinter TSMC hinterher, haben jedoch auch eine eigene Fertigung. Desweiteren muss bedacht werden, dass TSMC/ indirekt AMD schneller am Physikalischen Limit sein wird, als Intel. Intel kann in einigen Jahren also noch den Vorteil von kleinerer Fertigung mitnehmen, wohingegen AMD dann andere Wege finden muss. Den 3d Punkt lasse ich dir mal, auch wenn darunter der takt erheblich leidet.
Wer kennt nicht die APU im 7950x(3d), die die APU im 14900k komplett auseinander nimmt? Ach AMD ist hier sogar langsamer? Gibt's ja gar nicht. Oder redest du von den G CPUs? Du weißt schon, dass die nicht im entferntesten die CPU Leistung bringen wie die i9/r9 Modelle? Der Vergleich hinkt und ein Vergleich von Äpfeln mit bringen ist wenig hilfreich, kannst auch noch gerne erwähnen, dass eine 7900xtx schneller als eine a770 ist^^
 
  • Gefällt mir
Reaktionen: Sotek, Aliosy, hans_meiser und 2 andere
rafiibs schrieb:
150W TDP heißt nicht, dass er mit EINEM Kern diese Leistung verbrät....
Korrekt, habe ich auch nicht geschrieben, tdp steht für thermal detection power. Also reine Abwärme und das ist für SingleCore in 2024 schon heftig.
 
t3chn0 schrieb:
Und ja, jetzt ist hier wieder gleich alles voll mit "sinnlos" "was für dumme" "Kernkraftwerk" "Erderwärmung" "lachhaft" "Intel ist bäh" "einfallslos" etc.

Solange die darunter liegende Architektur derart enttäuschend ist, wie bei der 13. und 14. Generation von Intel, dann ist das auch gerechtfertigt. Das gilt aber halt auch für das gesamte Lineup und nicht nur das KS Top-Modell. Da hilft auch nichts, wenn man irgendwelche "Schallmauern durchbricht".
 
  • Gefällt mir
Reaktionen: dergraf1
Ich finde die CPU sinnlos die wird nur teuer sein nutzen keine . Vielleicht hat man 5fps mehr in spielen wow. :(
 
Ben_computer_Ba schrieb:
Also der 7950X3D ist ein Hitzkopf? Nun gut. Technologisch kann intel jedenfalls 16C/32T mit 3D nicht anbieten weil es dies nicht fertigen könnte aber ok. Hitzkopf halt.
Was intel fertigen wird können und was nicht werden wir sehen. Aktuell stehen sie hier weit hinter AMD. Warum, egal, sie können es nicht.
Mit einer "dCPU" also einer Grafikeinheit, will man auch keine Rekorde brechen aber so 70 bis 80 % der gekauften Rechner sich die dGPU sparen. Also einfach Leistung in beiden Bereichen haben ohne extra eine Grafikkarte haben zu müssen. Macht sich ganz gut im Büro. Technologisch ist intel hier auf dem Parkplatz.

intel sollte erst einmal aufholen. Technologisch. Und ich bezweifle es, siehe oben, das sie es bis 2027 können. AMD zieht eher immer weiter davon.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ComputerBase101, MR2 und ArrakisSand
Ein 13900K, KS oder 14900K, hat NUR 8 P-Cores. Die E-Cores kann man getrost links liegen lassen. Aber in der Bewertung der Performance sind es quasi 4 P-Cores, da etwa 25-33% der Performance eines P-Cores je E-Core erreicht wird. Der AMD hat 16 echte, große Kerne. Das bedeutet im Umkehrschluss, dass ich mit meinem alten, schlechten, ineffizienten Intel Chip, der "vergleichsweise" nur 12 echte Kerne hat, die Performance von AMDs echten 16 erreiche. Hmm, und teilweise sogar deutlich schlage....
Die eierlegende Wollmilchsau ist das nämlich auch nicht wirklich, und es setzt Intel "leider" auch nicht unter Druck, eben diese vollen 16 P-Cores zu haben. Wozu auch? Die Performance haben die auch so, selbst im TDP Korsett, wenn man es anlegt und nicht offen läuft.
Also selbst wenn Intel dies nicht kann, warum auch immer, haben sie leider auch keinen Grund dazu.

Und wieder greift meine Aussage, das sie sich beide nichts nehmen, außer eben der Effizienz!
 
  • Gefällt mir
Reaktionen: Mar1u5
Sam Miles schrieb:
Also der 7950X3D ist ein Hitzkopf? Nun gut.
Für die Leistungsaufnahme ja, auch der. Explizit erwähnte ich jedoch den 7800x3d, aber gut, so groß ist der unterschied da nicht. Ein Intel ist mit gleicher Leistungsaufnahme jedenfalls erheblich kühler, ist mir also unverständlich, wo genau der generelle Aufbau bei AMD CPUs besser sein soll.
Sam Miles schrieb:
Was intel fertigen wird können und was nicht werden wir sehen. Aktuell stehen sie hier weit hinter AMD. Warum, egal, sie können es nicht.
Werden wir, abgesehen von der Effizienz hat AMD 0,0 Vorteile aus dem besseren Fertigungsprozess ziehen können, wie irrelevant die Effizienz sowohl im idle als auch unter Last ist, wurde mittlerweile auch schon oft genug gesagt.
Intel und AMD nehmen sich einfach nichts, weder ist der eine besser noch der andere, aber das zu begreifen scheint teilweise schwer zu sein.
Sam Miles schrieb:
Mit einer "dCPU" also einer Grafikeinheit, will man auch keine Rekorde brechen aber so 70 bis 80 % der gekauften Rechner sich die dGPU sparen. Also einfach Leistung in beiden Bereichen haben ohne extra eine Grafikkarte haben zu müssen. Macht sich ganz gut im Büro. Technologisch ist intel hier auf dem Parkplatz.
Wenn das stimmt, dann Frage ich mich, warum in büros stand jetzt nahezu ausschließlich Intel Geräte laufen....
Sam Miles schrieb:
intel sollte erst einmal aufholen. Technologisch. Und ich bezweifle es, siehe oben, das sie es bis 2027 können. AMD zieht eher immer weiter davon
Weiter davon? Ich würde sagen, von der 10 Intel bzw. Der 5000 ryzen Serie hin zur 14 Intel bzw. Der 7000 ryzen Serie hin hat Intel eher aufgeholt, wie kommst du also darauf, dass es andersrum sein sollte?

Voll Zitate sind übrigens Grund zur Verwarnung. Würde die also vermeiden, ernstgemeinter Tipp.
 
  • Gefällt mir
Reaktionen: B3rry
Trinoo schrieb:
was passiert eigentlich mit den ganzen Intel Hatern, wenn Intel in 2-3 Jahren mal wieder die Nase vorn hat?
Das war doch früher andersrum nicht anders, irgendwelche Fanboys überwiegen immer... aber auch hier im Thread wieder plumper AMD Hate zu lesen... richtiger Quatsch irgendwas als schlecht zu bezeichnen nur weil es vielleicht nicht den Benchmark-Balken dominiert oder zu viel Strom säuft, letztlich sollte man für den eigenen Anwendungsfall entscheiden und da ist es nicht immer das was auf Platz 1 der Balken steht, genau genommen bei den meisten Usern nicht. CB ist da halt schon eine gewaltige Blase, hat man auch wieder mal bei den Steam Statistiken gesehen. Aber so sind die Leute halt, genauso was Angebereien angeht ;)
 
IsaacClarke schrieb:
Mehr als 400Watt, einfach nur noch traurig was Intel abliefert, sie können nur noch die Brechstange nutzen... Ineffizienz aus der Hölle 🥵
Die Strompreise sind halt nicht überall so hoch wie hier in DE, in vielen anderen Ländern da juckt das keinen.
 
  • Gefällt mir
Reaktionen: Aliosy, Flaschensammler und Erzherzog
Achtung, viel belangloses Gesülze:

Ich war ja nun 10 Jahre mit einem Xeon E3 1231 V3 unterwegs. Mit Gaming, rendern und allem Pipapo. War mein bester PC bisher, war nie was kaputt, selbst die Windows Installation war 10 Jahre alt (Win 7, irgendwann dann problemloses Update auf Win 10).

Anfang des Jahres hab ich mich nun doch mal durchgerungen, was neues zu kaufen, aus Angst, es könnte ja doch mal nen Kondensator platzen. Also diverse Tests gelesen, zur Wahl standen zunächst nen 7800x3d oder wieder ein Intel, konkret lag ewig der 13700k bei MF im Warenkorb. Irgendwann poppte der 7950x3d im Mindstar für 549€ auf und ich hab mir gedacht, sch....drauf nimmst halt mal das Teil. In diversen Foren (auch hier) hieß es, die 3dx Teile werden sehr heiß, gute Kühlung ist nötig. Also ein BQ Shadowbase und einen Dark Rock 5 mitbestellt (ja ja ich weiß, gibt günstigere Alternativen aber ich war vorher mit nem Shadowrock unterwegs und zufrieden) für guten Airflow.

Dann einen Tag freigenommen, das Teil zusammen gekloppt und festgestellt, dass ich alt werde und ne Gleitsichtbrille brauche.

Das Teil eingeschaltet, XMP für den RAM auf 6000 im BIOS reingehauen und Windows installiert. Treiber hat allesamt son Asrock Tool runtergesaugt (Asrock Board), das grenzt an Hexerei, wie das funktioniert. Den Game Mode und die Gamebar hat Windows ja auf meinen Wunsch schon bei der Installation mit eingerichtet gehabt. Ryzen Master hab ich dann noch nach installiert zum rumexperimentieren. Dann Prime95 gezogen und zitternd gestartet in Erwartung, das mir die CPU durchs Gebäudefundament schmilzt (hab keinen Core Catcher).

Lange Rede, kurzer Sinn: entweder ist die Sensorik meines Rechners hinüber oder aber ich hab mit Gehäuse und Kühler mit Kanonen auf Spatzen geschossen. Nach besagter halben Stunde lag die Package Temperatur bei satten 68°C... bei ner Package Power von 130 W und einen allcore Takt von 4900 Mhz. Keine Ahnung ob das gut oder schlecht ist, zumindest mein Exemplar scheint recht kühl zu bleiben.

Im Ryzen Master kann man, wenn man möchte, via klick wahlweise CCD 0 oder 1 abschalten, so kann man also auch einen 7800x3d aus der CPU machen, also kein Problem, wenn die CCD Zuordnung doch mal versagen sollte.

Die CCD Zuordnung funktionierte bei mir bisher Problemlos, getestet habe ich: Cyberpunk, Robocop, Horizon, Elden Ring, Darksouls und...Rogue Legacy 2...

Was will ich mit dem ganzen Text sagen? Nicht alles glauben, was in Foren geschrieben wird, oftmals hat man das Gefühl, dass da nur nachgeplappert wird, was irgendwann mal irgendwo gelesen wurde. Zum Thema kann ich nicht viel sagen, als Vergleich hab ich nur meinen Arbeits PC, einen Dell Optipex irgendwas mit nem 12900k. Der funktioniert auch sehr gut.
 
  • Gefällt mir
Reaktionen: M11E und JarlBallin
Nureinnickname! schrieb:
Die Strompreise sind halt nicht überall so hoch wie hier in DE, in vielen anderen Ländern da juckt das keinen.
Bezahle jetzt auch "nur" noch 27 Cent pro kw/h allerdings ist das im Vergleich zu vielen anderen Ländern immer noch sehr hoch, was in manchen Verträgen die letzten Jahre zu zahlen war ist absoluter Wucher. Aber naja, ist bei Gas und anderem nicht anders...
Allerdings betrifft das Thema (mal überheblich gesagt) sowieso am ehesten Leute am unteren Einkommensende. Mein Tarif ist so gestaltet das mich jetzt ein paar Euro mehr oder weniger nicht jucken, lasse im Sommer auch die Klimaanlage laufen. Ist aber auch bei vielen Firmen so, die haben ja Tarife wo man eine Mindestmenge abnehmen muss und es dann deutlich günstiger ist, was eher zu Stromverschwendung führt. Alles nicht so ganz durchdacht wenn man weniger zahlt, bei mehr Verbrauch... naja, ist immerhin bei den meisten Privatverträgen nicht so.
 
rafiibs schrieb:
Ein 13900K, KS oder 14900K, hat NUR 8 P-Cores. Die E-Cores kann man getrost links liegen lassen.

Kann man so pauschal nicht sagen. Zum Beispiel bei der nicht unwichtigen Kompilierung von Shadern kann das schon sehr angenehm sein, wenn das in wenigen Sekunden oder Minuten über die Bühne geht statt ewig zu dauern.

War da nicht was mit The Last Of Us Remastered und fast einer Stunde Shader-Kompilierung auf 7800X3D? Ich habe das Spiel neulich angefangen und auf dem 13900K hat das keine fünf Minuten gedauert. Die Kompilierung läuft ja schon im Hintergrund, wenn man das Spiel startet und bis ich mit dem Optionsmenü einmal komplett durch war, da waren auch die Shader (inklusive Add-On/DLC) fertig kompiliert.

Die E-Cores haben teilweise schon ihre Berechtigung und ihr Einsatzgebiet. Das erledigt der Hardware-Scheduler von Intel (Thread Director), teils in Verbindung mit softwareseitigen Windows 11 Scheduler Optimierungen, ob und wie viel die E-Cores mitmachen dürfen.
 
rafiibs schrieb:
Ein 13900K, KS oder 14900K, hat NUR 8 P-Cores. Die E-Cores kann man getrost links liegen lassen. Aber in der Bewertung der Performance sind es quasi 4 P-Cores, da etwa 25-33% der Performance eines P-Cores je E-Core erreicht wird. Der AMD hat 16 echte, große Kerne. Das bedeutet im Umkehrschluss, dass ich mit meinem alten, schlechten, ineffizienten Intel Chip, der "vergleichsweise" nur 12 echte Kerne hat, die Performance von AMDs echten 16 erreiche.

Interessante Rechnung... Ich mache mir die Welt, wide wide wie sie mir gefällt...
 
RogueSix schrieb:
Kann man so pauschal nicht sagen. Zum Beispiel bei der nicht unwichtigen Kompilierung von Shadern kann das schon sehr angenehm sein, wenn das in wenigen Sekunden oder Minuten über die Bühne geht statt ewig zu dauern.
Definitv. So war meine Aussage auch nicht gemeint. Die sind nicht nutzlos, aber eben kann man diese nicht mit vollwertigen Ryzen Kernen vergleichen, welche nunmal deutlich performanter sind!

MaverickM schrieb:
Interessante Rechnung... Ich mache mir die Welt, wide wide wie sie mir gefällt...
Überzeug mich vom Gegenteil, bevor du eben genau deine Welt zusammenbastelst. Teste 8 Ryzen Kerne blank aus dem 7800 x3D, und 8 Intel Kerne blank aus dem 14900K/KS, ohne HT oder E-Cores, oder sonstigem Schnickschnack. Dann sehen wir wie schlecht der Intel zum AMD wirklich steht, oder eben andersherum. Wäre mal interessant, wenn das mal getestet würde, gerne auch bei einem normierten Takt, da es ja sonst wieder heißt, unfair bla bla. Dann am besten noch mit gleichem Speicher, gleichem Power und Temperaturlimit, so dass die Ergebnisse auch annährend vergleichbar gemacht werden.
Alles andere und jede Diskussion hier ist der klassische Äpfel und Birnen Vergleich. Ich behaupte mal, da werden sich die beiden Chips nicht viel nehmen. Bei AMD rettet halt der 3D Cache in gewissen Szenarien, bei Intel der deutlich höhere Takt im Vergleich zum x3D.

Alles andere ist Fanboy Gesülze, weil man eben den jeweils anderen schlecht macht indem man die Argumente verwendet, welche eben vom Grundsatz her nicht vergleichbar sind. Das ist bei GPUs eben einfacher, RTX mal außen vor gelassen.
 
  • Gefällt mir
Reaktionen: JarlBallin
ruthi91 schrieb:
Wenn der PC 99% idled hätte auch ein kleiner NUC gereicht, dann hättest du wirklich einen Bruchteil des Stromverbrauchs der dir ja so wichtig ist. Fehlkauf würde ich sagen :lol:
Du hast keine Ahnung von meinem Use Case, würde ich sagen😜.

Den Rest meines Posts ignoriert, der die katastrophale Treiberunterstützung seitens AMD abseits von Spielchen angeht.

Btw. Ist mir der Stromverbrauch sch***egal.
Ich zahle meine Rechnungen selbst.

Hab Spass mit deiner Gaming CPU.
 
rafiibs schrieb:
Überzeug mich vom Gegenteil, bevor du eben genau deine Welt zusammenbastelst.

Erstens: Du stellst hier wilde Behauptungen auf, die jeglicher Logik entbehren. Also untermauere auch Du deine Theorien und wälze das nicht auf andere ab.

Zweitens: Du findest in den meisten CPU Tests hier auch Diagramme die IPC und Perf/Watt Leistung gegenüberstellen. Intel fährt hier durchweg schlechter.

rafiibs schrieb:
Alles andere ist Fanboy Gesülze

Exakt. Ich hoffe, Du erkennst die Ironie.
 
Zurück
Oben