News Core i9-14900KS: Intels erster 6,2-GHz-Prozessor soll Mitte März erscheinen

Gigaherz schrieb:
Warum hast du dann 5900x drinstehen?
Warum beantwortest du nicht meine Frage anstatt irgendein nutzloses „side Thema“ zu eröffnen
Wäre mir echt lieber …
 
@sucuk_mit_eii
Er hat doch recht :p

Meine Mutter frägt mich auch wozu man mehr Leistung als in ihrem Notebook von 2006 mit SSD benötigt - nur hier ist die Frage etwas sinnlos - oder frägst du das auch bei jedem Threadripper/Epyc Release? :rolleyes:

Bleib doch bei deiner älteren CPU, ein 7950X/14900K wird dir offensichtlich nichts bringen, genauso wenig wie ein Threadripper/Epyc.
 
sucuk_mit_eii schrieb:
Warum beantwortest du nicht meine Frage
Deinen bescheidenen Ton mal ignoriert, offensichtlich braucht man sowas wenn man auf hohe Singlecore Leistung mit schnellem Speicher angewiesen ist.
Hab nen Kollegen, der sich das Teil auch nur holt um damit XP zu betreiben und alte gpu Benchmarks zu pushen. Mit nur zwei P cores dann aktiviert eben.
 
Mal 2 Beispiele warum Intel Fans witzig sind.

1. Gehen in die Tests von Gaming Benchmarks und argumentieren dann mit mehr Anwendungsleistung des Intel.

2. Ignorieren den extrem hohen Lastverbrauch von Intel CPUs, aber meckern dann dass die 10 Watt mehr von AMD im Idle super schlimm sind.

Der 14900KS ist eine verschwenderischen Nische, dient nur um die dicksten Zahlen zu präsentieren.

Wer nur zocken will, greift am sinnvollsten zum 7800X3D oder 5800X3D. Top Leistung und wenig Verbrauch.

Wer nur Anwendung nutzt nimmt sich einen 7950X oder 14700K oder 13900K.
Bei sowas entscheidet dann eher welche Anwendung von was profitiert. AMD hat zwar ein paar Prozent weniger Leistung, dafür aber auch gern mal an die 20/30/40% weniger Verbrauch.

Wer zockt und Anwendungen nutzt findet bei beiden was.
Bei AMD Top Leistung und relativ wenig Verbrauch mit dem 7950X3D, mit dem kleinen Nachteil dass die Zuordnung der Kerne nicht immer perfekt funktioniert plus Idle Verbrauch nicht so gut.
Bei Intel sowas wie den 13700K oder 14700K, die leider allgemein ( Gaming und Anwendungen) sehr viel Strom schlucken und zum Teil auch eine sehr starke Kühlung brauchen.

13900KS und 14900KS sind da einfach nur verschwenderische Leuchtturmprojekte die für sehr wenige Leute wirklich von nutzen sind.
Erschwerend kommt für den 14900KS noch der hohe Preis dazu. Alle anderen CPUs sind aktuell deutlich günstiger.
 
  • Gefällt mir
Reaktionen: ComputerBase101, eXe777, JarlBallin und 2 andere
Pizza! schrieb:
Mal 2 Beispiele warum Intel Fans witzig sind.

1. Gehen in die Tests von Gaming Benchmarks und argumentieren dann mit mehr Anwendungsleistung des Intel.

2. Ignorieren den extrem hohen Lastverbrauch von Intel CPUs, aber meckern dann dass die 10 Watt mehr von AMD im Idle super schlimm sind.

Der 14900KS ist eine verschwenderischen Nische, dient nur um die dicksten Zahlen zu präsentieren.
Du baust dir hier ein Szenario das es einfach nicht gibt und du damit nur diesen ganzen Fanboykindergarten noch weiter anheizt. Du bist halt genau das was du beschreibst nur in Rot statt Blau. Aber lass mich raten damit fühlt man sich natürlich viel überlegener und besser
 
  • Gefällt mir
Reaktionen: MalWiederIch
@Pizza!
Ich rendere mit der CPU CAD Projekte in 3D Ansichten.

Während dem Konstruieren läuft die CPU 99% der Nutzungszeit im Idle.

Deswegen will ich nichts von AMD.

Erst recht nicht, da es bei Software außer Spielen zu Treiberbugs kam, die es bei Blau nicht gibt.

Bin aber nur einer von wenigen.
 
Oh, da würde mich interessieren, was du da als Software konkret zum Konstruieren und rendern verwendest?
 
Trinoo schrieb:
was passiert eigentlich mit den ganzen Intel Hatern, wenn Intel in 2-3 Jahren mal wieder die Nase vorn hat? verlassen die dann CB? und was macht CB wenn es gefühlt 90% der User verliert? ;)

dieses gebashe ist so ein Kindergarten...
AMD ist technologisch so weit weg, wie soll das gehen?
 
  • Gefällt mir
Reaktionen: JarlBallin
B3rry schrieb:
Du baust dir hier ein Szenario das es einfach nicht gibt
Passiert hier täglich in den Diskussionen.
AMD wird regelmäßig von Intel Fans schlecht geredet weil es im Idle ein paar Watt mehr sind. Wenn man dann den doppelten Verbrauch beim Gaming anspricht, heißt es plötzlich dass es nicht schlimm ist. Strom kost ja nix.

Ich hab beides zu Hause, den 7800X3D, einen 13700K und 13700KF.
Beim Videos gucken hat der Intel halt seine 15 Watt weniger.
Beim zocken hab ich halt 20-60 Watt weniger. Beide Systeme sind OK.
 
  • Gefällt mir
Reaktionen: eXe777, JarlBallin, iron_monkey und 2 andere
Und das was du jetzt machst ist nicht genau das gleiche ? Wie gesagt du bist halt genau so ein Fanboy nur in Rot und machst es nicht besser.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Ja genau, AMD ist ja so weeeeeeit vorne! Diese Aussage kann und darf man NUR auf die Effizienz beziehen, nichts anderes! Intel hält dagegen, auch wenn der Prozess ja laut dieser Aussage jahre hinterher hinkt... bla bla. Immer dieses AMD Fanboy Gesülze hier. Ich habe beides gehabt, und beides hat Vor sowie Nachteile. Es nervt einfach nur, wie "fokussiert" in diesem Forum die Leute darauf sind, immer die "AMD ist ja so effizient Brechstange" zu nutzen.... auch die nicht objektiven Moderatoren hier. Alles ist Pro AMD. Wenn man bei PCGH schaut, sind die Ergebnisse sowie die Diskussionen ganz andere, genau wie die CPU Charts. Am Ende tun sich die Chips absolut nichts was den Verbrauch angeht in Reallife Anwendung, ohne Betrachtung und Zurate ziehen von "Cinebench" oder anderen Spielchen, die für Testzwecke eben ein Ergebnis liefern "müssen", mal in die eine, mal in die andere Richtung geschönt!

Warum laufen Ryzen X3Ds denn so warm, wenn die angeblich ja so effizient sind? Ein 65W verbrauchender 7800x3D wird in Baldurs Gate 3 genau so warm, wie mein 140W verbrauchender 14900K. Was ist da technologisch Jahre voraus?

Generell: Ich bin kein Fanboy. Ich habe aktuell Intel. Davor war es ein 3900x, ein 5900x, ein 5800x3D und im Zweitrechner im Haushalt ist ein 7800x3D.

Daher meine Meinung: Wenn man hier CPUs testet und empfiehlt, sowie bewertet, dann sachlich bleiben und nicht immer "AMD ist besser" und "Intel Brechstange" raushauen am laufenden Band. Keiner ist besser oder schlechter, und wenn uns IT-/Hardware-/Gaming Freaks so etwas wie Effizienz und Stromverbrauch interessieren würde, bei dem ganzen Wulst an Kosten im Jahr die man Abseits dessen hat, was ein PC da im Jahr verursacht (sagen wir mal lächerliche 100€ mehr oder weniger), dann würden wir andere Hobbies haben, und zwar welche, die draußen an der frischen Luft ablaufen und keine Kosten verursachen, die auf einem Stromzähler erfasst werden!

Wie ich immer sage: Steckt euch beim nächsten Lesen oder Verfassen des nächsten FanBoy Posts ne Fluppe an. Die kostet mehr, als der Unterschied im Verbrauch zwischen Intel und AMD auf den Tag gerechnet Gewichtung hat!
 
  • Gefällt mir
Reaktionen: Mar1u5, Ben_computer_Ba und MalWiederIch
Pizza! schrieb:
Mal 2 Beispiele warum Intel Fans witzig sind.

1. Gehen in die Tests von Gaming Benchmarks und argumentieren dann mit mehr Anwendungsleistung des Intel.
Nicht jeder kommt wie du mit der Leistung eines i5-13500 aus oder nutzt den PC nur zum Zocken?
Pizza! schrieb:
2. Ignorieren den extrem hohen Lastverbrauch von Intel CPUs, aber meckern dann dass die 10 Watt mehr von AMD im Idle super schlimm sind.
Der „extrem hohe Lastverbrauch?
IMG_1946.jpeg

45W mehr sind nicht wenig, aber auch nichts was die Welt verändert, sofern man nicht 24/7 Last hat - und wer hat das mit einem Desktop?
Pizza! schrieb:
Wer nur zocken will, greift am sinnvollsten zum 7800X3D oder 5800X3D. Top Leistung und wenig Verbrauch.
Richtig - aber es soll Leute geben die ihren Rechner nicht als Konsole missbrauchen.

Habe eigentlich auf den 7900X3D gehofft - technischer Müll.
Der 7950X3D lag „damals“ bei 800€ - zu teuer für das Gebotene.
Da blieb nur der 7800X3D für 450€ - 8 Kerne, i5-13500 Leistung …
Der 13700K war dann der „Kompromiss“ mit entsprechendem Speicher für 120€ keine 2% langsamer in Spielen als ein 7800X3D, 0,008€/h Mehrkosten für Strom, 50% Mehrleistung in Anwendungen.
Als Allrounder die deutlich (!) bessere CPU.
Pizza! schrieb:
Wer nur Anwendung nutzt nimmt sich einen 7950X oder 14700K oder 13900K.
Warum keinen 13700K? Oder auch weniger, je nach benötigter Leistung - kurz, pauschal ist das Schwachsinn :)
Und viele tun an Ihrem 2,3,4.000€ Rechner eben nicht „nur“ Zocken oder „nur“ arbeiten ;)
Pizza! schrieb:
Bei sowas entscheidet dann eher welche Anwendung von was profitiert. AMD hat zwar ein paar Prozent weniger Leistung, dafür aber auch gern mal an die 20/30/40% weniger Verbrauch.
IdR. 20%. Aber eine X3D hat ja wie gesagt eine gute Zeit auch einen unverhältnismäßigen Aufpreis gekostet.
Trotz der geringen Multicore-Leistung hätte ich für den teureren 7800X3D 4.000 Stunden zocken müssen um die Differenz an Stromkosten etwas zu sparen … ein Witz :p
Pizza! schrieb:
Wer zockt und Anwendungen nutzt findet bei beiden was.
Bei AMD Top Leistung und relativ wenig Verbrauch mit dem 7950X3D
Zu teuer …
Pizza! schrieb:
, mit dem kleinen Nachteil dass die Zuordnung der Kerne nicht immer perfekt funktioniert plus Idle Verbrauch nicht so gut.
Bei Intel sowas wie den 13700K oder 14700K, die leider allgemein ( Gaming und Anwendungen) sehr viel Strom schlucken und zum Teil auch eine sehr starke Kühlung brauchen.
40W mehr bei Vollast bei der dicksten CPU, 40W mehr in Spielen …
Wer solch einen kleinen Kühler hat, hat sowieso etwas falsch gemacht.
Stromkosten fallen für 40W 0,0108€ an - gerade mal ein Cent und wie oft kommz der normale berufstätige Mensch zum Zocken? :rolleyes:
Pizza! schrieb:
13900KS und 14900KS sind da einfach nur verschwenderische Leuchtturmprojekte die für sehr wenige Leute wirklich von nutzen sind.
Vermutlich da wo Geld keine Rolle spielt - für mich auch nichts. Aber klar, ein Prestige-Produkt das nur in geringen Stückzahlen verkauft wird, eben wie schon immer bei den KS-CPUs …
Pizza! schrieb:
Erschwerend kommt für den 14900KS noch der hohe Preis dazu. Alle anderen CPUs sind aktuell deutlich günstiger.
Das war auch schon immer so.
 
  • Gefällt mir
Reaktionen: Mar1u5
rafiibs schrieb:
Mal abseits von deiner Emotion...

  • 3D Falten des Speichers
  • des CPU Aufbau generell
  • der Fertigung generell
  • APU... wo ist da Intel? Auf dem Parkplatz?

Das sind nur die offensichtlichen Dinge. Da ist ist nicht einmal die Energieeffizienz aufgelistet. Es geht auch weniger um Games. Schau dir mal an wie AMD im Bereich Server aufholt und womit. Technologisch liegen da Lichtjahre dazwischen. Wenn intel nicht diese krasse Marktmacht hätte wäre das schon bei 80 zu 20 für AMD.

Das ist nicht Fanboy Gelaber, das sind einfach technologische Fakten.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: eXe777, LamaMitHut und JarlBallin
Pizza! schrieb:
Passiert hier täglich in den Diskussionen.
AMD wird regelmäßig von Intel Fans schlecht geredet weil es im Idle ein paar Watt mehr sind. Wenn man dann den doppelten Verbrauch beim Gaming anspricht, heißt es plötzlich dass es nicht schlimm ist.
Die Sache ist eher, dass die Käufer von 13900K/14900K das wirklich nicht juckt.
Es wird in den Warenkorb gelegt was den längsten Balken hat. Ob der PC nachher 3000€ oder 6000€ kostet interessiert das Klientel überwiegend auch nicht.
Und dann kommt da noch die Minderheit hinzu, die sich die Topmodelle tatsächlich mit der Absicht kauft nochmal Stunden und Tage ins Übertakten stecken.
Selbstverständlich gehen damit Ram Kits für >500€ einher, Mainboards für 1000€ oder sowas wie ne Asus Matrix 4090.

Das Karussel zu dieser Thematik, analog Nvidia/AMD dreht sich schon im Kreis seitdem ich mich für Hardware interessiere. Es wird nicht aufhören. Es ist schon alles dazu gesagt worden, nur noch nicht von jedem 😅
Niemand muss seine Käufe oder Hobbies rechtfertigen, aber mit welcher Vehemenz teilweise Argumente verdreht manchmal doch wieder amüsant.


'Xander schrieb:
Ich rendere mit der CPU CAD Projekte in 3D Ansichten.
Während dem Konstruieren läuft die CPU 99% der Nutzungszeit im Idle.
Deswegen will ich nichts von AMD.
Wenn der PC 99% idled hätte auch ein kleiner NUC gereicht, dann hättest du wirklich einen Bruchteil des Stromverbrauchs der dir ja so wichtig ist. Fehlkauf würde ich sagen :lol:
rafiibs schrieb:
Warum laufen Ryzen X3Ds denn so warm, wenn die angeblich ja so effizient sind?
So kann man auch seine Unwissenheit rausposaunen. Die X3D Chips werden heißer weil der Cache gestapelt ist und unter dieser Schicht wirds eben auch mit weniger Watt schnell heiß.
 
  • Gefällt mir
Reaktionen: JarlBallin
Pizza! schrieb:
Bei AMD Top Leistung und relativ wenig Verbrauch mit dem 7950X3D, mit dem kleinen Nachteil dass die Zuordnung der Kerne nicht immer perfekt funktioniert plus Idle Verbrauch nicht so gut.
Kleiner Nachteil...hust

Sorry aber wer will sowas bei einer 500 Euro+ CPU haben ?
 
rafiibs schrieb:
Warum laufen Ryzen X3Ds denn so warm, wenn die angeblich ja so effizient sind? Ein 65W verbrauchender 7800x3D wird in Baldurs Gate 3 genau so warm, wie mein 140W verbrauchender 14900K. Was ist da technologisch Jahre voraus?
Sie sind tatsächlich effizient, was du am Verbrauch siehst, der weniger als die Hälfte vom Intel-Chip beträgt bei etwa vergleichbarer Leistung. Was die Intel CPU aber besser kann, ist Wärme abzuleiten, einfach dadurch, dass sie dünner ist und kein 3D-Stacking Cache auf CPU nutzt. Dieses Stacking ermöglicht es AMD, deutlich energieeffizienter zu sein, aber es begrenzt eben auch, wie viel elektrische Leistung man in den Chip pumpen kann.

Dieser Fehlschluss, hohe Temperatur bedeute schlechte Effizienz, wird ja von vielen gemacht, ist aber eben genau das. Das sind einfach zwei Punkte, die wenig miteinander zu tun haben. Entscheidend für die Temperatur ist halt die elektrische Leistung (und damit die gesamte Wärmeentwicklung) und eben die Wärmeleitfähigkeit. Die ist abhängig von Material, Fläche und auch Dicke des jeweiligen Materials. Darum verbessert es die Kühlung, wenn man CPUs köpft, und darum ist es auch offensichtlich, dass die X3D schlechter Wärme leiten - sie haben halt eine zusätzliche Materialschicht, die nicht optimal leitet.
 
Eigentlich kommentiere ich News hier nicht, aber... dieses ewige hin und her... Energiemonster...Leistungsmonster... ein eigenes Atomkraftwerk... Wie kann man bloß?... Natürlich hat High End seinen Preis...

, aber wer sich den KS zulegt, wird na logo seine guten Gründe haben und sei es, weil er für seine Bedürfnisse das letzte Quäntchen Leistung haben will. Ich habe mir als 12900K Besitzer bewusst keinen 14900K zugelegt. Warum? Weil ich auf den KS gewartet habe! :D Und ja, ich will es nochmal wissen, wie mein altes Z690 Board qualmt (mein 7200 RAM auf 6400 zurzeit gedrosselt, vielleicht laufen jene mit dem KS). Der Gedanke, dass der i9 14900 KS statt 5,2 GHz mit 6,2 GHz taktet und auf allen Kernen mit 5,9 GHz, ist mir mehr als ein kleines Freudentränchen wert. :love: Das geniale daran, dass für Games nie und nimmer 400 Watt verpulvert werden, alles sogar mit Adaptive Offset und Powerlimit-Limitierung geregelt werden kann, sodass das System auch mit einer Nicht-Custom-Wasserkühlung kühl und leise läuft und dennoch volle Leistung für Games ausfährt (v.a. in 4K), herrlich! :daumen: Für bestimmte Emulatoren ist die Intelkompatibilität auch mehr als wichtig. Gepaart mit der CPU-Power des 14900KS ein wahres Geschenk an Leistung.:king:

Fazit: Der 14900KS schließt die Generation LGA 1700 mehr als wuchtig ab!

PS Erinnert mich irgendwie alles an Leistungssport. Um die letzten Tausendstel schneller zu werden, benötigt es nahezu den größten Aufwand.:hammer_alt:
 
  • Gefällt mir
Reaktionen: Sotek und Ben_computer_Ba
ruthi91 schrieb:
Wenn der PC 99% idled hätte auch ein kleiner NUC gereicht, dann hättest du wirklich einen Bruchteil des Stromverbrauchs der dir ja so wichtig ist. Fehlkauf würde ich sagen :lol:
Du musst das verstehen. Er braucht halt die stärkste Singlecore-CPU aller Zeiten, um so schnell wie möglich wieder im idle zu sein. ;-)
 
  • Gefällt mir
Reaktionen: iron_monkey
Pizza! schrieb:
Ignorieren den extrem hohen Lastverbrauch von Intel CPUs, aber meckern dann dass die 10 Watt mehr von AMD im Idle super schlimm sind
Mit DDR5@6000 sind es eher 20-25W

Der kleine aber feine Unterschied: Gegen AMDs Idle Verbrauch kann man wenig bis nichts machen. Intels Brechstange hingegen kann jeder mit einem Powerlimit auf ein für sich sinnvolles Maß begrenzen.
Und mit Z-Board (vorzugsweise kein Asus) auch noch das (je nach Chip) hohe UV Potenzial nutzen.

Hier mein 13700K (ohne dGPU), jedes AM5 System braucht dabei an der Steckdose das doppelte oder mehr:

LowLoad.jpg
 
  • Gefällt mir
Reaktionen: Mucho79, Dogbrothers und Ben_computer_Ba
Zock schrieb:
Der 7950X3D kostet aktuell 559€, wer jetzt einen 14900KS holt dem ist echt nicht mehr zu helfen es sei den man rüstet von der 12er Generation auf.
RogueSix schrieb:
Als 4K Gamer bin ich eh 99% der Zeit im GPU Limit und würde die negativen Aspekte des 14900KS in Sachen Leistungsaufnahme de facto nicht zu spüren bekommen. Ich "spiele" Prime95 nur als RAM-Test und sonst kommen extreme Lasten im Alltag nicht vor.
Also mir käme von Frankensteins Hybrid-Monstern (P/E, 3D/non-3D) keiner auf's Board - weder Intel noch AMD. Zumindest nicht so lange nicht endlich mal Ruhe bei den Scheduler-Umbauten eingekehrt ist, von fauligen CPU-Treibern mal ganz abgesehen.

Mir ist auch klar, dass ich da etwas altbacken bin. Bin halt aber auch alt. :freak:

HT/SMT hat paar Jahre lang auch nur Kopfschmerzen bereitet. Das läuft ja nun langsam, von Sicherheit mal abgesehen. :evillol:

Ich bin froh, dass wir diesen ganzen Chipsatz-, AGP(-Gart)-, USB3.0-Treiber-, Dual-Core-Optimizer- und BT-Stack-Mist endlich hinter uns haben. Da möchte ich ganz sicher nicht mehr mit anfangen.

Bei so mancher Linux-Distribution muss ich noch Firmware nachinstallieren. :freak:
 
Zuletzt bearbeitet:
Zurück
Oben