Test i9-14900K, i7-14700K & i5-14600K im Test: Die letzten Core-CPUs ihrer Art gegen AMD Ryzen 7000

Jiddis schrieb:
Allgemein wird bei CB eine sehr AMD freundliche Haltung gefahren und eine sehr negative Intel Stimmung verbreitet, die Community ist eindeutig gefärbt.
Findest du?
Ich finde die Artikel noch einigermaßen Neutral, auch wenn die Podcasts manchmal sehr viel eigene Meinung preisgeben, sachlich ist das meiste immer noch.
Ich würd mich jetzt auch als partiell als Fanboy aufgrund ehemaligen Erfahrungen betitulieren, aber schlussendlich zählt für mich nur der technische Aspekt von dem ich mich unabhängig der Firma überzeugen lasse.
Und bis auf paar User hier im Forum die immer richtig abgehen wenn es wieder im Lagerkampf losgeht ist das doch alles gemächlich.

Am Ende muss ich sagen, dass ich mit meinem neuen 14900K auch zufrieden bin, ich reglementiere die CPU nicht, hab ihr "Open End" gegeben was mein MORA packt, das sind gute 320-350W bei Full Load wenn man es drauf anlegt und der restliche Idle verbrauch richtet sich ja auch stark nach der "Last".

In meinem Server idelt "eigentlich" auch ein 13600T und der braucht aber VIEL mehr da viele VMs usw im Hintergrund laufen. "Idle" ist also immer ein schwammiges Wort.
Allein schon zig Anwendungen/Services im Hintergrund sind dann schon kein "Idle" mehr.

Dein Screen ist zwar beeindruckend und klar machen aktuelle Intel CPUs sowas, aber am Ende ist das unrealistisch.

Ich hab nur schwer geschluckt, als ich dieses Diagramm begutachtet habe.

1699978489337.png


Intel hat hier einfach fertig.
So gern ich gerade selbst auf Intel setze - man muss einfach zugeben, wenn man in dem Bereich Effizienz verloren hat und das hat Intel, egal wie man seinem Ego einreden möchte, dass es nicht so ist, es ist einfach technischer Fakt.
Verflucht, der 7800X3D verbraucht beim zocken einfach eiskalt nur im Schnitt 48W, WAS IST DAS!??!?!?

Ich versuch das etwas überspitzt in Szene zu setzen, weil es tatsächlich extrem absurd ist, wenn man mal so drüber nachdenkt.
(mir persönlich ist das zwar egal, soll der PC doch 1KW fressen, interessiert mich selbst jetzt nicht die Bohne, nur weil unser Land im Thema Energieversorgung ver.... ach egal lassen wir das)....
 
  • Gefällt mir
Reaktionen: ALPHA-S, SweetOhm und Jiddis
Bin auch vom 5800X3D überrascht, dass der beim Gaming immer noch im oberen Drittel mitmischt und dabei immer noch effizienter ist, als die meisten neueren Intel CPUs.

Klar, spätestens wenn es um Multicore Arbeitstätigkeiten abseits des Gaming Bereichs geht, zieht jede modernere CPU dem 5800X3D die Hosen aus. Wer aber nur normale Bürotätigkeiten (Office, Internet etc.) mit gelegentlichen ZIPs packen/entpacken durchführt und sonst nur Gaming eine wichtige Rolle spielt, ist der 5800X3D immer noch ein modernes Stück Technik.
 
  • Gefällt mir
Reaktionen: ALPHA-S
Jiddis schrieb:
Allgemein wird bei CB eine sehr AMD freundliche Haltung gefahren und eine sehr negative Intel Stimmung verbreitet, die Community ist eindeutig gefärbt.
Empfinde ich nicht so.

Klar gibt es immer irgendwo Lagerbildungen, was in der Regel aber durch die Beteiligten selbst geschieht, und sei es wegen unreflektierten Fan-Gedudel, kognitiver Verzerrungen oder sonstigen sozial-psychologischen Gründen.

Ansonsten finde ich das hier sehr neutral. Eine grundsätzliche Präferenz kann ich nicht erkennen.
 
  • Gefällt mir
Reaktionen: LukS und TobiD79
Und mich juckt es einfach nur ,hätte ich meinen KS nicht so günstig geschossen wäre schon ein 7950X3D am werkeln. Ich verstehe nur nicht wie man jetzt noch einen 14er Intel kaufen kann. Der AMD ist bis auf die Bootzeit die klar bessere CPU wenn man den Verbrauch sieht und die geringe Abwärme die er erzeugt echt der Hammer. Und der Sockel ist noch relativ frisch und es wird noch einiges in Zukunft darauf passen, bei Intel ist Schluss.
 
Ich denke die meisten Käufer (so wie ich) haben noch Z690 und machen ein Sidegrade von z.B. 12700k auf 14700k, hat mich mit Verkauf der alten CPU 280 Euro gekostet. Bin aber trotzdem am überlegen den Unterbau auf AMD 7800x3d oder 7950x3d zu packen, da die Prozzi Abwärme mit nem NHD15S kaum zu bewältigen ist, beim gamen kein Thema, aber sobald workload drauf kommt dann geht die Turbine los, hab die Karre mit Intel Specs eingestellt und bevor ich wieder auf Wasser umschweife, dann wechsel ich lieber. Sind halt so Überlegungen, da bin ich bestimmt nicht der einzige. Alle neuen bis zum 14600k sind aber echt ok.
 
Zock schrieb:
Ich verstehe nur nicht wie man jetzt noch einen 14er Intel kaufen kann.

Upgrade / Multifunktionaler Prozessor abseits vom Spielen / Intel Fan / Budget.
Gründe gibt es schon - als neuer reiner Gaming PC - wohl eher nicht zwingend die 1. Wahl.
 
Unti schrieb:
Ich hab nur schwer geschluckt, als ich dieses Diagramm begutachtet habe.

Anhang anzeigen 1420340

Intel hat hier einfach fertig.
Der 14900K "säuft" über 200 Watt gegenüber dem 7800X3D mit 52 Watt in CP2077 ?!?
Das Vierfache ! Wie kann man sowas noch "schön reden" ? :freak:
 
Winter is Coming :smokin:
 
  • Gefällt mir
Reaktionen: Unti und SweetOhm
Unti schrieb:
So gern ich gerade selbst auf Intel setze - man muss einfach zugeben, wenn man in dem Bereich Effizienz verloren hat und das hat Intel, egal wie man seinem Ego einreden möchte, dass es nicht so ist, es ist einfach technischer Fakt.
Verflucht, der 7800X3D verbraucht beim zocken einfach eiskalt nur im Schnitt 48W, WAS IST DAS!??!?!?

Das stimmt, was du schreibst und ich sehe das auch so. Nur muss man so einen Prozzi nicht zum Zocken haben. Was ich noch vorhin vergessen hatte. Die fps zu begrenzen bringt auch noch mal ne Menge beim Zocken.

Und die 48 W vom 7800X3D sind im Vergleich super. Aber mein 12400f (Turbo/ fps begrenzt) braucht nur 28 W^^ unter Vollast. Also bis jetzt kann ich alles damit spielen. 48 W? pah, säuft wie ein Loch und ist Schweineteuer.^^
 
SweetOhm schrieb:
Der 14900K "säuft" über 200 Watt gegenüber dem 7800X3D mit 52 Watt in CP2077 ?!?
Das Vierfache ! Wie kann man sowas noch "schön reden" ? :freak:
Nur weil das CB so gemessen hat? - die Unfehlbarkeit der deutschen Hardwareszene?

ich verbrauche in CB2077 zwischen 65 und 135 Watt je nach Situation mit einem i7 14700kf was sollen das für seltsame Werte in der CB-Messung sein? Peak? Durchschnittswerte auf keinen Fall!

Die gelobten AMD X3D Systeme (Gesamtsystem) verbrauchen Idle an der "Steckdose" gemessen gern mal 80 bis 90 Watt oder mehr! Da verbraucht ein Intel System deutlich weniger.
Da man nicht 24/7 in 720P "zockt" kann das je nach Betriebsrat bedeuten das ein Intel System über das gesamte Jahr sparsamer ist als ein AMD X3D System durch die krassen Vorteile beim Idle Verbrauch.

Das will aber niemand aus der AMD-Gemeinde wahr haben. :daumen:
 
Jiddis schrieb:
Nur weil das CB so gemessen hat? - die Unfehlbarkeit der deutschen Hardwareszene?

... was sollen das für seltsame Werte in der CB-Messung sein? Peak? Durchschnittswerte auf keinen Fall!
Haben sich bestimmt vermessen, kann ja mal vorkommen.
Ein Jeder weiß, wer über das gesamte Jahr sparen will/muss, greift zum Effizienz/Idle King INTEL !!
Wir/die INTEL-Gemeinde wollen/will das so "wahr" haben ... :daumen:

p.s. ist zwar ein bischen off topic, aber wenn "mutig" bist, einfach anklicken und genießen/lesen ;)

https://www.pcgameshardware.de/Komp...ra-Supercomputer-Exascale-Wettrennen-1433838/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: H1ldegunst
SweetOhm schrieb:
Haben sich bestimmt vermessen, kann ja mal vorkommen.
Nein, die Messung ist korrekt aber:
Cyberpunk 2077: PL 720p, Preset „RT-Niedrig“, DLSS „Ultra-Performance“, Reflex aus
Je höher die Auflösung, desto geringer der Unterschied:


Das ist Full HD mit einer RTX4090 aber so zockt fast Niemand.
In 1440p ist der Unterschied vielleicht noch 50 Watt und in 4K
mit Path Tracing also im GPU Limit bestimmt nur noch 25 Watt.
 
  • Gefällt mir
Reaktionen: SweetOhm
Zock schrieb:
Und mich juckt es einfach nur ,hätte ich meinen KS nicht so günstig geschossen wäre schon ein 7950X3D am werkeln. Ich verstehe nur nicht wie man jetzt noch einen 14er Intel kaufen kann. Der AMD ist bis auf die Bootzeit die klar bessere CPU wenn man den Verbrauch sieht und die geringe Abwärme die er erzeugt echt der Hammer.

Naja, dann schau mal in die Foren. Die AMDs mögen effizient sein, aber heiß werden die Kameraden trotzdem. Unter Last sind die ruckzuck auch bei 90°C+.

Im Übrigen würde ich weitere Nachteile (kommt natürlich individuell darauf an, wie sehr einen das stört) nicht unerwähnt lassen: Du musst bei den AMDs immer Software im Hintergrund laufen haben (Ryzen Master oder wie der Kram heißt).
Und insbesondere beim 7950X3D musst Du zudem die Xbox GameBar ständig aktiv laufen haben plus den "Game Mode" von Windows 11 aktivieren, der als teilweise kontraproduktiv gilt und sich bei einer nicht unerheblichen Zahl von Spielen eher negativ auswirkt. Alleine das ist für mich schon ein komplettes K.O.-Kriterium.

Lange Bootzeiten + Xbox GameBar + Game Mode + Erfordernis Software wie Ryzen Master laufen lassen zu müssen = Für mich persönlich danke, aber nein danke...
 
Wirklich? Warum sind die Tools verpflichtend? Beim 7950X3D vielleicht noch nachvollziehbar, um die Kernallokation zu beeinflussen? Aber alle anderen? Fehlt da eine Differenzierung im Text, weil "insbesondere" der 7950X3D genannt wird?

Zumindest hier laufen weder Xbox, Game Mode oder Ryzen Master. Was die Bootzeiten betrifft, die sind tatsächlich gewöhnungsbedürftig.
 
@Vigilant

Ich kann nichts dazu. Der 7950X3D benötigt für sein Scheduling/Allokation nun mal zwingend die Xbox Game Bar und den GameMode, weil ja nur die Hälfte der Kerne an den 3D Cache angebunden ist und die AMD CPUs im Gegensatz zu Intel keinen Hardware Scheduler (Thread Director) haben.

Da der User "Zock", auf den ich geantwortet habe (bitte Zitat beachten) ausdrücklich vom 7950X3D gesprochen hat, habe ich mich mit meinem "insbesondere" auf dessen spezifische "Nachteile" (wie gesagt eventuell Ansichtssache... vielleicht gibt es auch für manche nichts Schöneres als die Xbox GameBar) konzentriert.
 
  • Gefällt mir
Reaktionen: Vigilant
SweetOhm schrieb:
Der 14900K "säuft" über 200 Watt gegenüber dem 7800X3D mit 52 Watt in CP2077 ?!?
Das Vierfache ! Wie kann man sowas noch "schön reden" ? :freak:
Man muss dazu noch sagen, dass der 14900K hier auf Computerbase sogar noch relativ gut bzw. nicht ganz so desaströs abschneidet.
bei PCGH sieht die Sache sogar noch viel schlimmer aus.

Der 13900K zieht dort in CP2077 phantom liberty nämlichn bereits irrsinnige 223W! Da muss man denke ich kein Prophet sein um in etwa abschätzen zu können wo der 14900K / 14900KS aufschlagen wird.

1700001756849.png

Ich war deswegen so frei eine Prognose aufzustellen wie sich dies mit dem 14900KS in etwa verhalten wird.

13900K 223W
14900K 233W?
14900K 243W? Viel besser kommt er bestimmt nicht weg.

1700001725879.png


Ich bin gerade am überlegen was ich machen soll, wenn der FPS/W Balken beim 15900KS noch kleiner wird und sich der Verbrauch zugleich noch weiter in Richtung 300W entwickelt. Ich glaube an dem Punkt macht es keinen Spaß mehr irgendwelche Vergleiche anzustellen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Neronomicon schrieb:
Und die 48 W vom 7800X3D sind im Vergleich super. Aber mein 12400f (Turbo/ fps begrenzt) braucht nur 28 W^^ unter Vollast. Also bis jetzt kann ich alles damit spielen. 48 W? pah, säuft wie ein Loch und ist Schweineteuer.^^
Das mag wohl wahr sein^^.
Und nein einen 14900K braucht man natürlich nicht nur zum zocken, aber "zocken" ist am energie-sparsamsten - sofern man sich an das "open End" hält von der CPU bei Multicore rödelt der einfach eiskalt seine Watt solange nach oben bis deine Kühlung aufgibt. Deshalb ist die CPU beim zocken sogar noch am sparsamsten (wenn man von reinem - fast nix tun und offen haben - idle absieht).
Und einen 12400F kann man natürlich nicht mit allem vergleichen, in meinem Szenario würde die CPU in 4K vll. noch nicht limitieren, in WQHD mit ggf. DLSS bei HighFPS schon wieder mit einer 4090^^.
Natürlich hast du aber recht, aus dieser Perspektive ist alles andere stromhungrig^^.
Somit - jeder hat seinen Fokus auf einem bestimmten Teil der Hardware - meiner liegt auf "das Zeug muss abnormal gekühlt werden, leise sein, und einfach Leistung haben, Strom egal".
Solange am Markt die Auswahl besteht sehe ich hier kein Problem.

Jiddis schrieb:
ich verbrauche in CB2077 zwischen 65 und 135 Watt je nach Situation mit einem i7 14700kf was sollen das für seltsame Werte in der CB-Messung sein? Peak? Durchschnittswerte auf keinen Fall!

Die gelobten AMD X3D Systeme (Gesamtsystem) verbrauchen Idle an der "Steckdose" gemessen gern mal 80 bis 90 Watt oder mehr! Da verbraucht ein Intel System deutlich weniger.
Da man nicht 24/7 in 720P "zockt" kann das je nach Betriebsrat bedeuten das ein Intel System über das gesamte Jahr sparsamer ist als ein AMD X3D System durch die krassen Vorteile beim Idle Verbrauch.

Natürlich sind die nicht unfehlbar das wollte ich und hab ich auch nicht behauptet, meine Güte.

Kp, hab CP2077 seit gestern nach Einbau nicht gestartet aber bei Diablo 4 hats einfach nur beim Ingame sein in der Stadt schon gereicht, dass der 14900K locker mal 90-140W braucht und das bei einem Load von 20% oder bisschen mehr.
Wobei ich sagen muss dass ich die PL1/PL2 Leistungsgrenze angehoben habe.
Der Wert steht bei mir bei Long Power Duration auf 290W und Short Power Duration auf 350W.
Das macht noch einen kleinen Unterschied, da er einfach an der Kotzgrenze läuft, ändert aber nix mehr dran, dass die 65W bestenfalls Minimum sind, die hatte mein 13700K auch und vor allem musst du sehen, dass der 14700KF trotzdem noch 4 E-Cores weniger hat, die brauchen auch paar kleine Watt wenn die belastet werden.

Von gelobten AMD Systemen hab ich nichts gesagt und auch bin ich kein AMD Jünger sonst hätt ich wohl keine Intel Systeme als Desktop und Server (gut mein Vorgängersystem vor Alder Lake war ein 5950X, 3900X, 2800X usw. und mit denen war ich super zufrieden) - aber es ist faktisch bewiesen, dass die weniger brauchen und niemand der sich eine Gaming CPU kauft zockt auf dem 3000 Euro PC wenig.
WTF - an manchen Tagen sind da locker 5-10 Stunden Ingame Zeit drin.
Von 24/7 nicht die Rede, aber vom "Idle" in >80% der Zeit kann nicht die Rede sein und vor allem braucht eine 7800X keine 80-90 im Idle, das ist dann Teillast, wir reden hier von stupiden Idle, ich hab schon drauf hingewiesen was purer Idle ist, da läuft im Hintergrund quasi kein Task/Service, nichts.

Das musst du schon etwas auftrennen - gerade läuft als direktes Beispiel auf meinem Desktop hier nichts, ich bin auf meinem Server in der Arbeitsumgebung, im Hintergrund läuft Discord, Browser mit 1 Tab und eine RDP Sitzung und paar Monitoring Tools, da hab ich 10W Idle.
Aber gnade mir Gott, wenn ich auch nur den Explorer 2x öffne und vll. Spotify starte oder noch etwas anderes kurz mache, dann steigt das Teil mal ganz hart auf 20-40W.

Das wird dann bei AMD ohne es jetzt gegen getestet zu haben ähnlich aussehen und dann sich vermutlich bei 30-50W einpegeln und wenn der Grundverbrauch bei AMD halt 25W sind und vom Intel bei keiner Belastung 8W, dann spielt das absolut keine Rolle und dafür die CPU zu verreißen ist nur eine Ausrede weil du dir deinen Kauf schönreden willst und nicht akzeptieren willst, dass Intel hier einfach raus ist was das angeht.

Mir gefällt das auch nicht, aber ich hab da ein anderes Mindset, für mich hat das selbst in meinen Usecases keine Gewichtung.
Strom egal, Kühlung hält das locker und wayne.
Aber rumzulamentieren bringt hier nichts, Akzeptanz und so....
 
  • Gefällt mir
Reaktionen: ALPHA-S
An sich kann die APO Einführung beim Raptor Lake Refresh als Neuerung ja schon gefallen (die die Nutzung der ("Big") P und ("Little") E-Kerne im Prozessor in einigen - bisher aber noch wenigen - Spieltiteln optimieren kann), aber wieso Intel das dann hardwaretechnisch nicht auch für die älteren LGA1700 CPUs implementiert, finde ich unverständlich und leider alles andere als kundenfreundlich.

 
  • Gefällt mir
Reaktionen: engineer123 und Unti
RogueSix schrieb:
Ich kann nichts dazu. Der 7950X3D benötigt für sein Scheduling/Allokation nun mal zwingend die Xbox Game Bar und den GameMode, weil ja nur die Hälfte der Kerne an den 3D Cache angebunden ist und die AMD CPUs im Gegensatz zu Intel keinen Hardware Scheduler (Thread Director) haben.
Alles klar, verstanden. Der Beitrag könnte auch so gelesen werden, dass alle 7000er gemeint wären und der 7950 hervorgehoben werden sollte. Ansonsten hast du natürlich Recht. Eine CPU sollte out of the box im vollen Umfang laufen, ohne zusätzliche Software.
 
Zurück
Oben