Test High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

Krautmaster schrieb:
up to u. 120W wären interessant da ich mein i9 genau auf diesen Wert gedrosselt habe (im Bench ebenso mit 120W Short Power Limit also fix 120W). Weiß aber auch dass das natürlich weit weg vom Maximum an Effizienz ist.
50 auch gern.
Habs in deinen Thread gepostet, Total Time @120W PPT / 82W Cores wäre 0:15:09,07.

50W wird schwierig, es gehen ja allein schon Idle 20-40W für SOC und IO Die weg :D
Ich glaub da dürfte die Performance ziemlich einbrechen weil für die Cores fast nix mehr bleibt. Zwei Chiplets die sich dann 10-20W teilen dürfen 🤣

Da bricht die Leistung dann von 4.7-5Ghz Allcore auf 2.4Ghz ein, mit 65W PPT wären wir immerhin schon bei 3,4-3,6 Ghz. Ist aber schon deutlich ausserhalb des Sweet Spots, der dürfte um die 4.5Ghz liegen, dafür braucht es um die 100W PPT und wir liegen zwischen 4.3 und 4.6 Ghz. CPU Cores ziehen dann um die 60-62W, Rest geht wieder auf IOD und SOC.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Krautmaster
Ich finde es erstaunlich, dass keiner bemerkt, dass Intel auch mehr verbraucht als AMD, sogar knapp mehr, wie die Mehrleistung zu AMD ist. Das ist sowohl bei dem 13900K vs 7950X als auch beim 13700K vs 7700X der Fall. Aber es wird ständig nur von der Gamingleistung geredet und das man AMD gar nicht kaufen sollte, ist aber einfach totaler blödsinn. So hat Intel eben mehr Leistung bei mehr Verbrauch erzielt, und alle jubeln.
Wenn man auch noch mehr als nur Gaming betrachtet, dann zieht der 7950X mit Leichtigkeit an den 13900K vorbei, bei sogar weniger Verbrauch. Beim 13700K vs 7700X machen sicht dann die zusätzlichen Kerne des 13700K bemerkbar, klar 8 Kerne gegen 8 Kerne plus 8 E-Cores.

Ich hatte eine umfassendere "Analyse" im Thread zum Test der neuen Intel-Prozessoren geschrieben. Vom Pronzip sind sie im Mittel gleichauf, wenn man mehrere Aspekte einberechnet, von abhängen ist hier echt nichts zu sehen. Aber es zählt ja nur Spitzenleistung bei Spitzenverbrauch.

Leider fehlen bei CB noch Tests zu Spielen bei diversen Limits der Leistungsaufnahmen, was immerhin bei Anwendungen schon gemacht wurde im Test zu 13900K und Co. Wäre nämlich schon interessant, wie die Leistungen bei 88W liegen. Da wied win 7700X und 5800X3D kaum Leistung verlieren, weil sie im Spielbetrieb im Schnitt sogar noch unter dem Limit liegen und nur in einigen Spielen marginal Leistung verlieren dürften. Aber wie sich da die Intels verhalten, ist unklar. Gerade in Kompakten Gehäusen ist die Leistung bei limitierter Leistungsaufnahme interessant.
Edit: Interessant ist, dass bei Anwendungen der Vorteil durch die E-Cores sinkt, wenn man die Leistungsaufnahme drosselt. Im Vergleich 13700K vs 7700X sind die beiden Praktisch gleichauf, wenn man beide auf 65W limitiert, während der Intel bei 142W (glaube ich was das) noch recht deutlich vor dem 7700X lag. Die P-Cores werden bevorzugt behandelt und so verlieren die CPUs an Extraleistung, wenn nicht genug für die E-Cores übrig bleibt.

Von einen neuen AMD hab ich noch die Finger gelassen, weil der Gesamtpreis für einen Umstieg sich aktuell bei mir nicht lohnen und weil ITX-Boards noch Mangelwahre sind.
Was ich noch zu bemängeln habe bei AM5 ist der dicke IHS und der Pseudo-Kühlerkompatibilität, was mich ebenfalls eher zum Abwarten bewegt, wenn ich nicht weiß, ob ich überhaupt meine LP-Kühler darauf montiert bekomme.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Viper816, cookie_dent, daknoll und eine weitere Person
irgendwie werden die Flagschiff CPUs degradiert, sind ja nicht nur GamingCPUs xD
 
  • Gefällt mir
Reaktionen: Anon-525334, joshlukas, Bassmensch und 2 andere
"von theoretisch bis praxisnah"

Dass man bei einem CPU Relase-Test die Vorgaben des Herstellers nutzt, ergibt für mich Sinn. Aber in einem weiterem "praxisnahen" Test würden beide wohl eher mit DDR 5 6000 oder ähnlich laufen, insofern halte ich die Benchmarks eben nicht für "praxisnah".
 
  • Gefällt mir
Reaktionen: Icke-ffm
Ozmog schrieb:
Aber es wird ständig nur von der Gamingleistung geredet und das man AMD gar nicht kaufen sollte, ist aber einfach totaler blödsinn. So hat Intel eben mehr Leistung bei mehr Verbrauch erzielt, und alle jubeln.
Wenn man auch noch mehr als nur Gaming betrachtet, dann zieht der 7950X mit Leichtigkeit an den 13900K vorbei, bei sogar weniger Verbrauch. Beim 13700K vs 7700X machen sicht dann die zusätzlichen Kerne des 13700K bemerkbar, klar 8 Kerne gegen 8 Kerne plus 8 E-Cores.
Das Argument zieht nicht, da ein 13900K selbst bei 65 Watt in Spielen noch die Leistung des 7950X erreicht.
Bei 88 Watt ist er nach wie vor gut 10% schneller.

In Anwendungen ist der Ryzen 7950X bei 65 Watt/88Watt 13% schneller und bei 45 Watt sogar hinter dem 13900K. Ganz so rosig sieht das für AMD nicht aus, mal abgesehen dass der 13900K in Anwendungen sowieso überlegen ist. Primär wegen der höheren ST Leistung.
 
  • Gefällt mir
Reaktionen: Sotek
supermanlovers schrieb:
Okay man kann vielleicht noch 4-6 Jahre neue CPUs montieren, aber man erhält so nicht die neuen Standards von 2026-2028. USB 6.0, HDMI 3.0 whatever...
Deine Argumentation ist für mich noch nicht einmal nicht überzeugend, sondern erfunden.
AMD spricht von 2025+
Also 2022, 2023, 2024, 2025 und möglicherweise 2026. Da ist keine Rede von 2026-2028.
Bei Intel sieht es sicherlich so aus.
2021 --->2023 ---> Pazifik. 2023 --->2025 --->Pazifik. 2025 --->2027 --->Pazifik.
Zumal trotzdem auch bei AMD zu neuen CPUs auch aktuelle Platinen kommen werden.

Insofern ist deine Geschichte nur ein Märchen.

Und auch bei Intel, muss man mindestens über 100€ ausgeben, um wenigstens einmal USB 3.1 bekommen zu können. Und da habe ich nur ein Board gefunden. Wer mehr USB 3.1 haben möchte muss noch mehr ausgeben bei Intel. Ich mein, USB 3.0 hatte ich schon mit FM2+.

Bestimmt werden wir auch diesen USB 3.0 Rotz von vor 200 v. Chr. auch bei AMD und billigeren Boards sehen.
Denn für günstig wird es wohl noch lange dauern, bis mal USB 3.2 kommen wird. Ganz zu schweigen von deinen phantasierten USB 6.0.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Viper816
Ragnarök88 schrieb:
und bei 45 Watt sogar hinter dem 13900K. Ganz so rosig sieht das für AMD nicht aus,
Ja ne is ja auch klar wenn 40W für SOC und IOD draufgehen und nur 5W für 16 P-Cores und zwei CCDs bleiben während Intel 45W in seine Cores drücken kann 😂

Hier muss jeder schauen wo der Sweetspot der CPU liegt, bei Ryzen definitiv nicht bei 45W bei einem Dual CCD Modell.

Ragnarök88 schrieb:
mal abgesehen dass der 13900K in Anwendungen sowieso überlegen ist. Primär wegen der höheren ST Leistung.
Der 13900K in Anwendungen überlegen ? Schonmal gesehen was ich mit 120W Limit gepostet habe bei einem Handbrake / FFMPEG Encode ? Da wird ein 13900K auch mit doppelter Leistungsaufnahme noch geplättet.

Gerade in Anwendungen zählt ST Leistung nur in einigen wenigen Fällen (Adobe), der Rest profitiert eher von mehr P-Cores und/oder dem höheren L3 Cache.
 
  • Gefällt mir
Reaktionen: danyundsahne, Viper816 und muvmend
Hätte nicht gedacht, dass Intel doch so schnell wieder die Gaming-Krone holt. Das war ja für AMD nur ein relativ kurzes Intermezzo.
 
  • Gefällt mir
Reaktionen: PeriQue1337
Ragnarök88 schrieb:
Ganz so rosig sieht das für AMD nicht aus, mal abgesehen dass der 13900K in Anwendungen sowieso überlegen ist.
Echt?
Ragnarök88 schrieb:
Primär wegen der höheren ST Leistung.
Genau, ich kaufe mir einen 16 Kerner wegen der hohen Single Thread Leisung....

Ich finde eher das beide sehr gute CPU´s sind und mir (im Hinblick auf die sehr hohe Gesamtleistung) die 5% Unterschied, sofern ich denn zur Zielgruppe gehören würde, am Allerwertesten vorbei gehen würden.
 
t3chn0 schrieb:
War es nicht so, dass der 7950X deutlich besser performed wenn ein CCD deaktiviert ist? Das hätte mich noch interessiert.

Wobei man da sagen muss das es AMD selbst schuld ist, wenn man das nicht gebacken bekommt.

Mit dem Abschalten ist es halt nicht getan, da es Games gibt die damit skalieren:
Screenshot_20221103-091406.jpgScreenshot_20221103-091037.jpgScreenshot_20221103-091300.jpgScreenshot_20221103-091133.jpgScreenshot_20221103-090954.jpgScreenshot_20221103-091319.jpg
Krautmaster schrieb:
da bin ich eher überrascht dass das Big Little so gut funktioniert, also rein vom Scheduler. Gerade bei Games hätte ich da schlechte Frametimes erwartet wenn wieder was auf den E Kernen ausgelagert wird.
Es wurde sich halt die Mühe gemacht den Scheduler in Hardware zu gießen und mit Microsoft das abgesprochen zu bekommen.
 
  • Gefällt mir
Reaktionen: Hutzeliger und ThirdLife
Für Gaming lohnt sich aktuell tatsächlich Intel deutlich mehr. Wer es nicht eilig hat, kann aber einfach auf X3D warten. Wenn man sieht, dass der 5800X3D trotz reduziertem Takt rund 25% schneller ist das der 5800X, sollte Zen 4 mit 3D V-Cache den 13900K relativ leicht überflügeln. Dennoch Kompliment an Intel, was die da gerade für Kerne rausgehauen haben. Mit Zen 5 steht AMD ziemlich unter Druck, aber man munkelt ja, dass dieser massive Änderungen bekommen soll, was wieder auf einen ordentlichen Sprung hoffen lässt.
 
Intel hat das echt hinbekommen mit den komischen E-Cores. Hätte ich nicht gedacht. Wollte schon auf AMD umsatteln, aber nun ganz sicher nicht mehr.
 
  • Gefällt mir
Reaktionen: Hutzeliger
Ozmog schrieb:
Ich finde es erstaunlich, dass keiner bemerkt, dass Intel auch mehr verbraucht als AMD, sogar knapp mehr, wie die Mehrleistung zu AMD ist. Das ist sowohl bei dem 13900K vs 7950X als auch beim 13700K vs 7700X der Fall. Aber es wird ständig nur von der Gamingleistung geredet und das man AMD gar nicht kaufen sollte, ist aber einfach totaler blödsinn. So hat Intel eben mehr Leistung bei mehr Verbrauch erzielt, und alle jubeln.
Wenn man auch noch mehr als nur Gaming betrachtet, dann zieht der 7950X mit Leichtigkeit an den 13900K vorbei, bei sogar weniger Verbrauch. Beim 13700K vs 7700X machen sicht dann die zusätzlichen Kerne des 13700K bemerkbar, klar 8 Kerne gegen 8 Kerne plus 8 E-Cores.
Kritik ist hier sicher angebracht, aber ehrlich gesagt finde ich dieses "aber in Anwendungen" Argument ziemlichen Quatsch. Anwendungen schimpft sich zwar das Leistungsrating oder die Kategorie, aber es macht ja doch immernoch einen riesen Unterschied, ob das jetzt 32T Volllast sind oder nur 4, 8, 12, wie auch immer Threads Last. Die CPUs sind obenraus deswegen effizient, weil die Hersteller sie in das Powerlimit laufen lassen. Was in aller Regel wenig Leistung kostet, aber den Verbrauch begrenzt. -> deswegen legt der große Ryzen eben auch primär dort zu. Was aber eben dabei ein Problem ist, das wirkt ja nur, wenn man auch dem Ding entsprechend Last gibt. Ohne die Last greift das Limit entweder nicht oder nur teilweise. Sprich das Ding verhält sich ähnlich wie offene CPUs und nimmt sich was es bekommen kann.

Mein PC läuft nicht 24/7 Volllast, trotzdem habe ich 32 Threads in der CPU, weil wenn ich sie brauche, will ich sie nutzen. Große Teile am Tag nutze ich das aber nicht. Sicher wird es vielen ähnlich gehen, vor allem die, welche eher Gaming im Fokus haben. 13900k/7950X sind halt fix im Gaming, stimmt auffallend. Aber nur weil das der Gamer kauft, rendert der nicht nach dem zocken noch irgendwelche Videos oder ähnliches. Diese Effizienzvergleiche verfälschen halt häufig dahingehend das Bild, weil der Workload fern ab der meisten realen Anwendungsszenarien ist. Bei Gaming ist das etwas anders. Denn der Workload im Verbrauchsvergleich beim Zocken bleibt relativ gleich vom Bench zu im Vergleich dem heimischen Betrieb. Bei einem sagen wir Cinebench nT Verbrauchstest vs. die erzielten Punkte ist das im Bench zwar cool zu sehen. Zuhause? Hab ich ganz andere Werte.

Alesis schrieb:
Also 2022, 2023, 2024, 2025 und möglicherweise 2026. Da ist keine Rede von 2026-2028.
Bei Intel sieht es sicherlich so aus.
2021 --->2023 ---> Pazifik. 2023 --->2025 --->Pazifik. 2025 --->2027 --->Pazifik.
Zumal trotzdem auch bei AMD zu neuen CPUs auch aktuelle Platinen kommen werden.
AMD spricht von der Laufzeit des Sockels - da ist aber lange nicht gesagt, ob die neuen CPUs auch entsprechend auf den alten Boards laufen werden.
Zen3 auf X370/B350 geht erst seit ca. Frühjahr diesen Jahres. Bis Ende letzten Jahres war das seitens AMD künstlich untersagt. Mehr als ein Jahr lang gab es Zen3 zu kaufen und hatte in weiten Bereichen des Portfolios einen vergleichsweise großen Sprung auf Zen2 gelegt. Wer diesen Sprung wollte, aber eben mit genau diesem ewig lebenden Sockel Argument sein 300er Board aufrüsten wollte, hatte Pech und hat schlicht neu gekauft. Inkl. "Pazifik" ;) Wer garantiert heute, dass das mit 1st Gen. AM5 nicht analog passiert? Die Argumente damals, das hätte an der Größe der Bios/UEFI Chips gelegen ist ja offenbar absoluter Käse gewesen. Denn sonst hätte man das nicht im Frühjahr 2022 weggezaubert.

Das ist/war reine Taktik von AMD. Und dass man es jetzt doch erlaubte wird auch Gründe haben. Bspw. dass sie mMn sehr sicher schon anfang des Jahres wussten, was für Kosten AM5 erzeugt und wo die Leistungsreise hin geht. AMD hat wieder wie in der Vergangenheit vorerst HighEnd im Fokus, aber kein gutes Portfolio im unteren Bereich. Also nimmt man die Vorgängergeneration und bedient damit den unteren Markt - war halt eben nur ungünstig, dass B550 und X570 ebenso vergleichsweise teuer waren. Vor allem ggü. alten 300er Boards. Vielleicht ging das sogar soweit, dass AMD im Frühjahr schon geahnt hat, dass der Umsatz stark zurück geht, wenn die Corona Thematik sich beruhigt und die Lieferketten sich entspannen. Alles absolut denkbar. Der Client CPU Umsatz ist übel zusammen gesackt bei AMD. Für 20-30% Marktanteil nur noch 1/8tel vom Umsatz von Intel in dem Bereich ist schon sehr krass wenig. Wie also lösen das Thema? Man macht mehr Systeme attraktiver, sodass die Kunden Umsatz erzeugen. Jede verkaufte CPU, egal ob AM4 oder 5 ist doch Umsatz. Jede nicht verkaufte bringt AMD nix. Die künstliche Limitation bis dato war mMn somit nicht mehr sinnvoll aufrecht zu erhalten, weil AM5 keine Alternative darstellt aktuell im unteren Marktbereich.

D. ACE schrieb:
Hätte nicht gedacht, dass Intel doch so schnell wieder die Gaming-Krone holt. Das war ja für AMD nur ein relativ kurzes Intermezzo.
Ehrlich gesagt war das doch klar absehbar?
Nicht unbedingt dass es so viel Unterschied ist - aber es war klar, dass Intel den Takt stark anhebt und AMD mit AM5 weiterhin beim MCM Aufbau bleibt. Inkl. der damit einhergehenden Probleme in Sachen Latenzen.
Ein X3D Zen4 wird zumindest spannend. Denn der sollte nochmal relativ stark zulegen und womöglich sogar Intel übertrumpfen.

Bei AMD ist halt aktuell nicht so sehr die Technik der Kerne selbst das Problem, sondern der Aufbau. (bezogen auf Gaming und FPS Messungen)
 
  • Gefällt mir
Reaktionen: PeriQue1337 und Viper816
Balikon schrieb:
Die kann man auf AM5 leider nicht nutzen. AMD wird den 5800X3D wohl nicht mehr DDR5 kompatibel machen.
Ich meine auch innerhalb der 7xxx Gen.
https://twitter.com/CapFrameX/status/1581306086417580032
Wobei es da nur um Metro Exodus geht und nur unter WIn 11 wohl... Windows scheint aber mal wieder Probleme zu machen alle Kerne auszulasten - oder aber hier sind gewisse Latenzen innerhalb der CPU der Flaschenhals..
 
Amüsant.
Da haut Intel ein super Teil raus und dann kommen einige Experten und meinen "Ja aber wenn man ihn drosselt ist er langsamer!".
Ja no shit?!

Und warum sollte man einen High-End PC haben um ihn dann zu drosseln? Geht mir nicht in den Kopf...
 
fdsonne schrieb:
da ist aber lange nicht gesagt, ob die neuen CPUs auch entsprechend auf den alten Boards laufen werden.
Das war überhaupt nicht mein Thema. Suche dir doch bitte einen anderen Kommentar, welcher zu deinem Thema passt.
Ich habe nirgends geschrieben es sei Fakt dass alles was noch kommen wird auf 600 Bretter laufen wird., sondern ich habe den Kommentar, auf den ich geantwortet habe, argumentativ als erfundene Geschichte beschrieben.
Fakt ist bis dato aber auch. Bis jetzt gibt es kein 16MB BIOS Brett für AM5. So wie es bei AM4 war und man deswegen vorhergehende CPU Unterstützungen rausnehmen musste, damit Platz für neue CPU Unterstützungen geschaffen wird.
Was eben zu Probleme führt und es unübersichtlich macht.
 
Könnte mir jemand erklären, warum es in dieser Generation üblich ist je nach Plattform unterschiedliche RAM-Geschwindigkeiten zu verwenden? Warum nicht Äpfel mit Äpfeln vergleichen? Im Artikel wird leider nicht drauf eingegangen.
 
XashDE schrieb:
Da haut Intel ein super Teil raus und dann kommen einige Experten und meinen "Ja aber wenn man ihn drosselt ist er langsamer!".
Die Aussage, die du anderen hier gerade in den Mund zu legen versuchst, ist halt auch ein ziemlicher Strohmann. Hier wird sachlich über die Effizienz diskutiert und unterschiedliche Last-Szenarien miteinander verglichen. Eine CPU läuft halt nicht dauerhaft mit 100% Last, weshalb die volle Leistung die meiste Zeit ja überhaupt nicht abgerufen wird. Und gerade eben bei mittlerer Last ist AMD aktuell deutlich besser aufgestellt als Intel, während Intel eben am oberen Ende ein bisschen mehr Wumms hat - ach herrje, jetzt rede ich ja schon wie Scholz :D

AMD hat aktuell das Problem, dass sie am oberen Ende ein wenig an ihrer geringeren Kernanzahl verhungern, weshalb diese auf Steroide gesetzt werden und massiv an Effizienz verlieren - aber selbst da noch Intel in Sachen Effizienz leicht überlegen sind. Im Alltag ist das obere Ende aber selten relevant, und da zeigt sich eben, dass Zen 4 hier sehr effizient arbeitet. Ohne Frage hat Intel hier ein tolles Produkt abgeliefert, das vor allem beim Gaming jeden Cent wert ist. Dennoch sollte man das auch in den richtigen Kontext und sich kritisch damit auseinandersetzen können.
 
  • Gefällt mir
Reaktionen: joshlukas und IBISXI
Zurück
Oben