Test High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

Ich frage mich, warum dieser Test nur mit Spielen gemacht wurde, bei denen AMD schlecht abschneidet und zwar mit jeder Generation.
Beim lesen des Artikels habe ich auf die Pointe gewartet.
Spiderman zum Beispiel, warum nimmt man das, wenn man eine Vergleichbarkeit erreichen will?
Wie gesagt, alle Games in dieser Liste sind Spiele bei denen AMD schon mit AM4 überduchschnittlich schlecht war, ich weiß nicht was das soll.

Kommt jetzt noch ein Test mit Games in denen AMD überdurchschnittlich gut ist ?
Kann man ja machen, wenn die neuen Radeons draußen sind, mit AMD supportet Games....

Abesehen davon, Intel ist schneller diese Generation, aber niemand hat 18% ermittelt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne und Wichelmanni
XashDE schrieb:
Und warum sollte man einen High-End PC haben um ihn dann zu drosseln? Geht mir nicht in den Kopf...

Das interessante ist ja eigentlich das es mittlerweile genug Tests und Stimmen gibt die aufzeigen das diese CPU auf teils nur 60 Watt bzw. -> 100 Watt limitiert so gut wie fast keine Leistung im Gaming verliert.
Lässt sich sehr effizient betreiben, ähnlich wie die 4090.

Und das nur mit 3 Klicks, ohne extra Software.
Wer XMP im Uefi aktiviert bekommt, kriegt das auch hin.

Mein 11700K ist kein Highend, produziert aber wenn er will ne Menge Abwärme, habe auch Hand angelegt das er unter Volllast fast nicht mehr hörbar ist, aber mit Leistungssteigerung.
Ich will halt nicht viel hören, mein Noctua D15 war total überfordert, die Gletscherwasser 280 macht das perfekt.
 
Zuletzt bearbeitet:
kachiri schrieb:
Frage: Was macht Spiderman und Gotham Knights so speziell, dass der Intel da in 4k so deutlich davonzieht, während bei den anderen Spielen quasi "Gleichstand" herrscht?
Also das der Intel einfach schneller ist, sieht man ja in 720p. Aber was fordert bei den zwei Spielen die CPU so extrem, dass hier selbst in 4k die GPU quasi keine Rolle spielt.

Wird wohl auch mit dem CCX und dem damit verbundenen Cachesystem des Ryzen zusammenhängen.
Der unterschiedliche technische Aufbau spielt natürlich auch immer eine Rolle, wie gut die Befehle abgearbeitet werden können.
Der Ryzen 12 und 16 Kerner ist wegen der Bauweise eigentlich nur für Anwendungen konzipiert worden, wo die Multithreading-Leistung wichtiger ist als das Cachesystem und seine Latenzen, auf die einige Spiele teilweise recht allergisch reagieren (alle Ryzen 12 und 16 Kerner), oder aber richtig Speed geben (mit 3D Cache).
Das erklärt auch, warum bereits der 6 und 8 Kerner in sehr vielen Spielen gleichwertig oder sogar bessere Bildraten erzielen (hey, der 7600X mit 6 Kerne schlägt sogar einen 12900K 8+8 Kerner!).
Wer mit Ryzen zocken will und bereitwillig etwas mehr Geld in die Hand nehmen will, wartet aber so oder so auf die eigentlichen Gaming-Prozessoren mit 3D Cache.
Dieser Test 13900K gegen 7950 ist also eigentlich total überflüssig gewesen, weil das Ergebnis schon vor Monaten quasi feststand, als die ersten Werte und Prognosen durchsickerten.
Ich habe gesagt der 13900 ist bestimmt 10% schneller als der Ryzen 7950X.
Das hätte aber fast jeder aus dem Bauch heraus sagen können.
 
Also ich kann derzeit weder dem Ryzen 9 7950X noch dem Core i9-13900K etwas abgewinnen. Schade, dass der Ryzen 7 5800X3D hier nicht getestet wurde.
Der 5800X3D kostet gerade bei Minfactory 349,-€ im Sale, als mal eben fast 60% günstiger als beide hier getesteten CPUs.
Des Weiteren würde mich interessieren die Spiele 4K native auf der RTX4090 bei allen drei CPUs, und deren Stromverbrauch. Ich würde sagen, dass der 5800X3D hier deutlich die bessere CPU sein wird. Günstiger und sicherlich stromsparenden, schneller als der 7950X und sicherlich kaum langsamer als der Core i9-13900K, welcher mehr als doppelt so teuer ist und auch mehr Leistung aus der Steckdose braucht.
 
Ja stimmt wenn dann zumindest ein misch test wo ein game mit einer anwenundung gleichzeitig verwendet wird. Da hätte dann auch Intel cpus zu knappern gehabt.
 
Laphonso schrieb:
Wird erledigt!
Heute bin ich passenderweise bei meinem Systembuilder vor Ort und beauftrage die 4090 Strix mit dem 13900K :D 🤩
Finde ich gut, daß Du da nicht kleckerst, auch wenn das wohl noch einmal mindestens einen Tausender mehr bedeutet bei standesgemäßer Aufrüstung zu einer RTX 4090.

Es bringt eben wenig sich eine RTX 4090 zu leisten, die dann vom Rest der PC Komponenten gedrosselt wird.

Für mich bleibt (wie erwartet, auch wenn es dabei eher darum geht, daß es mir mehr nicht wert wäre) da vermutlich maximal RTX4080 bzw. RX 7900/7800XT Leistungsniveau mit einem i7-12700 (non-K) interessant, eine vermutlich deutlich interessantere (aber wohl auch später aufgelegte) RTX 4080Ti würde auch für spürbar weniger Geld als eine RTX 4090 aufgrund der Leistungsklasse für meine CPU wohl nicht optimal passen (da Overkill).

Der Artikel bietet jedenfalls einen guten Anhaltspunkt bzgl. CPU und GPU Leistungsverhältnis, besten Dank dafür @Wolfgang :).
Ich hoffe, daß auch bei den kommenden CB Artikeln mit niedrigeren Lovelace und RDNA3 Leistungsklassen deren Leistung ins Verhältnis zur Prozessorenleistung bei Zen3/Alder Lake sowie Zen4/Raptor Lake) gesetzt wird, so daß man sich als Käufer daran orientieren kann.
Ergänzung ()

.Snoopy. schrieb:
Ich würde sagen, dass der 5800X3D hier deutlich die bessere CPU sein wird. Günstiger und sicherlich stromsparenden, schneller als der 7950X und sicherlich kaum langsamer als der Core i9-13900K, welcher mehr als doppelt so teuer ist und auch mehr Leistung aus der Steckdose braucht.
Das kommt auf das Anwenderprofil an, für Dich und mich wäre das wohl so, aber für echte Enthusiasten die das maximale Spielerlebnis erfahren wollen wohl nicht, da wird dann auch richtig teurer DDR5 Speicher noch mit dazu kommen (denn denen ist der Verbrauch egal, ebenso wie die Mehrkosten, da spielt Logik im Sinne von Preis-Leistungsverhältnis eine untergeordnete Rolle, zumal dann auch eine RTX 4090 aus der Perspektive überhaupt keinen Sinn macht, wenn man bei CPU, Speicher, Mainboard, Monitor, etc. großartig spart ;)).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
Chismon schrieb:
da vermutlich maximal RTX4080 bzw. RX 7900/7800XT Leistungsniveau mit einem i7-12700 (non-K) interessant, eine vermutlich deutlich interessantere (aber wohl auch später aufgelegte) RTX 4080Ti würde auch für spürbar weniger Geld als eine RTX 4090 aufgrund der Leistungsklasse für meine CPU wohl nicht optimal passen (da Overkill).
Ich denke ohnehin, dass dieses Segment das Spannendste wird. Vor allem wenn die 7900XT mal eben 1000 Euro weniger kostet als die 4090er Flotte (also derzeit 1200 statt ~ 2200 Euro).
Ob die 7900 und 7800XT in 1440p limitiert werden durch zu "langsame" CPUs, würde allerdings auch da nicht überraschen.
 
Ja sehe ich auch so. Wenn sogar schon eine rtx 3050 von der CPU bei h264 gpu umwandeln hoffnungslos limitiert wird, dann wird eine rtx 4090 erst recht limitiert. Da hilft dann nur noch sehr hohe CPU tskt und hoffen das die CPU nicht die gpu hoffnungslos limitiert. Das ist also noch so ein Fall wo die rtx 4090 nicht seine volle Stärke leisten kann. Da hilft auch 2x der selbe Chip zum umwandeln auf gpu ebene ebenso nix.
Vermutlich gibt es solch eine CPU noch nicht die eir volle Stärke der gpu ausfahren kann.
 
  • Gefällt mir
Reaktionen: Laphonso
Laphonso schrieb:
Ich denke ohnehin, dass dieses Segment das Spannendste wird. Vor allem wenn die 7900XT mal eben 1000 Euro weniger kostet als die 4090er Flotte (also derzeit 1200 statt ~ 2200 Euro).
Ob die 7900 und 7800XT in 1440p limitiert werden durch zu "langsame" CPUs, würde allerdings auch da nicht überraschen.
Ich denke wer im Highend-Bereich kauft wird meist eher woanders eingebremst. Ich war zuletzt 2018 CPU limitiert, mit einem FHD Monitor, 1080 Ti und einem Sandy Bridge 2600K aus 2011.

Seit ich am 4K TV zocke hab ich mich eigentlich nur von GPU Limit zu GPU Limit gehangelt. 4K120 sind mit Max Details auch mit einer 4090 nicht jederzeit und überall möglich (nativ).

Wenn die Leute also von CPU Limits kreischen und dann CSGO in FHD 600FPS meinen, welches bei Intel dann mit 640fps läuft...naja. Nicht wirklich mein Szenario. :D 4K60-120 VRR muss es sein und das bei voller Grafikpracht. Hab ich mehr von als von 200fps+


PS: ich glaube kaum dass eine 7900XT(X) fast das halbe Geld einer 4090 kosten wird. Bei den aktuellen Quartalszahlen von AMD werden die Karten eher teurer angesiedelt auch wenn hier alle denken es gibt Geschenke zu Weihnachten.

Reicht ja schon ein paar % billiger zu sein wenn man halbwegs mithalten kann.
 
Laphonso schrieb:
Ob die 7900 und 7800XT in 1440p limitiert werden durch zu "langsame" CPUs, würde allerdings auch da nicht überraschen.
Wenn ich mir eine solche holen würde für immer noch viel Geld (es sei denn die Preise crashen wegen der Rezession im kommenden Jahr, weil kaum einer mehr kauft), dann würde ich auch erwarten, daß diese mindestens 4K/UHD bei 60fps durch die Bank auch in naher Zukunft (bei 2023/2024er Spielen schaffen werden), für WQHD sehe ich da eher nicht den Mehrwert, denn dafür dürften auch RTX 4060Ti oder RX 7600XT/7700 von der Rohleistung dicke reichen, es sei denn der verbaute Speicher wird zum Flaschenhals.
 
crygamer schrieb:
Könnte mir jemand erklären, warum es in dieser Generation üblich ist je nach Plattform unterschiedliche RAM-Geschwindigkeiten zu verwenden? Warum nicht Äpfel mit Äpfeln vergleichen? Im Artikel wird leider nicht drauf eingegangen.
Weil das die Ram Geschwindigkeiten der Controller auf den CPUs sind die der Hersteller vorschreibt. Alles darüber ist Übertaktung. Und man will ja nicht Äpfel mit Birnen vergleichen. Also übertaktet gegen nicht übertaktet

Der Intel läuft mit Dual Channel DDR55600 Mhz und Ryzen mit DDR5 5200 Mhz.
Hätte AMD der CPU einen schnelleren Ram Controller spendiert wäre die CPU auch insgesamt schneller. Haben sie aber nicht.
 
  • Gefällt mir
Reaktionen: crygamer
Esenel schrieb:
Es wurde sich halt die Mühe gemacht den Scheduler in Hardware zu gießen und mit Microsoft das abgesprochen zu bekommen.
Jep aber auch da muss man ja auf SMT und Abschalten von E cores reagieren können.
Die Logik ist nicht ganz easy. Er muss ja erst alle P Kerne auslasten ohne 2 Threads auf einen Kern zu legen. Dann geht's schon los... Nimmt man E Cores oder SMT Threads? Bei Ecores ist SMT egal die kann man also genauso erst jeden 2. Thread auslasten wegen Temperatur Verteilung.

Ka ob der Intel hier 2 NUMA Noded kommuniziert. Für P und E cores? Und dann sollte ja die Foreground App auch noch Priorität bekommen was dann eher das OS weiß.
Ergänzung ()

ThirdLife schrieb:
Habs in deinen Thread gepostet, Total Time @120W PPT / 82W Cores wäre 0:15:09,07.

50W wird schwierig, es gehen ja allein schon Idle 20-40W für SOC und IO Die weg :D
Ich glaub da dürfte die Performance ziemlich einbrechen weil für die Cores fast nix mehr bleibt. Zwei Chiplets die sich dann 10-20W teilen dürfen 🤣

Da bricht die Leistung dann von 4.7-5Ghz Allcore auf 2.4Ghz ein, mit 65W PPT wären wir immerhin schon bei 3,4-3,6 Ghz. Ist aber schon deutlich ausserhalb des Sweet Spots, der dürfte um die 4.5Ghz liegen, dafür braucht es um die 100W PPT und wir liegen zwischen 4.3 und 4.6 Ghz. CPU Cores ziehen dann um die 60-62W, Rest geht wieder auf IOD und SOC.
Danke. Ja wie vermutet kippt die Effizienz erst dann wenn man wirklich kleine TDPs im Fokus hat, dann zahlt sich nach wie vor monolithisches Design aus.
Ansonsten ist 5nm TSMC hier einfach deutlich überlegen wenn's um Peak Effizienz geht. Also die der Core Chiplets
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Esenel
Warum man Gotham Knights überhaupt wählt erschließt sich mir nicht. Das Spiel ist eine absolute Katastrophe und beschissen optimiert, selbst ein 13900k ist nicht schnell genug (Single Core) wodurch in 4k die 4090 bei 50-60% Auslastung rumgängt. Das liegt auch daran, weil Multicore sogut wie gar nicht verwendet wird und im Endeffekt ein Kern die meiste Arbeit macht. Finde das ist nicht das beste Spiel für einen Testparkour, insbesondere für solche Multicore High End Cpus.
 
  • Gefällt mir
Reaktionen: PeriQue1337 und Pisaro
ThirdLife schrieb:
Genau, denn AMD wird bis dahin einfach garnix mehr entwickeln und das ab heute so belassen wie es ist. 😂
Die werden aber erst wieder in zwei Jahren eine neue CPU Generation Releasen, in der Zwischenzeit werden nur noch die 3D modelle folgen und ebend noch kleinere wie der r5 7600 ohne x. Die 3d Modelle werden nicht so viel bringen, wie sie es noch bei der 5000 Serie getan haben, weil die 7000 Serie standardmäßig schon deutlich mehr Cache haben. Bei Multi core Aufgaben bringt das außerdem auch so gut wie nichts, dementsprechend werden die CPUs wohl vom Meteor Lake zerstört... Außerdem verlangt AMD mehr Geld für weniger Leistung, schau dir die Verkaufszahlen an, AMD hat ein Problem.
 
Ben_computer_Ba schrieb:
...weil die 7000 Serie standardmäßig schon deutlich mehr Cache haben. ...
Stimmt so nicht. Es wurde nur der L2 Cache erhöht, sprich die 7000er sind bei Algorithmen, die zwischen 512kbB und 1MB an periodischen Daten verarbeiten, schneller. Bei mehr als 32MB herrscht wieder pseudo-Gleichstand. Pseudo deswegen, weil man argumentieren könnte, dass die höhere Latenz von DDR5 bei periodischem Zugriff ggf. sogar hinderlich sein könnte. So oder so, wo jetzt bereits die 96MB L3 vom X3D Mehrperformance bringen, werden sie das auch bei den 7000er tun. Dann bleibt noch die Frage, ob es bei 96MB bleibt...
 
  • Gefällt mir
Reaktionen: Lamaan und ThirdLife
Lamaan schrieb:
Ich frage mich, warum dieser Test nur mit Spielen gemacht wurde, bei denen AMD schlecht abschneidet und zwar mit jeder Generation.
Vielleicht schneidet Intel durch alle Publikationen auch im Schnitt der getesteten Spiele besser ab?

Lamaan schrieb:
Beim lesen des Artikels habe ich auf die Pointe gewartet.
Spiderman zum Beispiel, warum nimmt man das, wenn man eine Vergleichbarkeit erreichen will?
Nach Deiner Interpretation kann eine Vergleichbarkeit nicht hergestellt werden, solange man nicht alle verfügbaren Softwareprodukte in den Test mit einbezieht.

->Geht nicht

Deswegen einigt man sich auf einen gemischten Parcours. Dabei muss man in Kauf nehmen, dass regelmäßig die eine oder andere Seite meckert, die das präferierte Produkt ungerecht behandelt sehen.

Lamaan schrieb:
Wie gesagt, alle Games in dieser Liste sind Spiele bei denen AMD schon mit AM4 überduchschnittlich schlecht war, ich weiß nicht was das soll.
Dann such Dir doch einen Test, in dem AMD alles gewinnt... Kannst ja inzwischen Titel weg- und dazuklicken, wie es Dir gerade Spaß macht. Bau Dir das Ergebnis einfach, wie es Deinem Seelenheil zuträglich ist und gut...
Nur frage ich mich, warum man sich auf Biegen und Brechen selbst beschummeln wollen würde?

Lamaan schrieb:
Abesehen davon, Intel ist schneller diese Generation, aber niemand hat 18% ermittelt.
Hier hat man z.B. 18% ermittelt...

Don´t kill the messenger, sage ich da nur.
Verstehe die ganzen Diskussionen hier nicht.

Es ist doch jetzt wirklich für jede Workload genügend Auswahl da, so dass man sich das optimal zu einem passende Produkt raussuchen kann.
Dabei liegen die Bewertungsmaßstäbe bei jedem anders. Der eine schielt auf den Verbrauch, der andere auf absolute Leistung.
Der eine braucht die CPU für Medium- Workloads, der andere steckt die CPU in einen Rendercluster.
Bei letzterem kommt man doch schon durch gesunden Menschenverstand drauf, dass man dort auf Effizienz und absoluter Multicoregeschwindigkeit Wert legt und nicht auf Spieleperformance, oder?
Ich würde nicht auf die Idee kommen, dort einen 13900K einbauen zu wollen.

Genauso wirst Du CPUs zu schätzen wissen, die Singlecore ein Brett sind, wenn man viel im Viewport bzw. der Designansicht von irgendwelcher Software unterwegs ist. Da macht Intel oft die bessere Figur.

Scheint die Leute zu überfordern, dass es nicht DIE CPU gibt, die alles gleich gut kann und in allem überragend performt.
Noch mehr wundert mich, dass immer mehr Leute dem Zwang unterliegen in allen Bereichen gleichzeitig das Beste haben zu müssen, obwohl es dies nicht gibt.
Es werden auf biegen und brechen vom Konkurrenzprodukt nur die Schwachstellen unters Brennglas gelegt, wohingegen man bei dem präferierten Produkt nur die Sahnestückchen selektiert. Warum eigentlich?

Dann immer auch diese Ausdrucksweise - Zerstören, Boden aufwischen usw.
Das tut eben gerade keine Generation mit der anderen. Haben alle ihre Stärken und Schwächen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ozmog und Zwirbelkatz
Ben_computer_Ba schrieb:
Die werden aber erst wieder in zwei Jahren eine neue CPU Generation Releasen, in der Zwischenzeit werden nur noch die 3D modelle folgen und ebend noch kleinere wie der r5 7600 ohne x. Die 3d Modelle werden nicht so viel bringen, wie sie es noch bei der 5000 Serie getan haben, weil die 7000 Serie standardmäßig schon deutlich mehr Cache haben. Bei Multi core Aufgaben bringt das außerdem auch so gut wie nichts, dementsprechend werden die CPUs wohl vom Meteor Lake zerstört... Außerdem verlangt AMD mehr Geld für weniger Leistung, schau dir die Verkaufszahlen an, AMD hat ein Problem.
AMD bringt doch nächstes Jahr schon X3D Modelle und Zen4c mit kleineren "E-Cores" ist auch schon angesagt für 2023. Gut möglich dass man schon Ende 2023 dann einen 7995X bringen kann mit 16 "P-Cores" und dazu noch 8-16 "E-Cores" auf minimal größeren Chiplets + dazu noch V-Cache.

Wär n ziemlicher Abriss dann. Stillstand herrscht hier nicht. Intels Meteor Lake ist auf Anfang 24 angekündigt, da kann noch sehr, sehr, sehr viel passieren. Zen 5 ist ja auch auf 2024 gesetzt.

Ich seh da jetzt nicht wo Intel groß davonfährt und AMD total abgehängt wird. Muss n anderes Multiversum sein auf das du dich beziehst.
 
.Sentinel. schrieb:
Vielleicht schneidet Intel durch alle Publikationen auch im Schnitt der getesteten Spiele besser ab?


Nach Deiner Interpretation kann eine Vergleichbarkeit nicht hergestellt werden, solange man nicht alle verfügbaren Softwareprodukte in den Test mit einbezieht.

->Geht nicht

Deswegen einigt man sich auf einen gemischten Parcours. Dabei muss man in Kauf nehmen, dass regelmäßig die eine oder andere Seite meckert, die das präferierte Produkt ungerecht behandelt sehen.


Dann such Dir doch einen Test, in dem AMD alles gewinnt... Kannst ja inzwischen Titel weg- und dazuklicken, wie es Dir gerade Spaß macht. Bau Dir das Ergebnis einfach, wie es Deinem Seelenheil zuträglich ist und gut...
Nur frage ich mich, warum man sich auf Biegen und Brechen selbst beschummeln wollen würde?


Hier hat man z.B. 18% ermittelt...

Don´t kill the messenger, sage ich da nur.
Verstehe die ganzen Diskussionen hier nicht.

Es ist doch jetzt wirklich für jede Workload genügend Auswahl da, so dass man sich das optimal zu einem passende Produkt raussuchen kann.
Dabei liegen die Bewertungsmaßstäbe bei jedem anders. Der eine schielt auf den Verbrauch, der andere auf absolute Leistung.
Der eine braucht die CPU für Medium- Workloads, der andere steckt die CPU in einen Rendercluster.
Bei letzterem kommt man doch schon durch gesunden Menschenverstand drauf, dass man dort auf Effizienz und absoluter Multicoregeschwindigkeit Wert legt und nicht auf Spieleperformance, oder?
Ich würde nicht auf die Idee kommen, dort einen 13900K einbauen zu wollen.

Genauso wirst Du CPUs zu schätzen wissen, die Singlecore ein Brett sind, wenn man viel im Viewport bzw. der Designansicht von irgendwelcher Software unterwegs ist. Da macht Intel oft die bessere Figur.

Scheint die Leute zu überfordern, dass es nicht DIE CPU gibt, die alles gleich gut kann und in allem überragend performt.

Dann immer auch diese Ausdrucksweise - Zerstören, Boden aufwischen usw.
Das tut eben gerade keine Generation mit der anderen. Haben alle ihre Stärken und Schwächen.
Es ist doch ganz einfach und da braucht man auch gar nicht viele Worte.

Eine faire Auswahl treffen.
Wenn es schon spiele sein müssen die bekannter Maßen auf eine bestimme Architektur besonders gut oder schlecht ansprechen dann halt gleichmäßig verteilt oder besser noch, einfach spiele nehmen. die auf beiden gut laufen.

Jetzt wäre es aber am besten den Spieß einmal komplett umzudrehen, so als Gegenbeispiel.

BTW. Dieser Spuk ist mit den 3D-Chips auch wieder vorbei.
Ergänzung ()

Ich wette ich kann auch einen großen Vorsprung für AMD ermitteln und „Do Not kill the Messenger „ sag ich da nur
 
Also Intel 13.. laut verlinktem Artikel von Euch - Stromverbrauch bei Spielen: 144/154 (Avg/max)
AMD 7950X... liegt beim Stromverbrauch bei Spielen darunter: 118/123 Watt

Damit geht die Effizienzkrone in Spielen ganz klar an AMD. Insgesamt ist damit AMD weiterhin die bessere Wahl.
 
Zurück
Oben