Test High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

Novasun schrieb:
Im übrigen ist der 7950 nicht AMD`s stärkste Gaming CPU im aktuellen AMD Portfolio...
Die kann man auf AM5 leider nicht nutzen. AMD wird den 5800X3D wohl nicht mehr DDR5 kompatibel machen.
 
  • Gefällt mir
Reaktionen: Mracpad
t3chn0 schrieb:
Wobei man da sagen muss das es AMD selbst schuld ist, wenn man das nicht gebacken bekommt.
Hmmm, ich weis nicht. Wer ist denn eigentlich der Schuldige, AMD oder Microsoft? Unter Win10 scheint es ja besser zu laufen.
t3chn0 schrieb:
Ich bin wieder mal erstaunt, wie viele hier ZEN4 gehyped haben und wie Raptor Lake keine Chance haben wird. Das war hier der riesige Tenor über Monate.
Wunschdenken
t3chn0 schrieb:
Hier wird jetzt so getan als wäre ZEN4 eine Krücke.
Eher eine Retourkutsche an die Wunschdenker ;)
 
Jack3ss schrieb:
und jetzt das ganze noch mit Stromverbrauch?
das wäre interessant zu sehen, allerdings steigt der Systemverbrauch auch dann wenn die GPU höher ausgelastet wird. Man müsste sich also rein auf Package Werte verlassen müssen.

Wichtig dabei ist aber auch der Umstand dass der 13900K locker auch die 6Ghz x 8 halten kann bei normaler Gaming Last und 120W Limit. Treibender Faktor bleibt da eher noch Display und GPU als ein paar W CPU Last, zumindest beim Gaming.

Zen4 / ein 7950X dürfe >100W aber effizienter zu betreiben sein wenn UV. Wenn jemand einen hat würden mich die Werte hier interessieren:
https://www.computerbase.de/forum/t...5-preset-performance-benchmark-liste.1980242/
 
Wolfgang schrieb:
Ultra HD als Zielauflösung inklusive FSR 2 oder DLSS 2 in der Quality-Einstellung ist ein absolut realitätsnahes Szenario für eine GeForce RTX 4090. Ohne Upsampling wäre die GPU-Last zwar noch höher, doch ist dies nicht zwangsläufig die bessere Einstellung, denn oftmals sieht das Bild mit DLSS 2 respektive FSR 2 besser aus.
Hä? Wie soll denn eine niedrigere Auflösung die hochskaliert wird besser aussehen als die native Auflösung? Native Auflösung sieht doch immer am besten aus... und mit einer 4090 würde ich kein Upsampling benutzen. Schade, mich hätte interessiert, welche CPU man braucht um die 4090 in nativem 4K auszulasten...
 
RogueSix schrieb:
In 4K ist der 5800X3D dort im Schnitt 6,8% schneller unterwegs. Es gibt aber auch ein paar beeindruckende Ausreißer. Wer zum Beispiel Hardcore Anno 1800 Spieler ist, der sollte dringend über ein CPU-Upgrade nachdenken, denn da sind es über +30% selbst in 4K!
https://github.com/xxEzri/Vermeer/blob/main/Guide.md#stellaris
Stellaris, Factorio und alles was Cache Sensitiv ist ebenso.. Im Schnitt 18,4% über einem 5800X... das ist schon krass, wie gut der Cache Skaliert.
 
Badesh schrieb:
Ja, das ist ein High-End Artikel. - Aber was ist denn daran High-End heutzutage wenn eine Consumer-CPU wie der von Intel dauerhaft 300W ziehen darf für ein paar Prozent mehr Leistung. Nvidia hat's vorgemacht mit der 4090 - Bei 60% Energie noch 90% Leistung. Das ist High-End für meinen Geschmack.
Das musst du bei Nvidia wie auch Intel / AMD selbst einstellen wenn dir danach ist. Ich hab meinen 13900K die letzten Tage auf möglichst hohe Peak Performance bei zugleich hoher Effizienz bei Dauerlast optimiert.
OOB ist wirklich Unfug. Allein die Loadline von Level 9 (stock) auf etwa 3 zu reduzieren (ohne was anderes anzufassen) bringt sicher 30% Effizienz. Einfach weil Spannungen dann besser ausfallen.

Man kann ja schön mit Short Boost und Long Duration Power Limit beides erreichen. Oder auch den Multi nach oben fast offen lassen (wie bei mir mit 8x60) und einfach die Temperatur nutzen um dann in einen effizienten Bereich zu throtteln. Games lasten dabei eh nie die Kerne 100% aus und damit hat man hohen Takt, auch bei allen 8 Kernen.
1667430845306.png

Klar, auch hier würde es bei zb 5Ghz nochmal deutlich effizienter gehen. Dazu müsste ich die 120W noch weiter eingrenzen, auf zb 50W was beim 13900K dann wiederum deutlich effizienter wird als beim 7950X (da keine IO Die)
Sieht dann so aus:
1667430943114.png



ich würde behaupten du kanns den 13900K auf 60W drosseln und hast kaum Einbrüche bei Gaming Performance.
 
  • Gefällt mir
Reaktionen: Mac_Leod, Badesh und Hutzeliger
Krautmaster schrieb:
runterladen, ausführen, müsste der reihe nach die Presets durchgehen und ein Logs ausspucken ;) danke dir
Nein ich mein welches Powerlimit etc.
 
up to u. 120W wären interessant da ich mein i9 genau auf diesen Wert gedrosselt habe (im Bench ebenso mit 120W Short Power Limit also fix 120W). Weiß aber auch dass das natürlich weit weg vom Maximum an Effizienz ist.
50 auch gern.
 
Zuletzt bearbeitet:
Jan schrieb:
Nachdem neulich 720p als völlige Verschwendung von Ressourcen galt, sind wir in diesem Punkt jetzt also komplett. ^^
Ja, aber da müsst ihr auf eure Erfahrung setzen. Ihr habt ja nicht ohne Grund entschieden nur 720p zu testen. Das war eine vollkommen logische Entscheidung.

Ihr wisst selber am besten wie viel Aufwand die zusätzlichen Runs sind. Wenn man da jetzt den zusätzlichen Informationsgewinn gegenrechnet...
 
Hmm. Ich glaube bei den 2 CCD Ryzen 7 gibt es noch/wieder Scheduler Probleme.

Ich bin total happy mit meinem R7700X.
Hab mit PBO und LLC auf -45 super Verbrauchswerte. Interessant ist beim Zen4 ja, wieviel mehr Takt bei weniger Verbrauch und Hitze ich mit LLC schaffe. SC geht er mir da mit PBO dauerhaft auf 5,8 GHz und Multicore auf 5,6 GHz und das alles bei 88Watt Limit und 80 Grad Templimit.

Performance ist damit deutlich über Stock bei fast halbiertem Verbrauch. Das alles mit einem älteren Dark Rock Pro.
 
  • Gefällt mir
Reaktionen: danyundsahne
Pltk schrieb:
Hä? Wie soll denn eine niedrigere Auflösung die hochskaliert wird besser aussehen als die native Auflösung?
Wenn das AA der Spiele-Engine schlechter ist, als das AA, was von DLSS oder FSR 2.0 verwendet wird, kann das hochgerechnete Bild tatsächlich besser aussehen, als das native.
 
Pltk schrieb:
Hä? Wie soll denn eine niedrigere Auflösung die hochskaliert wird besser aussehen als die native Auflösung? Native Auflösung sieht doch immer am besten aus... und mit einer 4090 würde ich kein Upsampling benutzen. Schade, mich hätte interessiert, welche CPU man braucht um die 4090 in nativem 4K auszulasten...
Ein Trugschluss. Dlss3 sieht oft besser aus weil die Kanten viel glatter sind. Die eingebauten Kantenglätter ohne ki sind meistens einfach nur für die Tonne. Nicht umsonst wird in den dlss Tests hier gesagt, dass es besser aussieht als das native Bild.
 
@ComputerBase

Ich hoffe mal endlich hört der Mythos auf, dass man für hohe Auflösungen keine CPU Leistung benötigt. Gerade z. B. die Berechnung der Bounding volume hierarchy bei RT generiert erstmal deutlich höhere CPU Lasten....und mehr je größer die Auflösung. Deswegen eben die Ergebnisse bei z. B. Spiderman wo eben auch 4K RT stellenweise im CPU Limit ist oder auch bei Cyberpunk. Viele RT Effekte brauchen neben GPU Leistung auch eben entsprechend CPU Leistung.

Und zum Thema Upscaling-Technologie : sowohl DLSS als auch FSR sehen bei sehr vielen Spielen von gesamten Bildeindruck besser aus als die native Lösung weil häufig Ingame Kantenglättungsverfahren einfach viel schlechtere Ergebnisse erziehen. Finde es sowieso spannend: alle wollen mehr Effizient und die sehr effizienten Näherungen an ein besseres Gesamtergebnis werden immer kritisiert....
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Die Stumpfsinnigkeit, mit der ein 7950x mit 32 Threads überall und ständig lediglich auf einen Spielprozessor reduziert wird, ist nur schwer zu ertragen. Der 7950x ist ebenso wenig ein Spielprozessor wie der 5995WX.
Mir ist kein Spiel bekannt, welches auch nur annähernd die Möglichkeiten dieses Prozessors mit seinen 16 Kernen und 32 Threads nutzen kann.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: joshlukas, Kalsarikännit, cbmik und 2 andere
wieso sollte es ein Flop sein? Es dürfte viele Fälle geben in denen die Multicore Performance des 7950X besser ist als die des 13900K.
Ergänzung ()

Wiesi21 schrieb:
Hmm. Ich glaube bei den 2 CCD Ryzen 7 gibt es noch/wieder Scheduler Probleme.
da bin ich eher überrascht dass das Big Little so gut funktioniert, also rein vom Scheduler. Gerade bei Games hätte ich da schlechte Frametimes erwartet wenn wieder was auf den E Kernen ausgelagert wird.
 
  • Gefällt mir
Reaktionen: danyundsahne
Zurück
Oben