News Hersteller-Benchmarks: Ryzen 7950X3D angeblich 6% vor Core i9-13900K in Spielen

Pünktlich um 14:59:59 hoffentllich.
 
BelneaHP schrieb:
@StoerdienstUmso mehr irritiert es mich, dass man ständig nur ego shooter testet um die CPU Leistung zu vergleichen.
CB (und andere Tester) müssen ja im Spieleparcours einen großen Spagat leisten zwischen:
  • populäre Spiele (zB. xy Millionen Spieleranzahl)
  • ressourcenfressende Spiele
  • ressourcenschonende (?) E-Sport Spiele
  • Wunschspiele der Community
  • "aktuelle" bzw. "trending" Spiele
Und auf alle Spiele im Parcours sollten auch noch möglichst folgende Eigenschaften zutreffen:
- ermöglicht wiederhol- und vergleichbare Benchmarkergebnisse

Da bleibt dann nicht mehr ganz so viel übrig, bzw. manchmal muss man eben Spiele beibehalten, weil es sie nochmal im großen Jahres-Benchmarkvergleich gibt o.ä.

Aber grundsätzlich bin ich da bei dir, dass mich Spieletests überhaupt nicht interessieren wenn es darum geht ob man 500 oder 700fps hat.
Ich selbst kann bei manchen Spielen nicht 100% sicher unterscheiden ob es mit 100fps oder 144fps läuft.
Deswegen hab ich ohnehin ein globales Limit bei 142 drin.
Daher lieber mehr Spieletests wo man Performanceunterschiede auch in spürbaren fps Bereichen hat.
 
b|ank0r schrieb:
Da hättest du auch gleich auf AM5 gehen können und bräuchtest nur die CPU wechseln.
Konnte und wollte nicht warten, AM5 hat weniger IPC im Vergleich zum 13th Intel, der 5800X3D performs ganz gut in DCS World, aber nur wegen dem Cache, die 13th Intel haben ordentlich Cache zugelegt.
Ich würde nur wechseln wenn es in DCS World 15%+ sind.
 
ruthi91 schrieb:
Daher lieber mehr Spieletests wo man Performanceunterschiede auch in spürbaren fps Bereichen hat.
CB hätte einfach Anno 1800 im Parcours drinlassen sollen. Damit hat man ein wunderschönes Beispiel für ein CPU-Limit (natürlich im Mid- bis Endgame mit großer Stadt).
 
  • Gefällt mir
Reaktionen: Klever
So, war nett euch kennengelernt zu haben. Ich geh nochmal pinkeln und was trinken. Mal gucken wer nach nur einer Minute bereits den ersten Beitrag verfasst hat.

So spannend war ein Launch selten....hui hui.
 
Ihr seid alle so krank! Naja, ich bin dann gleich mal am lesen :D
 
@Maine Und genau Anno1800 hat leider keine gute Reproduzierbarkeit.
Der eingebaute Benchmark ist kaum vergleichbar mit echter ingame Performance.
Und die echte ingame Performance schwankt manchmal ohne erkennbaren Grund bzw. Zufallsereignisse können viel Einfluss auf die Performance haben.
Z.B. ein aufploppendes Fenster weil ein NPC irgendwas redet, kann viel Performance kosten.
Oder manchmal klebt das Spiel an einer 59/60fps Schwelle, dann ändert man leicht den Winkel/Zoom und schon sinds 110.
Ein halbwegs bebautes Kap Trelawney kann mit maximaler Sichtweite und Wuselfaktor je nach Kamerawinkel auch einen 5800X3D/12900K unter 30fps drücken.
Ich vermisse Anno 1800 auch als Benchmark, kann aber auch gut nachvollziehen warum es aussortiert wurde.
 
ruthi91 schrieb:
@Maine Und genau Anno1800 hat leider keine gute Reproduzierbarkeit.
Der eingebaute Benchmark ist kaum vergleichbar mit echter ingame Performance.
Und die echte ingame Performance schwankt manchmal ohne erkennbaren Grund bzw. Zufallsereignisse können viel Einfluss auf die Performance haben.
Z.B. ein aufploppendes Fenster weil ein NPC irgendwas redet, kann viel Performance kosten.
ruthi91 schrieb:
Ich vermisse Anno 1800 auch als Benchmark, kann aber auch gut nachvollziehen warum es aussortiert wurde.
Stimmt, da hast du Recht. Man bräuchte schon ein sehr passendes Savegame und müsste alle Benachrichtigungen usw. abschalten. Ist als Test dann in der Tat schwierig umzusetzen.
 
Sehr gut.

Jetzt müssen nur noch die Programmierer ein wenig flexibler werden.

Wie sagte ich schon 2020?

[wege]mini schrieb:
was CPUs wirklich "schnell" für Gamer macht ist Cache, Cache und noch mal Cache. Der muss dann mit ordentlicher Latenz angebunden sein und schweine schnell. Am besten mit CPU Takt.

Intel wird demnächst auch auf den Zug aufspringen, mal schauen, wie ihre Lösung aussieht. Die 3te Dimension zu benutzen, ist aber echt keine schlechte Idee.

[wege]mini schrieb:
Mit 3nm oder gar 1nm kann man aber noch sehr gut arbeiten und die 3te Dimension kann ja auch noch in das Spiel kommen.

Auch von 2020.

mfg
 
Pater_Erminold schrieb:
Du hast dich auf den Unterschied 3090Ti mit 7950x und 6950xt mit 7950x bezogen
Nein, ich hab mich jeweils auf den Abstand zu Raptor Lake bezogen:
Nixdorf schrieb:
Bei PCGH ergibt sich zum Beispiel die Situation, dass Zen 4 mit einer 6950XT 6,6% besser in Relation zu Raptor Lake abschneidet als mit einer 3090 Ti, bei ansonsten identischen Testsystemen.
Ich habe das mal per Fettdruck hervorgehoben. Der 7950X erzielt 86,5% der Leistung des 13900K, wenn beide die Geforce nutzen. Und er erzielt 92,2% (90,7/98,4) der Leistung des 13900K, wenn beide die Radeon nutzen. Das ist dann ein 6,6% besseres Ergebnis (92,2/86,5), wenn mit Radeon statt Geforce gemessen wird.

Netterweise hat ComputerBase im neuen Test ja ebenfalls zwei GPUs getestet und da sieht man den Effekt auch: Der 13900K liegt mit der 4090 um 14% vor dem 7950X, mit der 7900XTX aber nur noch 9%. Und wie bei der PCGH auch geht beim Wechsel von Geforce zu Radeon beim 13900K das Gesamtergebnis nach unten (PCGH 100->98,4, CB 92,8->91,3), und beim 7950X geht es rauf (86,5->90,7, CB 81,3->83,5).
Ergänzung ()

@Maine Golem hat Anno 1800 auch dabei.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maine
Nixdorf schrieb:
Das ist dann ein 6,6% besseres Ergebnis (92,2/86,5), wenn mit Radeon statt Geforce gemessen wird.
Ja, wenn man nicht wüsste, dass die Geforce mit dem 13900K 2% mehr FPS drückt als die Radeon, dann stimme ich dir zu. Du normierst die 98,4% als 100%. Ja soweit klar.
 
scryed schrieb:
Naja je nachdem für was man die übertakten Sachen dann benutzt , für all core und 100 % wirst du sicher Recht haben , bei Computer spiele wird sich das alles in Grenzen halten
Ergänzung ()


Das war doch schon immer so das PC parts teurer sind , ja die Preise haben in den letzten paar Jahren unangenehm angezogen das hatten wir aber in den 90er auch da waren Rechner verdammt teuer , wenn ich überlege was meine Voodoo 2 12mb damals gekostet hat .... 400mark + die 2d Karte die war auch nicht umsonst

Dann sind die Preise gefallen und eben die letzten Jahre gestiegen wobei aktuell könnte es sein das sie auch wieder fallen .... In den News steht ja Intel senkt Preise ,die SSD Preise sind auch im Fall und ddr5 RAM ist auch ganz schön gesunken .... Fehlt noch das die graka Mal wieder günstiger werden sowie die Oberklasse Mainboards könnten auch Mal wieder günstiger werden
in 90ern war Technik allgemein vergleichbar teurer, wobei verglichen mit 70/80er hatte da schon ordentlich der Preisverfall eingesetzt und auch PCs bezahlbar gemacht, Aldi PC, VHS Recorder usw....

Der punkt ist aber das es extrem auseinander geht, die PS5 ist teurer als die PS4 (pi mal daumen 600€ zu 400€) aber 2013 kostete eine High end Graka 780t ~700€ heute kostet diese nicht doppelte der PS5 sondern beinahe das vierfache...

aktuell sind die preise nicht schön, neuer RAM DDR5 deutlich teurer, neue Platfworm usw
der Desktop PC ist schon seit mitte/ende der 2000 am sterben und immer kleiner werdende Nische, ... ok vielleicht erklärt das auch die exorbitanten Preissteigerungen
 
Wolwend_the_Orc schrieb:
@Kuhprah Für was benötigst du denn nur 1en oder 2 Kerne? Was sind dies für Anwendungen oder Spiele die deine 3090 nicht auslasten aber nur einen Kern benötigen?
DCS World und Benchmarksims BMS 4.37. Beiden Games die durch keinerlei Treiber oder sonst was optimiert werden und die nach wie vor auf pure FPU Power von einem Kern setzen... Sound läuft über nen 2. Kern aber dann wars das auch schon, der Rest der CPU pennt vor sich hin und ein kleiner Teil überschlägt sich fast und bringt nix vorwärts..
 
BigManda schrieb:
Ich würde mich daher freuen wenn die 1080p Zahlen endlich mal wegfallen würden, ist aber auch nur meine Meinung dazu :)

Hier kannst Du das Ergebnis in 2160p anschauen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Kommando
Pater_Erminold schrieb:
Ja, wenn man nicht wüsste, dass die Geforce mit dem 13900K 2% mehr FPS drückt als die Radeon, dann stimme ich dir zu.
7950X3D vs. 13900K mit 4090 sind es 4 % und mit 7900XTX 8 % zugunsten AMD = im Schnitt 6 % !
Blöd, gelle ... :freaky:

MfG Föhn.
 

Anhänge

  • 4090 4 %.jpg
    4090 4 %.jpg
    504,1 KB · Aufrufe: 108
  • 7900 8 %.jpg
    7900 8 %.jpg
    560,3 KB · Aufrufe: 112
Onkel Föhn schrieb:
7950X3D vs. 13900K mit 4090 sind es 4 % und mit 7900XTX 8 % zugunsten AMD = im Schnitt 6 % !
Blöd, gelle ... :freaky:
Die 4090 liefert im CPU Limit wesentlich mehr FPS wie auch Percentile, wenn man die absoluten Werte ansieht.
Außerdem sieht man bei den Percentilen, dass da von besserer Skalierung mit einer Radeon GPU nicht viel dran ist, denn sie ist einen Prozentpunkt schlechter als mit der Nvidia GPU.

Man muss sich das Gesamtbild anschauen, dann werden die meisten "Boomer Aussagen" widerlegt oder relativiert.
 
Pater_Erminold schrieb:
... dann werden die meisten "Boomer Aussagen" widerlegt oder relativiert.
Danke für Deinen Tipp !
Genau dies hab ich ja weiter oben (mit den Anhängen) bei Deiner Aussage gemacht ... :cool_alt:

MfG Föhn.
 
Zurück
Oben