Test RAM-OC-Benchmarks: Ryzen 7 5800X3D vs. Core i7-12700K und i9-12900K

Duvar schrieb:
...Zu viele Tools die da was auslesen beeinflussen die Performance zu sehr...
Könnte man ja alles mit einem Click auf "aufzeichnen" mit Capframe X machen und dann hat man alle Sensoren (CPU / GPU / Takt / Frametimes / Auslastung der CPU / GPU usw usw) aber ist ja "zu viel Arbeit" da 85 Sekunden bei der Aufzeichnung einzustellen und bei "Los" auf "aufzeichnen" zu drücken (Taste sogar selbst wählbar) :freak:
 
  • Gefällt mir
Reaktionen: Veitograf
Ich passe, hier könnt ihr euch einreihen^^

Screenshot_126.jpg
 
Es wäre halt gut zu sehen, was da wo und wie ausgelastet wird, wie die Verbräuche und Auslastungen der GPU und CPU sind und das alles mit nur einem Klick.

Verstehe halt nicht wieso man lieber Videos macht.

Damals mit Fraps und Excel oder aufwendig wie Igor (dafür aber meist genau) ist kompliziert, ja.
Aber CX macht das alles (wenn auch nicht 100% genau) und eben viel einfacher.
 
  • Gefällt mir
Reaktionen: Veitograf
Das mit dem PPT ist halt genau was ich meine. Bei Intel steht da nichts von VDDIO_Mem. Ist halt die Frage was man jetzt eher vergleicht. Den Verbrauch der beiden Chiplets oder das PPT mit dem RAM Zeugs.

HWinfo.jpg


Hab auch nochmal mit CFX laufen lassen. Loggt halt schön die "realen" FPS und dröselt das nicht so krass auf.

CFX.jpg


Sind halt konstant die 35,8 bzw 36 W PPT. Die CPU Läuft da halt ins eingestellte Limit rein.

Was sind das denn für FPS in deiner Tabelle? CPU Render avg?
 
Duvar schrieb:
Ich passe, hier könnt ihr euch einreihen^^

Anhang anzeigen 1245781
Finde die Tabelle schon echt spannend.
R7 5700G 311fps, 5900x 312/316/318Fps je nach GPU. Der R6 5600x ist mein Highlight.
Scheint ja ne super tabelle zu sein :D

Bestimmt alles Brav mit CFX belegt ?
 
  • Gefällt mir
Reaktionen: Veitograf
Obvious Cough ist halt ein Psycho Übertakter, siehst ja wie oft der da vertreten ist und was der aus der HW rauskitzelt. Hat in der Regel auch kranke Kühlung.
Screenshot_127.jpg


Der R6 ist halt ein Tippfehler:

Screenshot_128.jpg



Die Tabelle zeigt die finalen FPS (Achieved)
 
Duvar schrieb:
Obvious Cough ist halt ein Psycho Übertakter, siehst ja wie oft der da vertreten ist und was der aus der HW rauskitzelt. Hat in der Regel auch kranke Kühlung.

verstehe zwar den zusammenhang von "psycho übertakter" und meiner kritik an der tabelle nicht... aber du offensichtlich auch nicht meine kritik ^^

Gibts auch einen CFX log zum Screenshot?
 
  • Gefällt mir
Reaktionen: Veitograf
Veränderung der Leistungsaufnahme in 4k:

BF V:
5800X3D 87W -> 68W
12900K 159W -> 129W
GPU ~470W
CX_2022-08-01_22-53-29_Battlefield V_4k - Test.pngCX_2022-08-01_22-53-19_Battlefield V_4k - Test.png



CP 2077:
5800X3D 75W -> 52W
12900K 166W - >98W
GPU ~ 460W
CX_2022-08-01_22-53-26_Cyberpunk 2077_4k - Test.pngCX_2022-08-01_22-53-22_Cyberpunk 2077_4k Test.png

Extrapoliert man die Werte des 12700K, welcher nicht erneut dafür gemessen wurde, würden wir bei etwa 110W für BF V und 77W für CP 2077.
In Anbetracht des Verbrauchs der Grafikkarte ist mMn. die Differenz zwischen dem 12700K und dem 5800X3D ziemlich belanglos.

VG
 
Klang so als findest du den Score vom 5700G zu hoch verglichen mit den anderen von dir aufgelisteten CPUs.
Brauchst kein CFX für die Resultate. Demo runterladen 720p auf kleinste Settings stellen und los gehts. Seht ja andere könnens auch.
 
"andere können es auch"... perfektes argument. Man kann auch die zahlen photoshoppen, das macht es aber auch nicht legit ^^
 
  • Gefällt mir
Reaktionen: Veitograf
Kannste diese zahlen auch Photoshoppen?
Ich verstehe nicht was die Diskussion wieder soll, falls ihr nicht benchen wollt dann lasst es doch.
War nur mit dem Kollegen am schreiben der sein Resultat netterweise gepostet hat, da braucht ihr jetzt nicht wieder anfangen mit dem Krampf. Ist alles gut, bencht nicht.

 
So weit würde ich nun nicht gehen.

Wichtiger ist hier vielmehr, was will man mit den FPS einer Demo eines Spiels das mittlerweile einen Nachfolger hat denn machen?

Nur um zu schauen und zu zeigen, dass man mit kaum CPU Last mit maximal OC mehr FPS bekommt als der andere, mehr ist das nicht (ist ja nicht schlimm, das drumherum - die Infos wie, fehlen halt).

Richtige Benchmarks machen eben Redaktionen oder die Community, welche die Redaktionsbenchmarks nach Vorgaben nachstellen, gerne auch mit maximal OC usw, man will ja wissen was drin ist.

Aber eben mit Redaktioneller bzw plausibler Belegung. ;)
 
  • Gefällt mir
Reaktionen: Veitograf, Jaffech und sealxo
Hmm was übles scheint da zu kommen: https://wccftech.com/intel-core-i9-...-all-core-benchmark-beats-threadripper-2990x/

Da kann ich nicht mithalten leider mit meinem heißen Eisen :-(


Hoffe Zen4 3D kann da mithalten in Games ggü einem getunenten Raptor.
 
Mutiert das hier jetzt zu einem FH4 Benchmark Thread?

Und wen juckt jetzt ein Spiel aus 2018? Ein einziges? Man kann aus einem Demo auch nicht eine allgemeine Gültigkeit ziehen, also was soll's...
 
  • Gefällt mir
Reaktionen: Esenel, Jaffech und Veitograf
Duvar schrieb:
Hmm was übles scheint da zu kommen: https://wccftech.com/intel-core-i9-...-all-core-benchmark-beats-threadripper-2990x/

Da kann ich nicht mithalten leider mit meinem heißen Eisen :-(

Dein "heißes eisen" ist auch nur ein stinknormaler 12700k, mehr nicht :D

Den uralten TR 2990WX von 2018(!!!) mit seinen 250W schlägt Raptor Lake zwar, braucht dafür aber 350W laut Artikel. Das sind 30% Leistung plus für Raptor Lake bei 40% höherer Leistungsaufnahme. Spricht nicht für RPL.

Gegen den neueren TR3975WX (auch 32C/64T) von 2021 sieht RPL richtig alt aus. Der ist nämlich 7% schneller bei 280W vs. 350W. Um vom neuen TR5975WX (ebenfalls 32C/64T) wollen wir gar nicht reden, der ist 23% schneller bei ebenfalls 280W. Aber klar, ne 32C/64T CPU ist evtl. ein unfairer Gegner. Nun ist aber selbst der TR 5965WX (24C/48T) 2,5% schneller. Ebenfalls mit 280W gegenüber 350W.

Aber du hast recht, da kommt was übles auf uns zu: Und zwar eine Intel CPU die ineffizienter als eine 4 Jahre alte (1 Jahr alte bzw aktuelle, je nach Modell) AMD CPU ist bei CBR23
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: herculesgott
cm87 schrieb:
Mutiert das hier jetzt zu einem FH4 Benchmark Thread?

Und wen juckt jetzt ein Spiel aus 2018? Ein einziges? Man kann aus einem Demo auch nicht eine allgemeine Gültigkeit ziehen, also was soll's...
Aus 40 Games vllt?

Screenshot_130.jpg



Dort wurde jedoch für beide CPUs der selbe RAM mit 3800MHz genommen und jeder hier weiß wohl, dass Intel deutlich schneller fahren kann beim RAM + wenn man Cache und CPU Takt hochzieht + E Cores ggf noch HT deaktiviert, sieht der 5800X3D kein Land mehr. Tuningpotential ist halt nicht so gut bei der AMD CPU.
Ist eher was für plug and play Leute XD
 
Duvar schrieb:
[...]Ist eher was für plug and play Leute XD
Richtig, wurde genauso kommuniziert seitens AMD. Falls du was mit tuningpotential willst, nimmst halt keinen x3D ;)
 
  • Gefällt mir
Reaktionen: Veitograf
Duvar schrieb:
Aus 40 Games vllt?
Also gewinnt hier der x3d.

Duvar schrieb:
Dort wurde jedoch für beide CPUs der selbe RAM mit 3800MHz genommen und jeder hier weiß wohl, dass Intel deutlich schneller fahren kann beim RAM + wenn man Cache und CPU Takt hochzieht + E Cores ggf noch HT deaktiviert, sieht der 5800X3D kein Land mehr. Tuningpotential ist halt nicht so gut bei der AMD CPU.
Ist eher was für plug and play Leute XD
und wieder eine Pauschalisierung, welche fürn Hugo ist...
es gibt auch Spiele, wo ein Intel, auch völlig hochgezüchtet, kein Land gegen den x3d sieht - also was ist dann dort? Fehler beim Spiel?

Um wieder zum Test zurück zu kommen - da siehst auch du, dass der hochgezüchtete 12900k im Schnitt schneller ist als der x3d - da gibt es nichts zu rütteln. so um die 9%. Diese 9% werden im absoluten CPU-Limit mit im Schnitt 88% Mehrverbrauch gegenüber den x3d erreicht - also ja, Intel ist schneller und ja, der x3d ist viel effizienter - beides im CPU-Limit getestet. Nicht mehr und nicht weniger.
 
  • Gefällt mir
Reaktionen: CueSystem, TheOpenfield, Veitograf und 3 andere
Richtig, nur den Intel kannst du auch extrem sparsam trimmen, da bleibt nicht mehr viel übrig vom drastischen Mehrverbrauch wenn man beide optimiert. Also am Ende bleibt es dabei wie ich es schon vor zig Posts gesagt hatte. Intel ist schneller in Games tuned vs tuned, kann auch extrem effizient und performant sein wenn man auf die letzten 3-400MHz beim OC verzichtet, ist in MC Anwendungen drückend überlegen, im Falle von 12700k deutlich günstiger. Verstehe nicht warum sich einige anscheinend hier angegriffen fühlen und in den defmode gehen wenn man hier was vergleicht oder mal die Fakten auf den Tisch legt. Ich sag ja nicht das 3D schlecht ist, ganz im Gegenteil, nur ist halt in meinen Augen Intel besser für Tuner.
 
Intel ist besser für tuner als der x3D, da gehe ich mit wie gesagt.
Schneller in Games max tuned vs max tuned ebenfalls.
Multicore überlegen: ja, aber der x3D wurde ausschließlich(!!!) für Gaming konzipiert. Ihn in MC antreten zu lassen und zu sagen "ist langsamer" ist genauso wie ihn gegen einen intel antreten zu lassen in einem spiel, welches extrem vom hohen L3 Cache profitiert um dann zu sagen "intel ist doof".

Für die Effizienz fehlen mir halt immernoch valide belege. (CFX... Mehrere Games... Keine demo von 2018... usw.) Da liegen noch keine Fakten auf dem Tisch.

Ich hätte eine idee: Mach doch wie @Esenel einen eigenen Post in welchem du deinen i7 gegen einen x3D antreten lässt mit einem 30W limit.
 
  • Gefällt mir
Reaktionen: Veitograf und Esenel
Zurück
Oben