Test High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

Vermutlich kam die Umfrage zu spät, auch kann ich hier keinerlei Erwartungshaltung als nichtzahlender Kunde äußern, doch wünschen würde ich mir in der Tat mal eine Spalte (bei Verbrauch von xyz Watt).
Ergänzung ()

Sven Hansen schrieb:
… DCS und HP Reverb G2
Was ist das?
 
Klick82 schrieb:
Laut PCGH im Durschnitt bei Spielen:

7950X = 135 Watt
13900K = 148 Watt

FPS pro Watt:

7950X = 3.625
13900K = 3.5

Leistungsaufnahme bei Anwendungen:

7950X = 214 watt
13900K = 276 Watt
Also das übliche Bild wie bisher schon. Idle Intel nicht zu schlagen, im Gaming mehr oder weniger beide sehr ähnlich, Productivity AMD dafür nicht zu holen bzw. man opfert entweder Leistung in der Anwendung oder Leistung an der Dose.
 
Sunweb schrieb:
Da sich alles nur in deinem Kopf abspielt, da kannst du viel ertragen.

Eine 4090 verbraucht weder 600W noch produziert sie 600W Abwärme.
Und ein 13900K verbraucht auch keine 300W und produziert auch keine 300W Abwärme.

Kuckst du hier:
https://www.igorslab.de/intel-core-...ine-3-4-krone-fuer-den-letzten-monolithen/11/
Anhang anzeigen 1278168
und hier:
https://www.igorslab.de/nvidia-gefo...trotzende-monolith-der-aus-der-kaelte-kam/10/
Anhang anzeigen 1278171
Die von dir geposteten Graphen beschreiben halt nur ein spezielles Szenario.
A: Ist es Stock ohne OC und ich meinte halt MIT OC. Ohne hat halt jede 4090 ~450W.
B: Es ist ein Durchschnitt aus Spielen mit niedrigem Verbrauch und denen mit höheren.
Wenn ein Spiel z.b. CSGO nur 80W verbraucht und CP2077 440W ist der Durchschnitt 300W...sagt aber rein gar nichts aus. Möglicherweise spielt jemand gar kein CSGO?

Hier aus den selben Artikeln.
1667411176701.png


Hier Blender mit dem 13900k. 280W im Durchschnitt.
1667411038928.png

Jenachdem WAS man mit dem PC macht geht halt mehr...A
ußerdem beschreiben alle Graphen hier eine STOCK 450W 4090 und keine mit manuellen OC, da geht halt mehr. Bei der GPU UND CPU.

Achja hier nochmal mit dem maximal Verbrauch (Torture):
1667411313829.png

Man kann alles aus den Kontext ziehen und einem zurecht dichten...
 
  • Gefällt mir
Reaktionen: Viper816, Rockstar85 und floTTes
Philste schrieb:
Und 6000MT bei beiden (wie in vielen anderen Tests) sind für mich auch nicht gleiche Bedingungen, wenn ZEN4 spätestens bei 6600MT abschmiert und Raptor Lake easy über 8000MT macht.
was hat denn das eine mit dem anderen zu tun? Wenn jemand von gleichen Bedingungen beim Ramtakt spricht, hat das überhaupt nichts damit zu tun, ob die eine CPU noch von hohen taktraten profitiert und die andere nicht.

und klar. Spec ist spec. Was ne Aussage. Ist für mich qualitativ aber kein guter Test.

Am besten wir testen die eine Plattform noch mit Windows 10, die andere mit 11. macht auch kein Sinn.

Und wie gesagt. Spec bei Zen 3 sind 3200 MHz. Aber alle betreiben mit 3600 und 1800 IF. Einfach weil es Leistung bringt und mit vielen RAM Kits möglich ist.

Aber gut. Da hat wohl jeder seine eigene Meinung.

Zum Glück gibt es noch andere Tests, welche Bedingungen näher der Realität schaffen
 
Legalev schrieb:
und in 2 Jahren ist deine Grafikkarte wieder "veraltet"
CPU´s Tauscht man selten, GPU öfter
Genau, und deswegen ist es sinnvoll beim kompletten Neukauf darauf zu achten einen Prozessor mit mehr "Reserven" für die zukünftige Grafikkarte zu kaufen (wenn sich das preislich minimal unterscheidet).
Auf 4K ist das natürlich nochmal schwieriger zu beurteilen, da hier die 120Hz Monitore auch Unsummen kosten, aber wenn man eh nur 4K60 hat, braucht man auch über 100fps+ nicht zu philosophieren.
 
  • Gefällt mir
Reaktionen: cbmik, Zwirbelkatz und Öcher Tivoli
Ragnarök88 schrieb:
Nein, PCGH hat genau den selben Wert mit RTX 3090 Ti.
7950X zu 13900K 17/18%.
Jop und zB hardware unboxed gesehen? Da sieht die Geschichte anders aus - Bzw. nicht so deutlich.

Es ist halt sehr stark vom Titel abhängig.

Der 5800x3d muss man sagen ist fast schon ein Wunder..
Der läuft auch mit DDR4 so gut, wie die Highend Dinger von Intel/AMD.

Intel/AMD(AM5) brauchen hierfür teuren DDR5 Ram mit teureren Boards.

Ich liebäugel ohnehin mit gebrauchten Alder Lakes, als mit den neuen CPUs oder 5800x3d zB .. Da viele diese CPUs grad "rauswerfen".
 
  • Gefällt mir
Reaktionen: danyundsahne
NDschambar schrieb:
... und zum 1500 W - Netzteil. Spaß beiseite, es wäre cool, wenn ihr noch den 5800X3D und den 13600K dazutestet.
Das ist leider kein Spaß: wenn ich an die current spikes von Ampere denke, die bei der 3090 einfach mal ~130% der average power consumption betragen, und die 4090 ein ähnliches verhalten zeigt, dann sind für eine 4090 inkl 13900K 1200W fast schon das Minimum.

@Wolfgang mich würde interessieren, wie die Belastung am Netzteil gemessen aussieht - sowohl bei der CPU als auch bei der Grafikkarte...
 
  • Gefällt mir
Reaktionen: NDschambar
Der Vergleich hier in dem Video ist auch recht interessant, 13600k vs. 7600x vs. 5800X3D, auch mit unterschiedlichem Ram:

 
Tornavida schrieb:
kein Bock bei DDR5 auf 6000 zu verweilen (weil das gekaufte Board nicht mehr packt) wenn es in der Zwischenzeit 10000 und mehr gibt wenn ich schon so fortschrittlich und zukunftsorientiert eingestellt bin.
Naja das war bei DDR4 jetzt auch kein Drama. Mein RAM vom Ryzen Release läuft jetzt auch mit 3200Mhz und das Mainboard hat erst später Support für RAM jenseits von 3200Mhz bekommen. Also wenn man jetzt halbwegs guten DDR5 kauft sollte man an der Stelle keine Probleme bekommen später. Ich hab eher das Gefühl, dass sich das AMD jetzt auch reichlich bezahlen lässt, dass die Plattform noch lange unterstützt wird. Mein AM4 B350 Brett war ein Schnäppchen dagegen. Am Ende ist auch das mir lieber, als nach wenigen Jahren direkt ein neues Brett zu brauchen. Geht mir dabei auch um die Schonung von Ressourcen.
Wenn alles gut läuft wird mein aktuelles Board eine Dienstzeit von 8 Jahren oder mehr haben, sofern mich der 5600 noch bis 2025 begleitet und es fehlt an nichts. GPU und SSD sind natürlich an PCIe 3.0, aber da sehe ich die nächsten Jahre auch kein Problem. Geht nur damit los, dass man bisschen schauen muss, mit wie vielen Lanes die Grafikkarte angebunden ist. Mein vorheriges AM2+ hatte ich ebenso Ewigkeiten, zugegeben auch lange Zeit nichts gezockt.
 
theGucky schrieb:
Hier aus den selben Artikeln.
Und da sehen wir, in einem sehr fordernden Beispiel, insgesamt 523W für GPU+CPU, das Szenario von 600+300 gleichzeitig geht trotzdem nicht auf.

theGucky schrieb:
Hier Blender mit dem 13900k. 280W im Durchschnitt.
Während die 4090 ihre ~20W idle zieht.
 
Silencium schrieb:
Vermutlich kam die Umfrage zu spät, auch kann ich hier keinerlei Erwartungshaltung als nichtzahlender Kunde äußern, doch wünschen würde ich mir in der Tat mal eine Spalte (bei Verbrauch von xyz Watt).
Ergänzung ()


Was ist das?
DCS = Digital Combat Simulator, ein Flugkampfsimulator für den PC.
HP Reverb G2 = Ein kabelgebundenes Virtual Reality HMD (Human mounted device; aka VR-Brille) für den PC (Bspw mittels SteamVR) von Hewlett Packard.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Silencium und floTTes
Intel hat einfach abgeliefert. AMD muss es jetzt über den Preis regeln. Ich behaupte mal AMD hat einfach nicht erwartet, dass Intel so stark zurückkommen wird. Glaube schon, dass AMD zen4 dann gleich mit 3D Cache und nicht so teuer rausgebracht hätte.

Und es ist einfach nur krass, dass die 4090 selbst in UHD teilweise von den schnellsten CPUs ausgebremst wird.

Morgen geht hoffentlich die Post ab mit RDNA3!
 
  • Gefällt mir
Reaktionen: Tiara G.
In Overwatch 2 liegt die AMD-CPU gleichauf mit dem Intel-Pendant, jedoch rennen beide Produkte in das FPS-Limit des Games, das bei 600 FPS liegt.

@Wolfgang Wieso ist das Spiel dann im Ranking?

Korrekte Werte wären dann ja +20% für die Intel CPU.🧐

Nehmt doch lieber ein Anno dazu, anstatt Werte die nicht brauchbar sind.
Das ist doch keine Leistungsmessung.
Ihr möchtet ins CPU Limit und testet die CPUs im FPS Begrenzer. Das kann ja nicht euer Ernst sein.

So etwas muss sofort aus dem Ranking entfernt werden!
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: da!mon, Sunweb und floTTes
theGucky schrieb:
Achja hier nochmal mit dem maximal Verbrauch (Torture):

Im 4090 Test lief sie bis knapp 3GHz stabil und selbst dabei war der Worst Case 520W in Metro Exodus, andere Spiele lagen alle zwischen 400 und 500W.

Und was hat man davon? ~7% mehr Performance. Wer für 7% das Powerlimit so hoch dreht, der wird auch UV betreiben und dann sind wir schnell wieder bei 450W und drunter.
 
Silencium schrieb:
Vermutlich kam die Umfrage zu spät, auch kann ich hier keinerlei Erwartungshaltung als nichtzahlender Kunde äußern, doch wünschen würde ich mir in der Tat mal eine Spalte (bei Verbrauch von xyz Watt).
Ergänzung ()


Was ist das?
Digital Combat Simulator ( braucht hohe IPC, wobei der 3D Cache auch ordentlich was bringen soll) , HP Reverb G2 is ein VR Headset.
 
was genau soll der Test nun aussagen ?
realitätsferne Auflösung zum Vergleich der CPU Leistung und UHD upscaling auf wqhd ohne native Auflösung ?
irgendwie Zeitverschwendung das zu lesen ohne das nun böse zu meinen
 
Ich verstehe diese Testerei nicht.

Man muss schon komplett unrealistische Szenarien testen damit überhaupt ein messbarer Unterschied zwischen den CPUs rauskommt.

Aus dem Test:

"Ultra HD als Zielauflösung inklusive FSR 2 oder DLSS 2 in der Quality-Einstellung ist ein absolut realitätsnahes Szenario für eine GeForce RTX 4090."

In welcher Welt? Wer macht sowas?

Warum wird nur in unrealistischen Szenarien getestet?
720p, 1080p und 4K mit Upsampling?

Die meisten Leute die sich zwischen 2 CPUs entscheiden müssen, würden eher realistische Szenarien interessieren. Aber genau das wird nicht getestet (normales 4K Gaming und VR)

Auch noch interessant:
Wie skalieren Ramtakt, Ramtimings, Powerlimit, OC und Speichertimings bei beiden CPUs mit der Performance der Grafikkarte?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Anon-525334, Max007 und Öcher Tivoli
augustusjustus schrieb:
was genau soll der Test nun aussagen ?
realitätsferne Auflösung zum Vergleich der CPU Leistung und UHD upscaling auf wqhd ohne native Auflösung ?
Wieso hast du dann einen Ryzen 5900 gekauft und keinen 1800x, wenn die CPU doch egal ist?
Es ist ein CPU Test, der zeigt, dass selbst in WQHD die CPU absolut nicht egal ist, selbst dann wenn High End CPUs verglichen werden.

Jeder mit Ryzen 3000 CPU braucht sich unter Umständen keine RTX 4090 anschaffen, weil die FPS in Spiderman nicht steigen werden.

Der User würde auch mit einer RTX 4080 auskommen.
 
Zuletzt bearbeitet von einem Moderator:
IBISXI schrieb:
Die meisten Leute die sich zwischen 2 CPUs entscheiden müssen, würden eher realistische Szenarien interessieren. Aber genau das wird nicht getestet (normales 4K Gaming und VR)

Denke 98% der User kaufen auch diese beiden CPUs nicht.

Dafür gibt es aber zB einen guten 13600k Test mit DDR4 UND DDR5.
Man kann sich auch daran halten :-)
 
IBISXI schrieb:
Die meisten Leute die sich zwischen 2 CPUs entscheiden müssen, würden eher realistische Szenarien interessieren. Aber genau das wird nicht getestet (normales 4K Gaming und VR)
Nein, denn dann würden sie ja nicht sehen, dass der 13900K 20% schneller ist...

Wieso sollte ich mir einen teureren 7950X zulegen, wenn der günstigere 13900K besser performt?

IBISXI schrieb:
Auch noch interessant:
Wie skalieren Ramtakt, Ramtimings, Powerlimit, OC und Speichertimings bei beiden CPUs mit der Performance der Grafikkarte?
Wieso sollte es interessant sein Ramtakt, Speichertimings etc. im Grafiklimit zu messen?
 
Zurück
Oben