Bericht AMD Ryzen 5000: Zen 3 schlägt Intel auch in Spielen & Single-Core-Lasten

DarkSoul schrieb:
Ich würde ja nicht die Fanboy-Keule schwingen und gleichzeitig CPUs miteinander vergleichen die fast exakt 100 € auseinander liegen...

Wenn wir einen 3800x statt einen 3700x nehmen ändert das wenig.
 
ColinMacLaren schrieb:
Das typische Argument der AMD Fanboys "Ist doch eh alles GPU-limitiert" gilt seit Ampere auch nicht mehr.
Bis Ampere-Karten breit verfügbar sind, ist Zen3 auf dem Markt ;)
Aber ja, wer sich ne 1000€-Grafikkarte kauft, der sollte logischerweise nicht an der CPU sparen.
Niemand würde ne 2080Ti mit einem Ryzen 5 paaren, um damit in FullHD shooter zu zocken. Muss halt ausgewogen sein und zum Anwendungsfall passen.

ColinMacLaren schrieb:
Mit Silikon kannst du Fugen im Bad abdichten. Hat mit CPUs nichts zutun. Der Halbleiter heißt Silizium (engl. silicon).
 
  • Gefällt mir
Reaktionen: Cpt.Willard, DarkerThanBlack und Verak Drezzt
Web-Schecki schrieb:
Niemand würde ne 2080Ti mit einem Ryzen 5 paaren, um damit in FullHD shooter zu zocken. Muss halt ausgewogen sein und zum Anwendungsfall passen.
Wenn du wüsstest. Solltest mal im Kaufberatungsbereich CPU/GPU/Desktopsysteme vorbeischauen. Da sind selbst Leutz dabei die ne 3080 mit nem 2600er unter FullHD betreiben wollen. Auch schon wen im Nvidia Problem Bereich gehabt, der sich gewundert hat wieso er mit seinem 3600X net mehr wie 120FPS in CoD; Warzone unter FullHD raus bekommt und sich die Graka bei 50-60% Auslastung langweilt.

Da fällt einem echt nix mehr zu ein ... und einige hier feiern das dann au noch und empfehlen entsprechende Custom Modelle der 3080. Als wie drauf hinzuweisen das eine Zen+/2 CPU, ne 3080 nicht wirklich auslastet. Selbst unter WQHD und 4K übrigens in einigen fällen wie RDR2, nicht mal nen 10900K mit über 5GHz. Sind schon harte Spezialisten hier unterwegs.



edit
und ja, mit einer 2080Ti/3070 sieht es net wirklich besser aus. Siehe Hitman ! zumindest was FullHD betrifft, als krasses Beispiel und der Rest liegt au net wirklich bei 99/100% an.

oder au hier, selbst in 8K mit einer 3090 un nem 10900K @4.9GHz
 
Zuletzt bearbeitet:
ColinMacLaren schrieb:
Wenn wir einen 3800x statt einen 3700x nehmen ändert das wenig.
Der Vergleich bleibt unsinnig, weil man dann genauso argumentieren könnte dass man dann den 3700X nehmen sollte.
 
ColinMacLaren schrieb:
: AMD, die Königin der synthetischen Benchmarks. Was mich interessiert, ist aufm Platz, d.h. wieviel FPS kommen hinten bei raus. Das typische Argument der AMD Fanboys "Ist doch eh alles GPU-limitiert" gilt seit Ampere auch nicht mehr.

Ansonsten: Gratulation für den Sechser in der Silikonlotterie.
Ich hatte hier einen 3700x und einen 10700k. Dass bereits @Stock Intel in der Spielleistung den AMD rasiert brauchen wir hoffentlich nicht mehr zu diskutieren. Die AMDs sind aber schon so super doll optimiert, dass in der Regel(!) taktmäßig durch OC nicht mehr viel geht. Mein 3700X boostete bis 4100 MHz, mit PCO waren es dann 4150 bei so gefühlt doppeltem Verbrauch. Da hatte ich in der Silikonlotterie wohl bisschen Pech, aber wenn man sich z.B. bei caseking die vorselektierten Modelle anschaut, dann schafft ein halbwegs guter 3700x 4,25Ghz.

So ziemlich jede Intel-CPU packt 5GHz, die meisten 5,1 GHz - und das ohne endloses Gefrickel wie bei AMD.

Und jetzt vergleichen wir mal den Wald- und Wiesenoverclock eines normalen Gamers und nicht Hardcore-Enthusiasten oder Silikonlottteriegewinners -
also 4.2 GHz 3700x vs. 5,1 GHz 10700k in Sachen Spieleleistung. Oder wir vergleichen was bei 50W Ingame-Verbrauch so rumkommt (k.a. so 3.9 GHz 3700x? vs. 4,5 GHz 10700k). Und wenn man fair ist bedenkt man noch, dass man bei AMD bei Zen2 nur 3600MHz RAM sinnvoll verbauen kann, mit viel Glück (meine 3700x packte nicht mal die 1800MHz Infinit Fabric-Takt) 3800MHz, bei Intel problemlos weit über die 4000.

Auch mit Zen3 wird AMD Intel nicht auf einem übertakteten System die Spieleperformancekrone nehmen. Ich lasse mich natürlich gern eines besseren belehren. Wenn der 5950X vielleicht mit deaktiviertem SMT plötzlich mit Abstand gegenüber Intel die Performancekrone an sich reißt, wird der verbaut. Ich glaube nur noch nicht daran.
So breit auftragen und dann nur lahme 3600CL18 fahren? Ok ich fahre exakt dasselbe Setting aber massiv undervoltet mit ~1.2V Ram Spannung 0.9V SoC usw. Ist fraglich ob du mit deinem Setup überhaupt schneller bist als ein optimierter Ryzen in Games.
 
Ich glaube, dass ich diesmal wirklich den 5900X und nicht den 5950X nehmen werde. Mein Usecase hat sich verändert und in Spielen werden sich beide CPUs nahezu nichts nehmen.

Selbst der 5600X wird in Spielen schneller sein als ein 3950X und zwar deutlich schneller. Der 5600X ist quasi ein 8700K auf Stereoiden.
 
Iguana Gaming schrieb:
Wenn du wüsstest. Solltest mal im Kaufberatungsbereich CPU/GPU/Desktopsysteme vorbeischauen. Da sind selbst Leutz dabei die ne 3080 mit nem 2600er unter FullHD betreiben wollen. Auch schon wen im Nvidia Problem Bereich gehabt, der sich gewundert hat wieso er mit seinem 3600X net mehr wie 120FPS in CoD; Warzone unter FullHD raus bekommt und sich die Graka bei 50-60% Auslastung langweilt.

Ich hatte das gleiche Problem mit 3900X und 3080 AORUS Master (WQHD). GPU usage 50 bis 70% und zwischen 80 und 100 fps. Was aber an Warzone lag und weniger an der Konfiguration. Nach einer kompletten Neuinstallation von 217GB mit Ultra Details und RTX dauerhaft 144 fps (cap).
Mit einem 3600X würde ich wohl kaum schlechtere Ergebnisse erzielen.
Hauptsache einfach mal sticheln, ohne Ahnung zu haben?
 
  • Gefällt mir
Reaktionen: Kirschgeschmack und Verak Drezzt
@FwSteiner666

Der 3600X ist schon noch ein gutes Stück langsamer in Warzone, als ein 3800X. Das Spiel nutzt tatsächlich bis zu 10 Kerne / 20 Threads. Das kann man gut im Afterburner sehen. Der 3600X ist schon genug um ordentliche FPS zu haben, aber optimal sind tatsächlich 8/16.

Mein 3950X hat momentan wieder regelmäßige Framedrops im Spiel. Ich glaube die Engine zickt bei 16/32 einfach rum und kommt darauf nicht klar.

Das ist einer der Gründe warum ich stark zum 5900X und nicht zum 5950X tendiere.
 
t3chn0 schrieb:
@FwSteiner666

Der 3600X ist schon noch ein gutes Stück langsamer in Warzone, als ein 3800X. Das Spiel nutzt tatsächlich bis zu 10 Kerne / 20 Threads. Das kann man gut im Afterburner sehen. Der 3600X ist schon genug um ordentliche FPS zu haben, aber optimal sind tatsächlich 8/16.

Mein 3950X hat momentan wieder regelmäßige Framedrops im Spiel. Ich glaube die Engine zickt bei 16/32 einfach rum und kommt darauf nicht klar.

Das ist einer der Gründe warum ich stark zum 5900X und nicht zum 5950X tendiere.

Na ja, das angesprochene Setup vom besagten User:
  • 3600x
  • RTX 3080
  • full HD

120 fps seien normal wegen CPU Limit? Das bezweifle ich wirklich.
Mit einer 1080Ti und Ryzen 3600 hatte ich in WQHD schon um die 100 bis 120 fps (niedrige bis mittlere Details).

Da sollte man mit einer 3080 in 1920x1080 locker um die 160 bis 200 fps haben, trotz 3600X 6-Kerner.
Screenshot_20201022_225747.jpg
 
FwSteiner666 schrieb:
Hauptsache einfach mal sticheln, ohne Ahnung zu haben?
Guck dir halt die Benchmark Videos an die ich gepostet habe. Findest gern noch mehr von im Netz und du chekst anscheinend nicht das je stärker die GPU ist, umso performanter muss auch die CPU sein, damit die Daten entsprechend schnell an diese weitergeleitet werden können.

Wenn die CPU nicht schnell genug ist, dann wird diese zum Flaschenhals und die GPU langweilt sich dann mit entsprechend niedriger Auslastung. Siehe wie gesagt auch die Benchmark Videos dazu. Ne 3080 ist dann auch wieder nen anderes Kaliber, wie ne 2080Ti in deinem CB Test.

Und wer weis, vielleicht hatte er au noch lahmen 2400/2666er Speicher, mit nicht mal Dual-Channel, in der Kiste. Trotz alledem sollte man ne entsprechend Leistungsstarke CPU zu solch einer GPU haben, selbst unter 4K wie man auch in den Benchmarks oben sieht.
 
Zuletzt bearbeitet:
Iguana Gaming schrieb:
Da sind selbst Leutz dabei die ne 3080 mit nem 2600er unter FullHD betreiben wollen
Kann man machen, kommt auf den Anwedungsfall an.
Einem Strategiespielenthusiasten würde ich das vielleicht nicht empfehlen, aber wer exzessiv downsampling nutzt und auf heftige Grafikmods steht, die die Anforderungen an die GPU massiv nach oben schrauben, der wird damit vielleicht glücklicher als mit einer schnelleren CPU und einer langsameren Grafikkarte...

Iguana Gaming schrieb:
Wenn die CPU nicht schnell genug ist, dann wird diese zum Flaschenhals und die GPU langweilt sich dann mit entsprechend niedriger Auslastung.
Irgendwas ist immer der Flaschenhals und langweilt sich ;) Wenn die FPS reichen, dann ist doch egal, was gerade limitiert.
 
  • Gefällt mir
Reaktionen: TheOpenfield
VelleX schrieb:
Irgendwie schneidet der 5900X im Multicore Test bei einigen Tests von Geekbench viel schlechter ab als der 3900XT.
.....

Glaube hier ist das Problem dass die meisten Ryzen 5000er Ergebnisse nur 16GB RAM hatten, und scheinbar die Tests AES-XTS, Navigation und Machine Learning von 32GB stark Profitieren, wie ich festgestellt habe beim vergleich mit meinen eigenen Ergebnissen zu älteren Tests von mir
Sind allerdings mit verschiedenen BIOS Versionen, daher nicht 100% vergleichbar.
3700X 16GB vs. 32GB
1603634626312.png

16GB 5800X vs. 32GB 3700X
1603634811197.png


Allerdings profitieren genau diese 3 Tests wohl auch nicht von viel mehr Kernen
64GB 5950X vs. 32GB 3700X
1603635057708.png
 
Zuletzt bearbeitet:
Iguana Gaming schrieb:
Guck dir halt die Benchmark Videos an die ich gepostet habe. Findest gern noch mehr von im Netz und du chekst anscheinend nicht das je stärker die GPU ist, umso performanter muss auch die CPU sein, damit die Daten entsprechend schnell an diese weitergeleitet werden können.

Wenn die CPU nicht schnell genug ist, dann wird diese zum Flaschenhals und die GPU langweilt sich dann mit entsprechend niedriger Auslastung. Siehe wie gesagt auch die Benchmark Videos dazu. Ne 3080 ist dann auch wieder nen anderes Kaliber, wie ne 2080Ti in deinem CB Test.

Und wer weis, vielleicht hatte er au noch lahmen 2400/2666er Speicher, mit nicht mal Dual-Channel, in der Kiste. Trotz alledem sollte man ne entsprechend Leistungsstarke CPU zu solch einer GPU haben, selbst unter 4K wie man auch in den Benchmarks oben sieht.
Wie gesagt habe ich derzeit wieder das gleiche Problem mit meinem 3900X. Es liegt nicht am Setup 😅
Ich würde die Graka wohl kaum zu 100% in RDR2 oder BF5 oder MW Ground War auslasten, wenn die CPU limitiert. Nur bei Warzone schlummert die Karte bei 50% Auslastung und 80 bis 100 fps. Mit der 1080Ti hatte ich mehr fps. Und du erzählst mir, dass es an der neuen Graka liegt 🤔
 
ColinMacLaren schrieb:
Ich hatte hier einen 3700x und einen 10700k. Dass bereits @Stock Intel in der Spielleistung den AMD rasiert brauchen wir hoffentlich nicht mehr zu diskutieren.
Da schreibst du so einen Riesentext aber gleich in der 1. Zeile ist unklar was du mit "@Stock" meinst !?
3700X TDP 65W 3,6Ghz vs. 10700K TDP 125Watt 3,7Ghz oder was ? Es gibt nämlich kein @Stock mehr.
 
0ssi schrieb:
Es gibt nämlich kein @Stock mehr.
Klar gibt es dass, Stock ist nichts anderes als Werkseinstellung, also so wie die CPU spezifiziert ist betrieben ohne was dran zu verstellen

Das bedeutet beim 3700X ein PPT von 88W und beim 10700K ein PL1 von 125W und ein PL2 von 229W
 
Na das AM4 X Board will ich sehen wo ein 3700X mit den Standardeinstellungen nicht mehr als 88 Watt
und ein 1200 non Z Board wo ein 10700K bis 229 Watt braucht und vor allem was soll dann die Aussage,
dass ein Intel einen AMD rasiert wenn es nach deiner Rechnung um 229 Watt vs. 88 Watt geht. Unlogisch.
 
0ssi schrieb:
Na das AM4 X Board will ich sehen wo ein 3700X mit den Standardeinstellungen nicht mehr als 88 Watt
Jedes AM4 Board. Das PPT musst du selbst erhöhen wenn du über 88W gehen willst, entweder über manuelle Eingabe oder über PBO. Ansonsten ist bei 88W Schluss bzw bei den kommenden 5800X-5950X bei 142W.

Bei Intel haben die Boardhersteller teilweise viele Freiheiten das PL2 länger laufen zu lassen, trotzdem ist Stock genau von Intel definiert.
0ssi schrieb:
vor allem was soll dann die Aussage, dass ein Intel einen AMD rasiert wenn es nach deiner Rechnung um 229 Watt vs. 88 Watt geht. Unlogisch.
Es ging um Spieleleistung. In Spielen wird weder ein 3700X 88W noch ein 10700K 229W verbrauchen, die liegen da beide in einem ähnlichen Bereich zwischen 50 und 80W je nach Spiel und der 10700K ist eben schneller.
 
Zuletzt bearbeitet:
50-80 Watt ? Bei welchem Takt soll das sein ? Kein Z Board taktet standardmäßig mit max. nur 3,7Ghz.
 
0ssi schrieb:
50-80 Watt ? Bei welchem Takt soll das sein ? Kein Z Board taktet standardmäßig mit max. nur 3,7Ghz.
Ganz normaler Gaming Takt, beim 10700K eben 4,7 und beim 3700X um die 4,25.

Hier mal mein 3700X @ Stock in Shadow of the Tomb Raider
Screenshot 2020-10-26 192141.png

https://capframex.com/api/SessionCollections/bcfcda67-c3eb-4c62-9e58-667e0841bf91

Ich durchforste mal unsere Datenbank ob ich n paar 10700Ks finde...

Ghost Recon Breakpoint 1080p, 10700K @ 5.1Ghz
Screenshot 2020-10-26 193723.png

https://capframex.com/api/SessionCollections/644f9655-5b86-4c7f-a4ec-05be92527b75
 
Zuletzt bearbeitet:
Zurück
Oben