Test AMD Ryzen 3 3300X und 3100 im Test: Zen-2-CPUs mit 4 Kernen für den B550‑Chipsatz

Ich habt immer noch nicht begriffen, dass ich es geradezu darauf angelegt habe, die CPU-Limitierungen zu zeigen. Und zwar in direkter Abhängigkeit von der GPU und den jeweiligen Settings. Allein um zu zeigen, ab wann etwas wirklich sinnfrei wird. Und zwar getrennt für die FPS-Hascher und die Schieberegler-Rechts-Fraktion. Da gibt es nämlich extreme Unterschiede :D

Mit normaler Skalierung bekomme ich es nämlich nicht hin zu zeigen, dass ein 3100 bei 6 Grafikkarten bereits extrem limitiert und sogar komplett stagniert, während der 3300X bis hoch zur Titan noch Zuwächse generiert. So eine Schere bekommt man mit linearer Skalierung nicht hin, sie ist aber da.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Tzk und Rockstar85
Ich bin hier sicherlich nicht der Gaming Krack. Wer meine Steam Sammlung sieht weiss das ich mit Games kaum beschäftige. Mann möge mir meine Ahnungslosigkeit vergeben. Aber mit CPU Messungen hab ich schon ein wenig Erfahrung und ich hab wirklich noch keine zwei Plattformen gesehen die parallel skalieren. Noch nicht mal bei einem 100% linearen Tasks wie Matlab mit verschiedenen Matrix Größen.

Also wie gesagt... es ist nicht so, dass ich mir so messreihen nicht gern anschaue. Ich verstehe nur den Mehrwert jenseits der Nerdbrille nicht, weil inter- und extrapolieren, am besten noch für eine zukünftige Aufgabe ist damit eh nicht. Die Vorhersagekraft von Snapshots des jetzt ist einfach sehr begrenzt.

Aber wer das anders sieht darf das auch gerne weiterhin tun... wir müssen ja nicht heiraten hier.
 
Zuletzt bearbeitet:
@FormatC @Ned Flanders
habs versucht, aber da könnt ihr auch mit einer Wand zu Hause diskutieren...
lieber mit einem Bierchen den herrlichen Frühsommerabend auf der Terasse noch auskosten gehen:)
 
  • Gefällt mir
Reaktionen: Ned Flanders
@ProximaCentauri

Steht eigentlich gleich bei den Spiele-Benches
Die aktuelle Gemengelage zahlt sich für den Ryzen 3 3300X (noch) aus. Mehr Takt als der kleine Ryzen 5 3600 und dazu der Bonus der vier aktiven Kerne in einem CCX bringen ihn minimal in Front. Das Gesamtpaket ist letztlich so gut, dass er nahezu die gleiche Spieleleistung wie alle weiteren Ryzen 3000 liefert. Wie üblich ist das aber die Momentaufnahme, denn mehr als vier Kerne (acht Threads) werden im Gaming-Umfeld zügig wichtiger und die Empfehlung geht klar zu einer Sechskern-CPU
 
  • Gefällt mir
Reaktionen: KarlsruheArgus
Ich habe mal fairerweise das Logo entfernt. Ich möchte einfach nur wissen, wie ich so ein Verhalten durch eine Skalierung von 720p Rohdaten erhalten kann. Vielleicht stehe ich ja auch auf dem Schlauch, aber als Kunde eines 3100 wüsste ich schon ganz gern, dass eine 5700 und eine 2080 Super fast das Gleiche für mich bieten würden und warum mich ein Käufer eines 3300X samt seiner 2080 Super auslacht, weil ich mit 20 Euro gegeizt habe. ;)

1588963213053.png
 
  • Gefällt mir
Reaktionen: _Flattermann_, adAstra und Rockstar85
MichiSauer schrieb:
Das is drauf seit der 1230 drin is, wird eh mal Zeit....
Das sollte bei Win10 eigentlich nicht mehr nötig sein.
 
@FormatC

Nene, du sollst das ja nicht ausschließlich machen sondern zusätzlich!

Sehr informative Darstellungsart übrigens!
 
  • Gefällt mir
Reaktionen: adAstra
DukNukem schrieb:
Ob APU oder nicht bin ich noch etwas zwiegespalten. Da Gaming eher zweitrangig ist würde mir die APU wohl ne weile ausreichen.
Jedoch mag ich auch die Idee, falls ich doch mal wieder "Richtig" spielen will eine GPU kaufen zu können und los geht es.
Bei den APUs hast du im Moment noch das Problem, dass es die noch nicht auf Basis von Zen2 gibt - 3200G/3400G sind beide Zen+ (also wie ein Ryzen 2600 bspw., die Namensführung ist bei den APUs irreführend).

Die aktuellen Renoir-Apus (Zen2) gibt es derzeit nur in den Notebooks, kommt aber hoffentlich bald auch für den Desktop.
 
Bezüglich Darstellung, wie man es machen könnte #474
 
@NedFlanders:
Es gibt keine echte lineare Skalierung. Diese Messreihen würde ich wirklich gern mal sehen.


KarlsruheArgus schrieb:
Bezüglich Darstellung, wie man es machen könnte #474
Was voraussetzt, dass es linear skaliert. Tut es aber nicht. Ich würde wirklich gern die Basis für die CPU Range sehen. Wirklich gebencht und nicht interpoliert.
 
  • Gefällt mir
Reaktionen: Tzk
Warum werden nicht einfach 2 BIOS-Versionen angeboten, einmal für ältere CPUs und einmal für neuere? Wo ist der Haken?
(BIOS-Flash ohne CPU ist prinzipiell möglich, wie diverse Boards diverser Hersteller beweisen.)
 
FormatC schrieb:
Die Titan RTX zieht auch eine 2080 Ti noch einmal ordentlich ab, also müsste man, wenn schon 720p, dann mit einer grenzwertig auf 2.2 GHz übertakteten Titan RTX testen. Aber hat man das? Ich rieche auch hier GPU-Limits, vor allem bei den max. Details. :D
Na dann wurde gerade ein weiteres Argument für 720p Tests gefunden, wenn selbst dort noch Unterschiede zwischen beiden GPUs messbar sind.
 
Nein, es ist eigentlich nur der Beweis dafür, dass auch mit einer 2080 Ti auf 720p bereits etwas limiert. Und genau das wollte man doch eigentlich mit der Briefmarke ausschließen. Oder nicht? Aber wirf mal einen Blick auf die Grafik oben und erkläre mit mit kurzen Worten, wie Du diese Abkappung / Abflachung durch Interpolation abbilden kannst.
 
JackTheRippchen schrieb:
Warum werden nicht einfach 2 BIOS-Versionen angeboten, einmal für ältere CPUs und einmal für neuere? Wo ist der Haken?
(BIOS-Flash ohne CPU ist prinzipiell möglich, wie diverse Boards diverser Hersteller beweisen.)
Dann wird AMD weiterhin noch nachgesagt, dass das BIOS-Thema ein absolutes Desaster ist. Zumal nur ein kleiner Teil der Boards Flashback hat, und zwar nur die High-End Boards
 
FormatC schrieb:
Damit 720p klappt, muss man vorher alle anderen Flaschenhälse beseitigen. Dazu gehört die schnellste Grafikkarte auf dem Markt, die man bekommen kann, übertaktet und auf unter 40 Grad gewässert, damit die Taktraten konstant bleiben. Und das ist keine 2080 Ti. Wie hoch taktet man den RAM oder nutzt man den nur nach den Specs? Hat man vorab Messreihen zur Skalierung gemacht und wenn ja, sind die einsehbar?

Den Aufwand kann ich durch die Wahl der niedrigeren Auflösung reduzieren, damit stellt sich weder die Frage nach RTX Titan oder 2080 Ti, GPU OC oder nicht, noch nach der GPU Temperatur. Solche Verrenkungen benötigt man viel eher ab 1080p. In WQHD sollte es dann ein SLI sein.
Die Frage in welcher Auflösung man CPU Tests machen soll ist trivial, das ist keine religiöse Frage.
Ergänzung ()

FormatC schrieb:
Ich habe mal fairerweise das Logo entfernt. Ich möchte einfach nur wissen, wie ich so ein Verhalten durch eine Skalierung von 720p Rohdaten erhalten kann.

GPU Benchmarks anschauen, dann braucht es diese Skalierungen nicht und nur eine CPU Messreihe mit der stärksten GPU in 720p in max Details ohne AO, AA usw.
Aus den Daten der CPU und GPU Messungen kann ich mir dann auch so eine Skalierung pinseln, indem ich GPU limitierten und CPU limitierten FPS Verlauf übereinanderlege, so macht es GameGPU.
Damit decke ich mit weniger Aufwand mehr Tests ab, funktioniert aber für maximale Genauigkeit nur innerhalb einer Architekturstufe und eines GPU Herstellers.
Die Russen nehmen’s da aber nicht so genau, demzufolge existiert für jede CPU einen GPU Wert und umgekehrt.
 
Zuletzt bearbeitet von einem Moderator:
Ned Flanders schrieb:
ich hab wirklich noch keine zwei Plattformen gesehen die parallel skalieren. Noch nicht mal bei einem 100% linearen Tasks wie Matlab mit verschiedenen Matrix Größen.

Sicher, dass Matlab da eine gute Referenz ist? Die numerischen Methoden mögen hochgradig optimiert sein, dennoch generiert Matlab sicherlich mehr Overhead als z.B. ein minimalistisches C-Programm zur Matrizenmultiplikation.
 
Klar, das kann auf Software Y wieder anders aussehen, so wie bei jedem Game eben auch. Ohne Messen lehne ich mich da nicht aus dem Fenster.

Hier mal Daten: Das ist Matrix Multiplikation auf zwei unterschiedlichen Plattformen, exakt gleicher Task, exakt gleiche Software. Also besser kontrolierbar ist das von der Ausgangsbasis her wohl nirgends.

1588967474679.png


In sofern bin ich einfach vorsichtig mit Extrapolation von Daten, denn wenn sich das noch nichtmal messen und belegen lässt weil die Performance einfach im Rauschen der Graka verschwindet dann ist das einfach nur geraten. Abgesehen davon ist das natürlich einfach praxis fern. Aber wie gesagt, das ist meine Meinung. Da darf jeder eine von haben.

P.S. was hier übrigens so schön nahezu parallel in Log Darstellung aussieht ist ein Performance Unterschied im Range von Faktor .63 bis 4.4
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra
FormatC schrieb:
Nein, es ist eigentlich nur der Beweis dafür, dass auch mit einer 2080 Ti auf 720p bereits etwas limiert. Und genau das wollte man doch eigentlich mit der Briefmarke ausschließen. Oder nicht?
Jain, ich denke in manchen Spielen kann man es einfach nicht verhindern, dass eine 2080Ti halt ab und zu mal limitiert.

Es ist aber doch ein Unterschied, ob ich z.B. einen 9900K in einem 1080p Test mit allen Settings auf Ultra zu 40% des Benches ins GPU Limit laufen lasse, oder bei einem 720p Test mit den weitestgehend GPU exklusiven Settings auf low zu 10%.

Sprich am Ende könnte der 9900K komplett losgelöst von jedem GPU Limit vielleicht 200fps schaffen, dann habe ich doch lieber den 720p Test, der mir 190fps angibt, als den 1080p Test, der mir 150fps angibt
Ergänzung ()

KlaraElfer schrieb:
GPU Benchmarks anschauen, dann braucht es diese Skalierungen nicht und nur eine CPU Messreihe mit der stärksten GPU in 720p in max Details ohne AO, AA usw.
Aus den Daten der CPU und GPU Messungen kann ich mir dann auch so eine Skalierung pinseln, indem ich GPU limitierten und CPU limitierten FPS Verlauf übereinanderlege
Wenn man sich Igors Bild aber mal anschaut, dann sieht man, dass da doch schon Unterschiede vorherrschen.

Nehmen wir an, der 3100 mit der Titan RTX hätte 100fps erreicht, der 3300X aber 120.

Wenn wir aber nun denken, dass der 3100 zu 100fps in der Lage ist, denn die hat er ja im CPU limit mit der Titan erreicht, warum hat dann z.B. ein 3100 mit einer GTX1660 weniger fps als ein 3300X mit der GTX1660?

Die 1660 erreicht mit allen CPUs weniger als die 100fps, die der 3100 als Schwächste CPU im Test mit der 2080Ti erreicht hat, also warum liegen dann nicht alle CPUs gleichauf? Da liegen schon gute 5-6% zwischen 3100 und 3300X und beide sind dabei deutlich unterhalb der FPS die sie mit der Titan erreichen, müssten also beide die 1660 voll auslasten können, tut der 3100 in dem Fall aber nicht.

Das ist die Skalierung, die Igor meint und die man mit dem 720p Test und GPU Test Quervergleich nicht abbilden kann.

Aber ob man sich über einen 5-6% Unterschied bei der Skalierung Gedanken machen sollte, die hier auch nur den 3100 betreffen, alle anderen CPUs liegen dicht aneinander.
Dann kann das Ergebnis am Ende eben auch mal 2-3fps niedriger ausfallen, als man es mit dem Quervergleich bestimmt hat, das rechtfertigt für mich aber nicht den Aufwand, alles einzeln zu testen und ein Argument gegen einen 720p Test ist es auch nicht, da das für 1080p ebenso gilt.



Nochmal mit neuen Zahlen^^
Sagen wir, die 1650 als Basis schafft 50fps.
Im GPU Test hätten wir für die 1660 dann mit +60% die 80fps gesehen, im 720p CPU Test des 3100 mit ner Titan RTX dann mit +75% 87,5fps und wären zur Aussage gekommen, die Kombi bringt ca 80fps.

Real hat in diesem Test dann der 3100 mit +55% 77,5fps und der 3300x mit +60% 80fps. Das ist zu verschmerzen würde ich sagen.
Dass ein 9900K und ein 8700K in einem CPU Test z.B. nur 5% auseinanderliegen, weil teilweise im GPU Limit, ist da doch ne ganz ander Hausnummer
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tzk, KarlsruheArgus, Javeran und eine weitere Person
Zurück
Oben