Leserartikel Vergleich Ryzen 5800X3D vs Ryzen 1700 auf X370 Plattform mit Benchmarks

anra8000 schrieb:
Laut Aida ist RAM-Schreiben beim 1700 doppelt so schnell wie beim 5800.
Wo kommt das denn her?
Unter dem Spoiler zu Aida64 habe ich eine kleine Notiz dazu stehen und zwei Links, die auf das Thema eingehen.
In kurz: die die Anbindung der Kerne an den Speicher hat sich geändert. (wenn ich das richtig verstehe, liegt das daran, dass nun 8 Kerne eine einzelne Einheit (CCD) bilden und nicht wie früher 2. Vorher wurden beide Links gemessen (2xCCD), jetzt nur eins (1xCCD).
 
GG 😉
@Rhoxx
schöner und vor allem praxisnaher Test. Die "alte" X3D-CPU haben viele glaub ich nicht mehr auf dem Schirm. Dabei ist der Gamerprozessor ja einigermaßen günstig zu haben.
Derweil ich aus dem Alter raus bin, wo ich zweieinhalb tausen Euro für nen neuen PC ausgebe, habe ich noch einen Ryzen 5 2600 (ohne X), GraKa 1050Ti. Ich habs hin und hergedreht, die letzten Preissenkungen abgewartet: Ein Sockel AM5 System kostet einfach immer gleich vierstellig. Und ich rede noch nicht mal von nem X3D.

Ergo: Der 5800X3D scheint mir eine passable Lösung zu sein, derweil ich ohnehin 70% spiele. bringt dann zusammen mit einer 3060/12 den nötigen Schub für neuere Sachen. Und bei Audioaufnahmen und Videoschnitt wird so ein System auch nicht grade versagen.
Man sieht auch in deinem Vergleich, dass die Wahl des BM-Programms zuweilen auch Gewicht haben kann. Aber im Prinzip fühle ich mich bestätigt und freu mich schon auf meine neue "alten" High-End-CPU.
 
  • Gefällt mir
Reaktionen: Rhoxx
Realitätsnah, praxisnah, was da los ? sollte mittlerweile bekannt sein das wenn man mit seiner GPU ins Limit rennt, es ja nach stärke der Grafikkarte, Auflösung und Detailstufe, es kaum einen Unterschied macht welche CPU verbaut ist.

Hätte @Rhoxx eine 4090 im System würde das Ergebnis ganz anders aussehen zwischen seinem alten 1700 und dem 5800X3D und das zeigen dann auch entsprechende "realitätsferne" 720P Tests auf. Die Mehrleistung eines 5800X3D verschwindet ja nicht, nur weil eine semi aktuelle midrange Grafikkarte im System werkelt.

Ansonsten trotz alledem schöne Arbeit @Rhoxx
 
  • Gefällt mir
Reaktionen: Rhoxx
Zunächst einmal Respekt an @Rhoxx für die Mühe.

Habe ich das jetzt richtig verstanden?
"Mit einer low/mid-end Grafikkarte bringt der 5800X3D (fast) nichts im Vergleich zum 1700 weil der ganze Kram im GPU Limit ist?"

So ähnlich habe ich mir das auch gedacht.
Aber wer rüstet denn auf von 1700 zu 5800X3D ohne nicht auch die Graka zu modernisieren wenn man noch auch RX5700XT Niveau dümpelt?
 
Ich habe ein b450 von Msi und würde gerne einen 5800x3d nachrüsten.
Würdet ihr da auch gleich auf ein b550 umsteigen?
 
@Bouncer503 Vielen dank für den Respekt ;).

Nein, du hast es leider nicht richtig verstanden. Der Artikel zeigt, dass ein Wechsel trotz geringer Verbesserungen in den Durchschnitts-FPS sich trotzdem lohnen kann, wenn man ein flüssigeres Spieleerlebnis haben möchte, da sich die minimalen FPS oft wesentlich verbessern.
Bouncer503 schrieb:
Aber wer rüstet denn auf von 1700 zu 5800X3D ohne nicht auch die Graka zu modernisieren wenn man noch auch RX5700XT Niveau dümpelt?
Ich (und zumindest noch ein paar andere die sich hier gemeldet haben).
Das Niveau ist in 1440p und ohne Raytracing für mich geläufige Games erstaunlich gut. Ich hatte bis jetzt nicht das Gefühl, mir entginge etwas an der Grafik, bei den Games, die ich so spiele (und ich spiele die verschiedensten Games). Bisher hatte ich wohl noch kein Game gehabt, das ich unbedingt spielen wollte und es mir wegen der Grafikanforderungen verzagt blieb. (So Games wie Battlefields, CoDs, Hogwarts, Forspoken, Horizon FW, etc. reizen mich praktischerweise nicht :p also keine Ahnung, ob ich es da merken würde.)
Ein paar aktuelle AAA Games wie Atomic Heart, Eldenring, RE3 Remake, FF7 Remake, Hi-Fi Rush laufen ja ganz ordentlich. Ich glaube, ich kann bei meinem Spielverhalten noch weitere 2-3 Jahre mit der Karte fahren. Meine letzte Karte war eine RX580 und davor eine R7 260X :D
 
  • Gefällt mir
Reaktionen: Bouncer503 und Verak Drezzt
Verak Drezzt schrieb:
Realitätsnah, praxisnah, was da los ? ... Hätte @Rhoxx eine 4090 im System würde das Ergebnis ganz anders aussehen zwischen seinem alten 1700 und dem 5800X3D und das zeigen dann auch entsprechende "realitätsferne" 720P Tests auf. Die Mehrleistung eines 5800X3D verschwindet ja nicht, nur weil eine semi aktuelle midrange Grafikkarte im System werkelt.

Ansonsten trotz alledem schöne Arbeit @Rhoxx
Die 2.000€ zzgl. dickes Netzteil sind genau meine Realität und ich vermute mal auch ein wenig die von Rhoxx, von der ich spreche. Stünde das zur Debatte, würde es diesen Beitrag nicht geben. wenn ein Kunde sagt bau mal für 5.000 Flocken was, ist die 4090 mit drin. Kein Ding. ☮️☺️
 
PCSpezialist schrieb:
Die 2.000€ zzgl. dickes Netzteil sind genau meine Realität
wollte nur damit aufzeigen das es bei einer 4090 nen entsprechenden Unterschied gibt und ja es ist realistisch wenn einer sich solche eine Karte holt, aber den Unterschied würde man auch schon bei einer 4070Ti oder 7900XT für weniger als die hälfte merken, falls dir das praxisnähere Preisgefilde sein sollten
Ergänzung ()

von einer RX6700XT/6800 für nochmals die hälfte unter FullHD gar nicht zu sprechen, falls es noch praxis- und realitätsnäher sein sollte
 
Danke für den Thread hier!
Ich habe ein ganz anderes Szenario: in meinem Rechner sind ein Ryzen 5 3600 auf einem B550-Board mit 48 GB RAM und eine RX 5500 XT verbaut. Das System läuft unter Linux, das Setup reicht bisher ganz gut für das bisschen was ich spiele. Für mich viel wesentlicher ist inwiefern ich eine Performance-Verbesserung beim Java-Entwickeln (bauen mit Maven) bekommen kann, wenn ich vom 6-kernigen 3600er auf einen 5800x(3d) oder 5900x aufrüsten würde. Für Spiele gibt es soviele Benchmarks, aber für (Java-)Entwickler habe ich noch keine aussagekräftigen Reviews gefunden.
Hat da zufällig jemand von Euch Erfahrungswerte dazu?
 
Zuletzt bearbeitet: (Tippfehlerkorrektur)
Ok, die Erkenntnis, bei den 1% Lows Perfomance gewonnen zu haben, kann ich ja noch verstehen. Aber eigentlich ist es doch eher ein Test deiner 5700XT. Ähnlich einem Test eines Fiat Punto gegen einen Porsche 911, die in der 50ziger Zone auf 50km/h gedrosselt sind. Die Stärken des 911er kommen nicht zur Geltung.

Das CPUs im GPU Limit oft eine ähnliche Performance zeigen ist ja ein alter Hut, hier mal ein Beispiel

Für mich ist es im Spielerlebnis ein himmelweiter Unterschied, ob ich im Battlefield 5 oder 2042 Multiplayer in WQHD meiner 4070Ti einen 2600er oder 5800X3D bzw. inzwischen einen 7800X3D zur Seite stelle.

VG 🙂✌️
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Wie @Rhoxx schon mehrfach geschrieben hat, ist der logische Gewinn für ihn (und alle, die ähnlich upgraden) der Gewinn an Smoothness. Natürlich deckelt die GraKa die maximalen FPS je nach Spiel/Engine/Einstellung, aber der Prozessor bestimmt quasi die niedrigste Schwelle. Wenn die CPU in Spiel XY nicht mehr als beispielsweise 40 Frames die Sekunde berechnen kann, bringt keine stärkere Graka etwas. Der Vorteil des 5800X3D ist eben, das er im Schnitt die Spannweite der FPS von "unten" her verkleinert.

60 FPS im Schnitt erreicht man z.B., wenn man ständig zwischen 20 und 100 "FPS" wechselt - sind im Schnitt 60 FPS, wird sich aber gurkig anfühlen. Ein ständiger Wechsel zwischen 58 und 62 "FPS" ist im Schnitt auch 60, aber drastisch "smoother". Man sieht doch in den Varianzdiagrammen genau diesen Effekt - die drastischen Framedrops sind viel seltener geworden. Das ist es definitiv wert und der CPU-Wechsel in vielen Fällen sinnvoller, gerade auch preisleistungstechnisch, als die alte "schwache" CPU zu behalten und stattdessen eine im Verhältnis viel teurere Graka anzuschaffen. Und ja, natürlich müssen CPU und GPU irgendwo im Verhältnis stehen, aber GPU-Leistung kann man leicht "freisetzen" durch die Regler im Spiel, CPU-Leistung nicht wirklich.

Viele Grüße
ErichH.
 
  • Gefällt mir
Reaktionen: JohnDonson, Arno Hakk und Rhoxx
Tornavida schrieb:
[...]auf den ersten Blick sehen wir eigentlich nur ,dass für eine 5700xt ein 1700er reicht.
Das ist die Kernaussage, die ich hier mitnehme.

Bei mir arbeitet ein 3700X mit einer 5700XT auf 3440x1440.
Ich habe mit einem 5800X3D geliebäugelt, weil ich bereit wäre ~300€ für ein Upgrade auszugeben, aber nicht 500€ für eine RX 6800 für max. 80% mehr Frames (die RX 6800 XT verbraucht mir zu viel).

Im Endeffekt heißt das, dass der 3700X erst zu langsam wird, wenn ich an eine "4090" bei ~200 Watt Verbrauch für 300-400€ ran komme. :D
Die 300€ für den 5800X3D wären jetzt rausgeschmissenes Geld.
 
AW4 schrieb:
Im Endeffekt heißt das, dass der 3700X erst zu langsam wird, wenn ich an eine "4090" bei ~200 Watt Verbrauch für 300-400€ ran komme. :D
das kommt ganz darauf an was du erreichen und wo mit du dich zufrieden geben willst, wenn dein Anspruch ist mit nicht mehr wie 60FPS in High Details zu zocken, dann reicht dein 3700X vollkommen aus, willst du aber mit konstanten 140FPS spielen, wird dein 3700X in aktuellen Games nicht mehr dafür ausreichen

die Details mit deiner 5700XT kannst du auch soweit runter drehen, das du entsprechend mehr FPS Richtung CPU Limit deines 3700X bekommst, alles nur eine Frage der Regler die man bedient und mit welchen Details du dich zufrieden gibst,

dazu brauch es nicht erst eine 4090
 
Zuletzt bearbeitet:
Das Thema ist hoch individuell, nicht nur weil verschiedene Spiele und verschiedene Einstellungen verschiedene Ergebnisse bedeuten, sondern auch, weil sich die Auffassung und Toleranz bzgl. "flüssigen Abläufen" im Spielverlauf von Person zu Person unterscheiden.

Auch bin ich mir nicht sicher, ob wir hier die gleichen Daten auf vernünftige Art und Weise interpretieren.
Mag sein, dass bei den Frametime-Varianzen bei dem ein oder anderen Spiel sich, objektiv und oberflächlich betrachtet, einiges "verbessert" hat, aber die präsentierten Daten geben nicht her, im Detail zu bewerten, ob diese "Verbesserungen" tatsächlich einen merkbaren subjektiven Unterschied machen könnten.

Zum einen reicht hier die Skala von 2ms bis 12ms und zusätzlich ">12ms" nicht wirklich aus (12ms heißen im Schnitt immerhin ca. 80 FPS und je nach Spielart kann das schon absolut ausreichend sein) und zum anderen fehlt hier die Darstellung, wie diese Frametimes aufeinander folgen.
Im Bestcase gibt es im Verlaufe des Benchmarks einfach einen seichten Übergang von einfach zu rendernden Szenen mit hohen FPS zu sehr schwer zu rendernden Szenen mit geringeren FPS, sodass im Verlauf der Frametimes keine großen Ausschläge vorkommen und entsprechend auch kein Microstutter subjektiv spürbar ist.
Im Worstcase sind die FPS über den gesamten Verlauf des Benchmarks konstant und der Verlauf der Frametimes geprägt von den wildesten Ausschlägen mit entsprechend sehr starken, subjektiv wahrnehmbaren Microstuttern und Lags.

Die Bewertung hierzu liefern nicht die Daten, sondern der Thread-Ersteller.
Ich spiele kein einziges der gebenchten Spiele, aber von den Spielen, die ich selber spiele, gibt es bisher nur ein einziges, in dem ich Probleme mit Microstutter habe.
Alle anderen sind entweder
  • alt genug und 3700X + 5700XT liefern genug Leistung,
  • bieten ausreichend Einstellmöglichkeiten sodass die 5700XT mithalten kann oder
  • laufen schlicht generell scheiße (Kingdome Come: Deliverence ist da so ein Kandidat...), sodass da ein 5800X3D auch nichts mehr richten können wird.
Mein Problemkind, bei dem theoretisch ein Upgrade auf den 5800X3D tatsächlich auch eine subjektive Verbesserung herbeiführen würde, ist CS:GO.
In 3440x1440 droppen da die Frames auf manchen Maps bei schnellen Drehbewegungen von ~250 auf ca. 80 FPS, was ich als sehr störend empfinde.
Aber das Problem hat sich ganz einfach damit lösen lassen, dass ich mit gestretchten 1920x1080 spiele.
Is eh besser, da sind die Köpfe größer! :D

Mein Spiele-Mix rangiert bei der Auflösung 3440x1440 also ziemlich sicher hauptsächlich im GPU-Limit.
Entsprechend habe ich meine obige Aussage formuliert.
 
  • Gefällt mir
Reaktionen: Rhoxx und Tornavida
Ich finde das ganz witzig, wie hier einige schreiben bei einer 4090 sieht das ganz anders aus, etc.
Sicher sieht es anders aus, wie anders kann wohl kaum jemand beurteilen, da es von den üblichen Seiten dann ja maximal in 720p getestet wird, teilweise sogar mit runterskalieren.

Eine alternative Hardwareversion mit Einstellungen wie sie tatsächlich genutzt werden ist per se doch eine schöne Sache.
Ich freue mich darüber, wenn jemand dieser Nörgler nun daher geht und einen ähnlichen Aufwand betreibt um zu gucken, wie es nun mit 3070/4060 oder RX6800 aussieht. Nur zu.

Letztlich bleibt aber weiterhin die Frage, wo fangen die MinFPS an zu stören, und das ist vermutlich etwas, was durchaus stark subjektiv ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rhoxx
mace1978 schrieb:
Ich finde das ganz witzig, wie hier einige schreiben bei einer 4090 sieht das ganz anders aus, etc.
Sicher sieht es anders aus, wie anders kann wohl kaum jemand beurteilen, da es von den üblichen Seiten dann ja maximal in 720p getestet wird, teilweise sogar mit runterskalieren.
Es gibt einige Reviews wo bis hoch zu 4K getestet wird. Und da zeigt sich, dass einer RTX4090 schon mit 4K oder bei 1440p mit sowas wie Cyberpunk 2077 kommen musst um voll ins GPU-Limit zu rennen. Und selbst bei 4K ists nicht bei jedem Spiel.
 
Zuletzt bearbeitet:
1. Gerne freue ich mich darüber, wenn du Seiten kennst, die in 4K/1440p testen, wenn du mal 'nen Link, den du empfehlen kannst hier lässt. 4090 muss es für mich aber dabei nicht sein, etwas bodenständigeres wäre mir durchaus lieber. Aber ich nehme auch Links mit 4090. ;)

2. Mir ging es nicht darum an der Leistung der 4090 zu zweifeln. Ich bin nur nicht unbedingt ein Fan davon, wenn wie z.B. auf Computerbase CPUs in realitätsfernen Tests gebenched werden.
Klar verstehe ich das Argument, dass es niemandem was bringt, wenn 9/10 CPUs innerhalb von 2 % liegen.
Aber aus meiner Erfahrung führen die Tests häufig dazu, dass dann(völlig aus der Luft gegriffenes Beispiel) eine GPU für 400€ und eine CPU für 300€ gekauft wird, da der nächste GPU-Schritt halt für 150€ mehr 20%-mehr Leistung verspricht, und die CPU für die 150€ eben 25% mehr lieferte.
Das Problem dabei ist, dass diese Systeme dann permanent im GPU-Limit sind. Die CPUs bringen im Schnitt gar nichts im High-Frame-Bereich etwas und in den 0.2%-Percentile noch etwas, sicher alles messbar und Irgendwo ein Vorteil, aber bringt das den gleichen Vorteil wie die 20% mehr GPU-Power?

Wie immer kommt es da sicher auf den Einzelfall an, aber der überwiegende Teil, der bei einer solchen Entscheidung sich pro CPU entscheidet wird wohl die zweitbeste Lösung gewählt haben. ;)
 
Danke für den Beitrag - sowas habe ich gesucht. In den Kommentaren zum Leserartikel hat jemand den Vergleich zu Autos bemüht und hier auch weiter oben.
Um das aufzugreifen: Ich war auch auf der Suche nach einem Test, der eher darauf eingeht wie sich ein auf 50km/h gedrosselter Porsche gegenüber einem Fiat Punto anfühlt.

Ich persönlich brauche nicht mal 60 FPS im Singleplayer, manche Games fühlen sich bei 20 FPS nach wie vor flüssig an. Wer so upgradet? Ich zum Beispiel, wenn man eh am tauschen ist überlegt man sich den alten 2600X rauszuwerfen und dafür den 5800X3D einzubauen. GPU kommt sicher auch neu, aber eben erst später wenn sich die Preise noch etwas angepasst haben.
Wenn mir bis dahin der neue Prozessor gut passt, den ich in den Tausch mit einbeziehen kann - um so besser.

Von daher vielen Dank erstmal, mich hast du quasi überzeugt beim nächsten Angebot beim 5800X3D zuzuschlagen.
 
  • Gefällt mir
Reaktionen: Rhoxx und fas7play
Zurück
Oben