News AMD Ryzen im Frühjahr 2022: Ryzen 7 5800X3D kostet 449 USD und kommt in Begleitung

Das erste review ist online. Auch wenn das hier valide nachgetestet werden muss - es sieht gut aus.
Nachtrag - man sollte ganz am Ende einsteigen - @HotteX war schneller.
 
Das Review hilft mir persönlich nicht so viel.
a) die Bilder kann man am Handy nicht anschauen
b) es fehlen Vergleichsergebnisse mit anderen CPUs
c) Stromverbrauch / Kühlung / Effizienz - fehlt ebenfalls
d) Es wurde nur mit einem 12900KF verglichen, der aber durch DDR4 eingebremst ist?

Naja hoffentlich kommt nächste Woche ein besserer Test
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS
Das ist schon nice. Quasi exakt auf dem Niveau des 12900k und ks in Spielen. Schade, dass der Verbrauch nicht separat für Games aufgeschlüsselt ist.
Bin mal auf den Test hier von CB gespannt :)
 
Also nach den ersten beiden Tests eigentlich genau das Ergebnis welches auf der AMD Folien zu sehen war.
Von daher Ciao 3700X und Willkommen 5800X3D :-)
 
  • Gefällt mir
Reaktionen: Kommando und Gortha
Wenn man sich das 5800X3D Review von TechPowerUp so anschaut erkennt man sofort, dass der 5800X3D grundsätzlich als sehr gelungen anzusehen ist. Und welche Katastrophe der 12900KS im Grunde genommen darstellt.

Aber man darf nicht vergessen, bei beiden CPUs handelt es sich um eine technische (Macht)Demonstration. Sowohl bei Intel wie auch AMD gibt es aus Preis-/Leistungssicht deutlich bessere Alternativen für Gamer.

Bleiben wir bei AMD. Der 5600X und der 5900X besitzen innerhalb der 5000er Serie den größten L3 Cache pro Kern.

Unter 1080p ist der 5600X im Schnitt nur 10,7% und der 5900X 7,7% langsamer als der 5800X3D. Mit steigender Auflösung verschiebt sich dies zudem mehr Richtung Grafikkarten Limitierung und der L3 Cache hat weniger oder kaum noch einen Einfluss.

So lange man also kein High FPS Gamer ist oder in hohen Auflösungen spielt gibt es bessere Alternativen.

Im Grunde genommen braucht man fürs Gaming nicht mehr als einen 5600X, wenn man die Kerne gebrauchen bzw. nutzen kann den 5900X.

Im Vergleich zum 5600X kostet der 5800X3D satte 100% (!) mehr bei nur 10,7% höherer Leistung. Der 5900X ist aktuell ebenso deutlich günstiger bei nur 7,7% weniger Leistung aber zugleich 50% mehr Kernen.

Immerhin kann man festhalten: Je schlechter und ineffizienter ein Spiel programmiert wurde, desto größer die Leistungssteigerung beim 5800X3D durch den L3 Cache. Das spricht dann allerdings nicht für die Spiele.. 😁
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: chaopanda, Kommando, Garrus und 3 andere
Vor allem ist das sehr vom Spiel abhängig. Bei Cyberpunk 2077 bspw. hilft nur noch Grafikkarten-Power. Um das aber wirklich gut einschätzen zu können, müssten allerdings Frametime-Verläufe (Min, Max, etc.) auf breiterer Vergleichsbasis und insbesondere die Benchmark-Szene bekannt sein.

Immerhin unterscheiden sie sich zwischen 5800X und 5800X3D dann doch zugunsten des Neuen. Ob das den Aufpreis wert ist?

Auf jeden Fall ein guter Abschluss für AM4.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: b|ank0r
Vigilant schrieb:
Vor allem ist das sehr vom Spiel abhängig. Bei Cyberpunk 2077 bspw. hilft nur noch Grafikkarten-Power.

Gerade bei Cyberpunk stimmt das nicht ganz.

Wenn man sich hier ansieht, was Alder Lake leistet, ist das beachtlich. Hier bin ich auch auf den 5800x3d seitens CB Test gespannt.
Die Perzentile-FPS sind hier ausschlaggebend.

Da hinzukommen, ist natürlich auch GPU Power notwendig ^^

1649835628578.png
 
  • Gefällt mir
Reaktionen: Gortha, b|ank0r und Vigilant
VelleX schrieb:
Hier nochmal in dem Thread, da im "Schwesterthread" weniger die Diskussion stattindet:

Ich sehe gerade , dass der Test vom Testszenario Intels ADL bevorzugt und dazu kommt das klare Handicap für AMD zwischen den beiden Zen3D und ADL System. Der Speicher des ADL Systems ist Top-Notch und das AMD System hat einen 0815er 3600er Speicher mit 0815 Timings:
ADL
Memory:2x 16 GB G.SKILL Trident Z5 RGB DDR5-6000
36-36-36-76 2T / Gear 2
AMD
Memory:2x 16 GB DDR4-3600
16-20-20-34 1T
Infinity Fabric @ 1800 MHz 1:1

Alleine die 100 MHz oder 200 Mhz mehr für die 96 MB 3rd Lvl Cache durch einen IF von 1900 oder 2000 sowie den wesentlich schnelleren RAM (3800+ CL14/15/16) machen klar, dass selbst der 12900KS so überflügelt würde.
Dazu kommt, dass hier keine Perzentil Ergebnisse vorliegen, die wiederum beim 5800X3D noch besser aussehen sollten.
 
Zuletzt bearbeitet:
3600er RAM schaffen alle 5000er, bei 3800 klappt das bestenfalls bei 50%. 3600 ist schon eine gute Geschwindigkeit allerding wäre 16-18er Speicher üblicher als der genutzte billig anmutende mit 16-20.
Wenn man das allerding mit dem genutzten DDR5 vergleicht dann wäre eher B-Die 3600er mit 16-16 angemessen
 
Denniss schrieb:
bei 3800 klappt das bestenfalls bei 50%
Stimmt so nicht. IF von 1900 schaffen fast alle 5000er.
Nur wenige nicht. Eventuell hast du noch Ryzen3000 im Hinterkopf.
 
Selbst wenn das 80% schaffen ist das eine unsichere Bank und nicht für Vergleiche geeignet.
3600 schaffen alle und damit ist das ein valider Vergleichspunkt
 
Sehe ich anders. Wenn man vergleicht, dann mit ähnlich potentem RAM.
Aber es war ja ein Early Review mit einem Krüppel IMC im 5800X3D, da sind die 3600MT/s zu verzeihen.

Zumindest hätte er bei DDR3600 audf 14-15-14-14, wenigstens 15-15-15-15 gehen sollen, bei nem Bdie....
 
Denniss schrieb:
Selbst wenn das 80% schaffen ist das eine unsichere Bank und nicht für Vergleiche geeignet.
3600 schaffen alle und damit ist das ein valider Vergleichspunkt
Nein! :D Das wüsste ich nun wirklich! Auch 3600MHz schaffen nicht 100% aller 5000er AMD Ryzen CPU´s.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kommando und Gortha
Moin zusammen,

hat jemand Erfahrung mit einem Asus Prime B350-Plus und einem 5700G? Offiziell ist die CPU nicht gelistet, aber mit dem Beta 1.2.0.6b sollte es gehen, oder?
 
chaopanda schrieb:
Aber gern auch für dich noch einmal, würde AMD können, hätten sie weder Base- noch Boost-Takt runter geschraubt, sondern eher über jenen des 5800X verortet, wie sie es bei 5900X und 5950X beim Boost getan hatten.

Das das nicht geht, zeigt eindeutig, dass das Teil schlicht am Limit designt ist. Die Parallele zu Intel ist offensichtlich.
Jetzt wissen wir es genau

Bild_2022-04-15_094620550.png
 
  • Gefällt mir
Reaktionen: Gortha und Kommando
@Ned Flanders


Was übersehe ich? Habe mal gerade den Benchmark bei 2077 laufen lassen, ich komme mit dem 12900k nicht annähernd an den Verbrauch dieser Tabelle.Hohe 5x Watt bis 7x Watt und im Duchschnitt um die 65 Watt würde ich schätzen.

Bild_2022-04-15_101013915.pngScreenshot (33).png
Screenshot (34).png
 
Grafikkarte? Auch weiss ich nicht ob das der integrierte Benchmark war, der hier genutzt wurde. Kann ja auch eine Custom Szene sein.
 
  • Gefällt mir
Reaktionen: Gortha
Zurück
Oben