News AMD Ryzen 7000X3D: 7950X3D, 7900X3D & 7800X3D mit hohem Takt im Februar

scotch.ofp schrieb:
Das würde ich unter Realbedingungen bezweifeln.
Warte, damit kann ich dienen...

Edit: Hier die Daten. Bevor ein Mod wieder meckert oder Beiträge verschiebt, es geht dabei auch um die Effizienz, die man von den neuen 3D Modellen erwarten kann, daher ist es durchaus zum Thema passend.

Die Verbräuche (EPS 12V) wurden mit Powenetics v2 aufgenommen. Das ist "krasser Shit", denn das PMD ist super genau kalibriert und tastet mit 1000Hz ab. Das ist extrem genau, solche Infos bekommt man nicht alle Tage, daher bitte nicht einfach löschen.

Die Daten spiegeln realitätsnahe Szenarien wieder: Cyberpunk 2077, Frame Limiter auf 80 FPS, 3840x1600 mit DLSS und Raytracing. Die CPUs liefen default.

Der 5800X3D mit V-Cache ist dermaßen effizient, der 13900K sieht einfach kein Land dagegen.

1673516138527.png


1673516145127.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gecan, MarcelGX, InTheEnd_AI und 15 andere
Sun-Berg schrieb:
Ich will nicht mal das Gefühl haben, ich könnte evtl. meine CPU nicht richtig auslasten, weil das Programm bzw. das Spiel vielleicht lieber mehr Mhz als mehr Cache mag.
Und das andere Spiel bzw. Programm hätte gerne mehr Cache als Mhz (sieht man ja bei einigen Spielen und Anwendungen die extrem gut auf den großen Cache ansprechen). So what? Kauf dir die CPU die für deinen Einsatzzweck am besten ist. Ob nun die eine CPU 5% mehr Leistung in dem einen Spiel hat als die andere und im nächsten Spiel ist es umgekehrt, ist am Ende auch egal und du wirst es kaum merken. Gehts dir nur um MHz dann geh zu Intel. Brauchst du nur mehr Kerne dann zur 7000 mit X und mehr Cache für reine spielen eher der 3D und wenn du gute Leistung mit wenig Verbrauch im vielleicht kleinen Gehäuse brauchst, dann die non X und fertig!
Dein größtes Bottleneck wird höchstwahrscheinlich am Ende eh die GPU sein…
 
Zuletzt bearbeitet:
Es ist halt ein unterschiedlicher Ansatz bei AMD und Intel:

  • AMD baut alle Ryzen 7xxx mit dem gleichen Die und "pappt" nur Extra-Cache bei den Gaming-Prozessoren mit drauf
  • Intel baut nur die "großen" Core 13xxx mit Raptor Lake (mit viel Cache) und nutzt darunter weiterhin Alder Lake
Alle Zen4 mit viel Cache auszustatten (und meistens zu deaktivieren) oder zwei Dies mit unterschiedlicher Cache-Menge zu haben macht ja wenig Sinn, wenn es so gut funktioniert und man für die Zukunft, wo Caches wohl ein oder zwei Fertigungsstufen "hinterherhängen" (wegen fehlender Skalierung), ein gute Lösung gefunden hat.
 
Zer0Strat schrieb:
Warte, damit kann ich dienen...

Edit: Hier die Daten. Bevor ein Mod wieder meckert oder Beiträge verschiebt, es geht dabei auch um die Effizienz, die man von den neuen 3D Modellen erwarten kann, daher ist es durchaus zum Thema passend.

Die Verbräuche (EPS 12V) wurden mit Powenetics v2 aufgenommen. Das ist "krasser Shit", denn das PMD ist super genau kalibriert und tastet mit 1000Hz ab. Das ist extrem genau, solche Infos bekommt man nicht alle Tage, daher bitte nicht einfach löschen.

Die Daten spiegeln realitätsnahe Szenarien wieder: Cyberpunk 2077, Frame Limiter auf 80 FPS, 3840x1600 mit DLSS und Raytracing. Die CPUs liefen default.

Der 5800X3D mit V-Cache ist dermaßen effizient, der 13900K sieht einfach kein Land dagegen.

Naja, ich würde da auch eher mit dem 13600K vergleichen. Da sieht das dann schon anders aus.
2023-01-12 11_06_33-CPU-Benchmark_ Prozessor-Vergleich - ComputerBase.png
 
  • Gefällt mir
Reaktionen: Martinipi
Guten Morgen 😁
Hui Frage mich ob ich mit meinem ur Ur Opa dem fx 8350 hier überhaupt noch was schreiben darf 😌😎so herlich hier zu lesen was abgeht jeder so verkrampft auf der Jagd nach einem fps mehr Leistung und ein bisschen weniger vcor Spannung .diese ich rüste auf da das neue System 3 bis 5 Prozent mehr Leistung Bring aber dann gefühlte 10000 Euro investiert werden müssen vwrsteh ich nicht mehr OK ich glaub Opa wird zu alt weit über 50 hab meine schrotti damals gekauft direkt bei erscheinen da sind 90 Prozent noch mit 2 Kernen manche Mit 4 Rum gegurgelt alle haben geschrien 8 Kerne wer braucht das AMD ist scheise hm 😏😁😎schrotti Ur Opa läuft gut optimiert auf seinem damals Maybach Board dem Asus sabertooth 2.0 mit 16 GB DDR3 bei 2133mhz gut optimierter NB bei 3000 MHz stabil bei Winter 5ghz Sommer 4.8ghz mit einer Titan x die Dank BIOS Mod auch freudig mit 1570mhz mit Arctic Luft Kühlung sehr gute Werte für mich liefert bis wqhd für mich reicht es ja jetzt schreit Rum nachkriegs system aber es läuft und seit Atlas os noch drauf Kamm Hui hat Ur Opa noch Mal den Rost aus den Leitungen gekloppt bekommen naja dem alter geschuldet schaut Ur Ur Opa mit Freude tränen Nu zu seinen Enkeln dem 7000 Serie von smd mit diesem x3d dingens 😉💪dazu und ist stolz wie bolle also er geht mit geschwellter Brust in Rente darf weiter laufen mit seiner Ersatz karte der GTX 980 ti denn er will ja weiter sein Dienst verrichten und wenn es nur als 2 Rechner ist er freut sich weiterhin .
Die Titan x mit ihren 12gb vram reicht mir weiterhin mit Kraft strozendem jungen Enkel drunter wird das sehr sehr interessant .in ferner Zukunft würd natürlich auch neue Grafik Karte Mal einbauen 😏aber bei diesen mir bleibt die spuke weg Preisen ist im Moment net möglich obwohl mir die 4090 seit langer Zeit Mal wieder die Falten aus dem Gesicht gedrückt hat bei der Leistung die diese Karte da abliefert da wurde selbst dem fx Angst un bange mit Freude tränen .
Also nehmt es mit Humor ihr 3 bis 5 Prozent aufrüster 😁😉bisschen optimieren ja aber kommt Mal wieder auf das Wesentliche zurück zocken und Spaß haben mir wird übel lese nur noch habe am pll und da und dort eingedreht die meisten haben was verlernt und zwar zu leben und Spaß haben also viel Spaß mit dem neuen Spielzeug

Und ja schwarzer Humor war bei Gruß vom alten t800 und seinem stolzen fx 8350
 
  • Gefällt mir
Reaktionen: daknoll
HyperSnap schrieb:
Wegen 5 FPS sich das Lager aussuchen find Ich so... naja^^
Also wenn ich in Rimworld 5 fps mehr haben sollte, wäre das ein massiver gewinn 17->22 sind 30% mehr^^
 
  • Gefällt mir
Reaktionen: metallica2006
GeT_R3kT45 schrieb:
Und das andere Spiel bzw. Programm hätte gerne mehr Cache als Mhz (sieht man ja bei einigen Spielen und Anwendungen die extrem gut auf den großen Cache ansprechen). So what? Kauf dir die CPU die für deinen Einsatzzweck am besten ist. Ob nun die eine CPU 5% mehr Leistung in dem einen Spiel hat als die andere und im nächsten Spiel ist es umgekehrt, ist am Ende auch egal und du wirst es kaum merken. Gehts dir nur um MHz dann geh zu Intel. Brauchst du nur mehr Kerne dann zur 7000 mit X und mehr Cache für reine spielen eher der 3D und wenn du gute Leistung mit wenig Verbrauch im vielleicht kleinen Gehäuse brauchst, dann die non X und fertig!
Dein größtes Bottleneck wird höchstwahrscheinlich am Ende eh die GPU sein…
Ich verstehe nicht was das zur Diskussion beiträgt?

Ich spreche von einem theoretischen Szenario in dem die ein und die selbe CPU in einer gewissen Applikation (Programm/Game) nicht das leistet was sie könnte weil das falsche CCD ausgelastet wird. Also entweder das mit dem cache oder das mit den schnelleren Cores. Also das System mit der Whitelist bei den 7900X/7950X CPUs.

Darf man das nicht diskutieren?
 
AMD reißt mit Hintern ein, was sie sich in 5 Jahren mühevoll erarbeitet haben. So ein fauxpas darf einfach nicht passieren.
 
Sun-Berg schrieb:
Ich spreche von einem theoretischen Szenario in dem die ein und die selbe CPU in einer gewissen Applikation (Programm/Game) nicht das leistet was sie könnte weil das falsche CCD ausgelastet wird.
Ja, man muss glaube ich schon wissen, womit man sich bei einem 7900X3D/7950X3D einlässt. Es ist wohl eher eine Art Kompromiss und das Whitelisting sorgt dann dafür, dass immerhin die Anwendungen, die sicher vom größeren Cache soweit profitieren, dass sie eben auch mit den niedrigeren Takt nicht langsamer sind. Alles andere wird dann auf dem CCD mit höherem Takt ausgeführt.

Die große Schwierigkeit dürfte sein, dass Anwendungen schwer automatisch zugewiesen werden können, wahrscheinlich sind meist die Aufgaben auch insgesamt viel zu komplex, um einen Sheduler die Verwaltung zu überlassen. Und wenn, dürfte da Arbeit an den OS-Hersteller und den Softwareentwicklern hängen, um das zu verwirklichen.

Also löst AMD es mit dem Whitelisting, gibt auch wenig Möglichkeiten, es anders/besser zu lösen. Software und Spiele gibt es sowieso erst einmal zu viele, sodass es auch nie zu kompletten Listen führen kann, welche SW jetzt auf welchen CCD ausgeführt wird. Ein Weg über Blacklisting des "normalen" CCDs ist daher eher der falsche Ansatz. So gibt es dann den Weg: Führe alles auf den höher taktenden CCD aus, außer es ist bekannt, dass es mit mehr Cache aber weniger Takt besser läuft. -> Whitelisting
Anders herum wäre es weniger vom Vorteil, da ansonsten Anwendungen, die nicht vom Cache profitieren gleichzeitig auch noch am langsameren Takt hängen würden.

Meine erste Meinung vom asymetrischen Aufbau und dem Whitelisting war sehr verhalten, aber bei tieferen Überlegen finde ich die Lösung garnich mal so verkehrt. Jetzt muss AMD nur noch zeigen, wie gut sie ihre Whitelist führen und pflegen. Bin auf jeden Fall gespannt auf die Ergebnisse, werde es mit interesse weiter verfolgen.
Ergänzung ()

@magickitt Hui, sind dem 8350 die Satzzeichen zu viel? :D Liest sich grauenhaft, nich allene wegen Satzzeichen.

Um deine 3-5% Mehrleistung geht es jedenfalls nicht. Hatte selbts den FX8350 und der wechsel auf den 1700 hat gleich mal +50% gegeben, bei gleichzeitig deutlich weniger Leistungsaufnahme. Wenn ich dann jetzt mein aktuelles System im kompakten ITX anschaue, da würde ein 8350 seine wärme nicht ausreichend los werden und gleichzeitig auch noch zu langsam sein.
Kommt am Ende natürlich darauf an, was man mit der Kiste anstellt und wie die Ansprüche sind. So hoch sind meine Ansprüche allerdings nicht mit einem 5700G und einer RX6600, bei der das gesamte System nur sehr schwer über 200W kommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Eno77 und Sun-Berg
Irgendwie habe ich die Befürchtung, dass die ganze Zen4 Plattform einfach ein Griff ins Klo ist, und das schließt auch den X3D ein.
 
  • Gefällt mir
Reaktionen: crackett
scotch.ofp schrieb:
Naja, ich würde da auch eher mit dem 13600K vergleichen. Da sieht das dann schon anders aus.
Anhang anzeigen 1310688

Ihr beiden vergleicht doch komplett verschiedene Dinge. Bei dir weiß ich nicht mal ansatzweise die Testbedingungen, aber bei @Zer0Strat hat der 13900K nen Verbrauch von 139W vs deinen 99W.

Das würde bei identischen Testbedingungen überhaupt gar nicht passen, daher vergleicht ihr hier nicht dasselbe und alle davon abgeleiteten Werte (13600K etc) sind unbrauchbar.

Welches davon richtig ist? Keine Ahnung, aber ein sinnvoller Vergleich ist das hier absolut gar nicht.
 
Wie wahrscheinlich ist es denn bitte, das einer auf der AMD Website das falsche Datum reinschreibt?! Das ist/war garantiert das richtige Erscheinungsdatum, nur war da einer etwas voreilig mit dem reinstellen. Das Datum des Launchs wird ja traditionell erst bei der finalen Vorstellung genannt. Bin mal gespannt, ob es am Ende doch der 14te wird oder man jetzt aufgrund des unfreiwilligen Leaks verschoben hat.
 
Philste schrieb:
Bin mal gespannt, ob es am Ende doch der 14te wird oder man jetzt aufgrund des unfreiwilligen Leaks verschoben hat.
Der 14.02. ist Samstag, soweit ich mich erinnern kann hat AMD noch nie Samstags irgendwas vorgestellt/gelauncht.
 
Der 14.2. ist ein Dienstag. Würde zu den vergangen Releases am Dienstag wie Zen 4 (27.09) und Radeon 7000 (13.12.) passen.
 
  • Gefällt mir
Reaktionen: LinuxTux
diese effizienzdiskussion ist in vielen teilen nur ein nebenschauplatz finde ich - schaut man sich die messungen die @Zer0Strat angehängt hat sieht man auch wieso...die cpu's haben teils krasse effizienzunterschiede..aber beim gesamtverbrauch redet man dann von einem unterschied von ca. 50w bei einem systemverbrauch von 480-520w...also knapp 10%.
das ist nicht schlecht, aber unterm strich auch nicht weltbewegend..

kleine rechnung: wenn man an 6 tagen die woche 5 stunden spielt, dann macht das bei 40ct/kwh im jahr rund 30€ mehrkosten aus...also irgendwas zw. 2-3€ im monat an unterschied bei der besagten hardwarewahl..
(jemand der sich eine 4090 ins system steckt, wird an diese 30€ im jahr keine großen gedanken verschwenden..)
 
  • Gefällt mir
Reaktionen: Klever
2k9 schrieb:
Irgendwie habe ich die Befürchtung, dass die ganze Zen4 Plattform einfach ein Griff ins Klo ist

Ich habe die Befürchtuing, dass du da etwas verwechselst.
Zen4 "Plattform" gibt es als solche nicht - es gibt Zen4 Prozessoren. - Die "Plattform" dazu wäre dann AM5.
Zen4 ist für Anwender der nächste logische Schritt, nach Zen3 - mit durch die Plattform unterstütztes DDR5 und Zen4 Leistung = höher, als Zen3.
Da Intel jetzt aber wieder mal Konkurrenzfähige Prozessoren im Angebot hat und AMD nicht mehr so Haushoch überlegen ist, wie noch bis zu Zen3 Zeiten, sondern "nur" noch ca. gleichauf plusminus ist Zen4 ein Griff ins Klo? WTF?

Das ganze X3D Zeug interessiert in der Realität doch niemanden, auch ohne X3D beiten die Prozessoren mehr als genug Power, um prima zocken zu können. (In entsprechenden Auflösungen WQHD+ ist die CPU eh kein Bottleneck mehr und ob man in FullHD 300 oder 350 fps hat, ist mal sowas von egal...)
Wir diskutieren hier über Dinge, die bei Spielen und einigen Anwendungen Vorteile bringen - und dafür kann man AMD danken, denn sie könnten das auch einfach sein lassen.

Etwas unglücklich war die Entscheidung aber trotzdem - ich wiederhole mich: 7800X3D - und die größeren Modelle bleiben wie sie sind... wäre für mich die Lösung gewesen, statt mit der Whitelisterei anzufangen, was ggf. einen schlechten/unsicheren Ruf bringt, der sich festsetzt, obwohl es am Ende ggf. wie bei Big/Little von intel doch ganz gut funktioniert.
 
Eno77 schrieb:
In entsprechenden Auflösungen WQHD+ ist die CPU eh kein Bottleneck mehr
Das kommt aber grundsätzlich aufs Spiel an. Überwiegend mag das stimmen, ist aber nicht allgemeingültig. Und auch ich musste lernen, dass es seit der 4090 auch in hohen Auflösungen inwzischen enger wird - selbst für einen 7950X, 13900K oder 5800X3D.
 
Dome87 schrieb:
Echt? Also in AoE II DE im CPU-Limit brauchte mein 12900KS 130W wo mein 5800X3D mit 65W eine ähnliche Leistung abliefert.
für mich war AoE II immer Age of Empires 2
was ist es heute... weil ein Age of Empires 2 wird doch wohl kaum im CPU limit laufen
 
Zurück
Oben