TeamViewer Motive 2

News Preis enthüllt: Der Ryzen 9 9950X3D2 kostet in Deutschland 909,99 Euro

1776 schrieb:
Hardware Unboxed hat ein Review up, die CPU ist bei Gaming so nutzlos wie erwartet.
Rendering hat den groessten Vorsprung, ganze 7% auf den normalen X3D.
Dafuer saeuft er anstaendig mehr Leistung, und Performance/Watt ist miserabel. 60W mehr bei Cinebench! 🤦‍♂️
Leistungsspitze ist ein Wert in sich, damit kann man Marketing machen selbst wenn nur 5 Leute es weltweit kaufen. Ich würde auch nicht für 3000 Euro ne 5090 kaufen trotzdem beten Leute auch wegen solch einer CPU Nvidia als Genies an.

Sicher es wäre besser hätte man eine CPU die 200% so schnell wie ne Intel CPU wäre das wäre ein größeres Statement, aber das gelang auch nur (da sieht man wie stark das wirkt in wirklichkeit ist der Abstand viel geringer in Gaming) weil RDNA4 diesmal nur Mittelklasse GPUs anbietet. Wobei die 4090 auch nur im Schnitt 20-27% schneller war laut einigen Quellen die ich grad durch gecheckt hab, sicher man kann sich irgendwas zurecht legen mit DLSS4 auf performance vs FSR3 Quality, aber A ging es um die Hardware und B kam DLSS 4 erst über 1 Jahr später raus als die Karte released wurde und auch da wurden nicht sofort alle Spiele unterstützt.
 
  • Gefällt mir
Reaktionen: SweetOhm
Faust2011 schrieb:
Ich hätte erwartet, dass sie auf jeden Fall langsamer als ein 9800X3D und auch ein 9850X3D ist. Zum einen taktet sie nicht so hoch und zum anderen hat man das Problem, dass die Threads eines Spiels am besten immer auf demselben Chiplet bleiben - das ist Overhead, der vermutlich nochmals Performance kostet.
War zu erwarten. Cache Anbindung an einem Die. Consumer nörgelt das nicht alle Cores am Cache angebunden sind. Noch ein Cache am zweiten Die. Okay das bedeutet aber das die hälfte der Cores brach liegt, aka nicht gebraucht wird WENN der Sheduler das überhaupt macht (was er vermutlich NICHT macht). Und dann greife ich mit Sicherheit zum R7 9850X3D wenn es um den Bus geht. Weil der fährt.
 
bei über 250€ teurer als der 9950X3D bei kaum mehr Performance aber mehr Verbrauch? Die CPU wird ja mal der Mega-Flop des Jahres...
 
  • Gefällt mir
Reaktionen: fox40phil und Patrick030
Nein. Es gibt genug Leute die immer das Neueste kaufen. Den Rest verkneife ich mir.
 
  • Gefällt mir
Reaktionen: SweetOhm
swage schrieb:
War zu erwarten. Cache Anbindung an einem Die. Consumer nörgelt das nicht alle Cores am Cache angebunden sind. Noch ein Cache am zweiten Die. Okay das bedeutet aber das die hälfte der Cores brach liegt, aka nicht gebraucht wird WENN der Sheduler das überhaupt macht (was er vermutlich NICHT macht). Und dann greife ich mit Sicherheit zum R7 9850X3D wenn es um den Bus geht. Weil der fährt.
Der 9850X3D ist echt super, kann ich nur empfehlen! Nutze den mit -30 und ohne PBO, da mir 5650Mhz Max-Boost dicke reichen. Mit PBO gehen da locker 5850Mhz. Top-CPU!
 
aid0nex schrieb:
Dito. Ich hab mir vor einem Jahr den 5700X3D gekauft (neu) und dafür Punkt 200€ bezahlt.
Den gabs aber schon noch günstiger. Ich meine ca 180 oder 185€. Habe meinen Kumpel zum Glück dazu bekommen sich den da zu kaufen! :evillol:
Dem Vadda vom Kumpel hab ich den 5800X3D samt 32GB 4000er C15 RAM &
X570 Dark Hero Board verkauft und bin so auf AM5 mit 9700X (jetzt den 9850X3D drin), X870E Board (vorher MSI Carbon X870E), 32GB 6000er C30 RAM umgestiegen bei 1:1 der Verkaufs und Einkaufskosten! :daumen:
 
  • Gefällt mir
Reaktionen: Patrick030
5900x reicht mir so was von aus. Holy. Säuft zwar wie ein Loch aber... alle Spiele laufen ins FPS Limit des Monitor bei max. Einstellungen 5120x2160 @165 FPS dank 5070ti und DLSS 4.5

Wüsste echt nichts produktives mit diesem 9950X3D2 anzufangen, was 5900x nicht könnte.
 
  • Gefällt mir
Reaktionen: fox40phil und Serandi.87
Es geht dabei rein um Durchsatz für die GPU. ReBar und PCIE Bus sind dabei ein Faktor, aber allgemein kann man sagen das mit der 4090 viel Karten ins CPU Limit gelaufen sind. Eine 5090 rennt dir auch bei einem R7 9800x3d theoretisch ins CPU Limit, abhängig von der Auflösung (bei niedrigeren Auflösungen ist es natürlich eher ein Problem weil schneller zu bearbeiten), da spielt dann auch Upscaling mit rein.

Bei extremen Bestückungen WILLST du eine CPU die so schnell wie möglich die Daten in die GPU schaufelt. Die Frage ist welcher CPU das ist. Das wäre dann der R7 9850x3d im Moment. Das ist jetzt weniger ein Problem wenn man in 8k spielt.

Spiele beiseite ist es natürlich genauso ein Faktor wenn du eine Ki lokal betreiben willst. Es ist einfach der Flaschenhals. Gute Architektur bedeutet den so weit aufzumachen wie möglich.

Im Rechenzentrum hast du daher auch meist dual CPU Boards, hier geht es dann auch um PCIE Pipelines die zur Verfügung stehen was eine Auswirkung darauf hat wie viele GPUs betrieben werden könne. Ich habe Chipsets gesehen die auf aktive Kühlung gemoddet wurden weil sie einfach gekocht haben. Da nimmt man dann Epycs. Da kämpft sich das Chipset durch 384 physische Kerne zu den GPUs.
 
Zuletzt bearbeitet:
1776 schrieb:
Hardware Unboxed hat ein Review up, die CPU ist bei Gaming so nutzlos wie erwartet.
Laut deren Test auch bei Multi Core ein Flop.
Gegenüber dem 9950X3D, der ca. 650 Euro kostet, zwischen 0 und ca. 4% Mehrleistung.
 
Und wen soll das ansprechen?
 
So viel zum Thema warum AMD keinen Dual Cache CCD Prozessor bis jetzt auf den Markt gebracht hat. Es bringt einfach nahezu gar nichts. Stromverbrauch ist horrend, Kosten auch.


@Caramelito

Ich bin raus aus dem Ding. Genau wie bereits vermutet. Die Spiele werden auf ein CCD forciert. Somit ist die Performance identisch in Spielen. Für den Verbrauch zahle ich keine 900EUR. Da ist man mit dem normalen 9950x3d besser bedient.
 
Wie auch schon beim 9950x3D sage ich, der wird vergleichsweise schlecht altern, bezogen auf
  • "11800x3D"
  • Vermutlich auch Nova Lake
Womöglich wird erst in einiger Zeit ersichtlich, weswegen man den 9950x32 noch gebracht hat.


Der Vorgänger wird deutlich geschlagen 😅
Neuer AMD Phenom X4 9950 mit 2,66 GHz? - ComputerBase


€dit:
Falls ein Interessent vom x3d2 profitieren könnte, müsste man überhaupt erst mal verstehen, welche Software das jeweils genau ist und was damit gemacht wird, um überhaupt eine Empfehlung aussprechen zu können.
 
Zuletzt bearbeitet:
Hmm, ob der Cache den Aufpreis wert ist ich weiß ja nicht, zeigt aber vermutlich ungefähr wo wir bei Zen6 Landen werden preislich.
 
  • Gefällt mir
Reaktionen: Patrick030
  • Gefällt mir
Reaktionen: fox40phil
t3chn0 schrieb:
So viel zum Thema warum AMD keinen Dual Cache CCD Prozessor bis jetzt auf den Markt gebracht hat. Es bringt einfach nahezu gar nichts. Stromverbrauch ist horrend, Kosten auch. (...)
In den nächsten Tagen und Wochen werden wir sicherlich noch ein paar Situationen zu Gesicht bekommen, in denen es einen deutlichen Unterschied gibt. Aber diese werden detektivisch gesucht werden müssen.

Den Hauptgrund, dass es in der Breite einfach wenig bringt, den haben wir jetzt gut vorgeführt bekommen. Nebenbei gibt es aber noch einen: AMD kann ihn gerade gut bringen. V-Cache unterm CCD bändigte den Taktverlust, heftige Aufpreise für schnelleren RAM (der andere Punkt, mit dem man aus einem System das letzte Bisschen rausquetscht lassen den Aufpreis im Vergleich geringer erscheinen und entsprechend haben sie ihn preislich so positioniert, dass es sich für sie richtig lohnt. (Kostet so viel wie ein doppelter 9850X3D, benötigt aber nur ein Substrat, IO-DIE usw.)
 
  • Gefällt mir
Reaktionen: Gee858eeG
HansDetflefAndi schrieb:
5900x reicht mir so was von aus. Holy. Säuft zwar wie ein Loch aber...
Ähm... Im Eco Mode z. B. 95 Watt und negativen Curve Optimizer Werten säuft er doch nicht so sehr? Wie viel zieht er denn in bekannten Benchmarks?
 
Zuletzt bearbeitet:
Sapphire Forum
Zurück
Oben