TeamViewer Motive 2

News Preis enthüllt: Der Ryzen 9 9950X3D2 kostet in Deutschland 909,99 Euro

Benna schrieb:
diesmal bleibe ich hart und warte brav auf den 11800X3D
Was für 11800X3D ? Es ist sehr wahrscheinlich, dass AMD beim nächsten Desktop‑Ryzen‑Launch nicht mit 11800X3D oder ähnlichen vierstelligen Modellnummern weitermacht. Aktuelle Leaks deuten darauf hin, dass AMD das Zahlenschema neu startet und künftig auf ein "Ryzen AI" Branding setzt, statt eine 11000er‑Serie einzuführen.
 
beckenrandschwi schrieb:
Schon geil!
1000€ CPU
1000€ RAM
1000€ SSDs
3000€ GPU

--> 6k€ System, um was top aktuelles zu haben. Nicht allzulange her, da genügten 3000€
Wird bald sicherlich noch viel schlimmer bzw besser (wenn man das meiste davon hat).
Bin froh, wenn mein System, so wie es ist, bis nach 2030 durchhält.
 
Serandi.87 schrieb:
@Caramelito
Ballert ohne Probleme bei mir auf -30 und kann über 5840Mhz boosten.
Mit pbo +200mhz und curve - 30? Oder andere Settings?

Ich habe wie immer eigentlich aus Faulheit einfach - 20 gesetzt und fertig 😅
 
@Krausetablette
Ich denke, jeder hat kapiert auf was ich hinaus möchte. Alles andere ist, wie du selbst korrekt sagtest, hätte, müsste, könnte, sollte.
 
Caramelito schrieb:
Mit pbo +200mhz und curve - 30? Oder andere Settings?

Ich habe wie immer eigentlich aus Faulheit einfach - 20 gesetzt und fertig 😅
Ja mit PBO +200Mhz und all core -30, wenn die Chipgüte gut ist, in der Regel sollte sie es sein. Wenn es nicht richtig läuft dann eben -25 oder -20, ist ja auch schon top.
 
DarkSoul schrieb:
Ähm... Im Eco Mode z. B. 95 Watt und negativen Curve Optimizer Werten säuft er doch nicht so sehr? Wie viel zieht er denn in bekannten Benchmarks?
Benchmarks unter Load sind mir nicht wichtig. 100-120W im idle nicht (an Steckdose gemessen). Monitor ist aus. Desktop, keine offenen Programme im Hintergrund.
Mobo hat hierbei den größten Einfluss. AMD typisch eben...

Eco Mode hat null Auswirkung auf Idle_Verbrauch... alles getestet, probiert und längst akzeptiert
 
  • Gefällt mir
Reaktionen: Serandi.87
Okay, dann wird es für mich wohl doch der 9950x werden. Ich möchte aus verschiedenen Gründen mehr als 8 Cores haben, aber die 12-Kerner sind beim gelegentlichen Gaming leider effektiv zwei Sechskerner.
Und 500€ Aufpreis zum 9950x sind mir dann doch zu heftig. Auf irgendwelche Scheduler-Probleme bei nur einem x3d-CCD habe ich gar keine Lust.
Für meine Arbeit wird's super, und die Gamingleistung eines 9950x ohne 3d ist immer noch brutal, und den kann man locker mit <130W betreiben.
 
HansDetflefAndi schrieb:
100-120W im idle nicht (an Steckdose gemessen). Monitor ist aus. Desktop, keine offenen Programme im Hintergrund.
Mobo hat hierbei den größten Einfluss. AMD typisch eben...
Ich hab auch 98 - 140 Watt im "Idle", allerdings mit Programmen wie Afterburner, G-Hub, etc. im Hintergrund. Allerdings hab ich 4 RAM-Riegel, 2 NMes, 2 HDDs und 1 Blu-ray Brenner mit in meiner Kiste, und natürlich diverese Lüfter. Ohne den ganzen Kram (bzw mit nur 2 statt 4 RAMs) wäre der Verbrauch bestimmt unter 90 Watt. Laut Gemini, da mir ein Vergleichssystem fehlt, hat ein Intel Core i7-12700K/12900K auch nur ca. 15 - 20 Watt weniger. Ich seh darin jetzt kein großes Problem, Intel ist da nicht viel besser bei einer vergleichbaren CPU.

1776854902508.png


Da man Systeme nicht lange im Idle belassen sollte, weil das einfach Stromverschwendung ist, ist der Verbrauch unter Halb- bzw Vollast viel interessanter und da ist AMD mit Abstand besser (laut Gemini):

1776854890235.png


Bringt man den Rechner in den Ruhezustand, wenn er nicht gebraucht wird oder schaltet man ihn aus hat AMD also klar die Nase vorne beim Verbrauch. Mir ist das mittlerweile tatsächlich sowieso egal, dank 2000 Wp BKW.
 
DarkSoul schrieb:
Da man Systeme nicht lange im Idle belassen sollte, weil das einfach Stromverschwendung ist, ist der Verbrauch unter Halb- bzw Vollast viel interessanter und da ist AMD mit Abstand besser (laut Gemini):
Wenn man den Rechner auch mal für Lesen/Recherche, Browsing, youtube etc. nutzt, ist der idle-Verbrauch schon relevant, weil all diese Sachen quasi 0 Auslastung erzeugen.
Und ich schätze, dass für die meisten Leute hier (u.a. mich), die so teures Spielzeug kaufen, nicht etwa die Stromrechnung, sondern vielmehr die Abwärme, die im Raum bleibt, das "Problem" ist.
 
Thomas Schult schrieb:
Bringt keine Vorteile gegenüber dem Vorgänger 9950X3D. Viele Spiele nutzen nur 8 Kerne und profieren nicht von dem 2. Chiplet. Sollten die Spiele mehrheitlich doch mehr Kerne nutzen, ist der Datenaustausch in Bezug auf die Zugriffszeiten zwischen den beiden Dies auf dem Niveau von normalem DDR5.
Nicht mal das... du hat in der regel einen zeitkritischen Haupthreats und der rest springt rum und her... du verteilst das halt auch so das es mit dem Cache 1,2 3 passt... und der thread passt halt nur auf einen ccd..... auch aus dem grund hat ja Intel Multthreading eingedampft... also bestimmt nicht nur deshalb (Gaming) und es scheint ja uch wieder hinfällig...:
Aber Games sind Singelthread anwendungen... sprich selbst wen der hauptthread, mal vom kern zu kern springt... wirst du das innerhalb eines ccds haben wollen... also in einem l3.... und 8 kerne reichen den meisten anwendunge... selbst 6 kerne bringen kaum einen Vorteil...

Und aus Dev Perspektive will man ja auch das das Teil möglichst stabil überall läuft, alxo auch auf den none x ccds... und am ende hat man noch die xbox und ps5, die sowieso nur 8 kerne hat... und worauf jeder code optimal laufen sollte....

Woher soll also ein geschwindkeitsvorteil kommen. Habe daher nie verstanden warum Leute dannach schreien. Aber es gibt sicher anwendungsfelder... angeblich gerade wen man kompilieren will... usw... Selbt mit INtels neun CPU der da mit 250mp lv3 cache um die ecke kommt... selst wen das idioten sicher zu coden wäre, man will ja das der code in der breite bei jedem läuft... am ende zahlen die entusasten nciht allein deine Software.

Nein, der interconnect soll sogar schlechter sein! Lesen bis schneller, angeblich, aber im write zugriff willst du nciht... das soll der Punkt sein wo es noch Cases geben soll wo Intel AMD davon fährt.... aber das hat nichts mit gaming zu tun.... weil das lässt sich nicht endloss auseranderbröseln.... da hat man einen stingelthread (mit anderne parralelsierbaren aufgaben, die mit drinnen hängen), aber das zeitkritische ding will man auf einen ccd lassen...

Das einzigste wo ich mir vostellen könnnte, das man prozesse spiegelt... und aus thermischen gründen springt... aber das muss man dennoch syncronisieren... wie soll das mit nem interfabrig gehen, der bisl schneller ist als der ram??`? .... sorich das ding macht nur sinn wo 2 anwendungen die zeitkritisch sisnd, parralel laufen.... oder etwas was man halt sauber auf 2 x 6-8 threads bracuht die beide 96mb cache profitieren...

Haut mir gerne auf den Kopf wen bei einzelen Punkten blödsinn erzählen sollte.... aber bei Gaming war es vorher schon kein geheimnis das es praktisch kaum bis keinen SInn macht. Selbst wen ich asl Dev, mehr bits schubsen könnte, es muss ja auch runterskalierbar bleiben... durchausmöglich das dort auch intel veruscht anzugreifen.... die ja mit dem ringbuss besser daten schupsen können? Aber selbst wen, dann kommt das lange nciht bei spielen ann... einfach weil es auf den Beiden Taschenrechnern PS5 udn Xbox laufen muss...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nerdpatrol
Zurück
Oben