Eigenbau PC - Fragen zu alten Komponenten

Meine Meinung: Wenn dir das Gehäuse gefällt, das du bisher hast, behalten. Und wenn du jetzt eher sparsamer unterwegs sein willst und auch bei der GPU Abstriche machen willst, ist vielleicht doch das ASRock (https://geizhals.de/asrock-b650e-pg-riptide-wifi-a2824283.html?hloc=de) die bessere Wahl, wer weiß ob in 3-4 Jahren dich PCIe 5 dann doch lohnt mit der übernächsten GPU-Generation. Nachdem du ja Dual 4K hast, wirst du immer einen großen Speicherhunger haben und dann kann sich das nochmal lohnen, statt komplett neuem System dann einen 9800X3D und eine 6090 reinzusetzen, oder was es dann halt gibt, nur hypothetisch gemeint.
Jemand mit deinen Anforderungen an die Hardware wird ja am schnellsten von den zukünftigen Generationen profitieren und der Kram ist immer sehr teuer, so kann man dann wenigsten noch etwas beim Aufwand und Rest sparen.
 
kingmatl schrieb:
Was ich noch nicht weiß, ob ich ein neues Gehäuse kaufe oder nicht...sind immerhin auch 150-200€ (für nicht viel Effekt).
Unterschätze den Effekt nicht! Bei der Hardware und dem Budget würde ich nicht daran sparen, denn WENN es doch nicht passt, läuft dein neues System, sagen wir mal, extrem "unrund" wegen gesparten 150€ bei 3k€ Budget.

Zumal, wenns Probleme mit Hitze, Airflow etc. gibt, der Wechsel auf ein anderes Gehäuse nicht gerade wenig Aufwand bedeutet. Nur meine Meinung :) muss ja nicht schiefgehen
 
Tharan schrieb:
Interessant, weil CB hier teilweise andere Ergebnisse zeigt
CB zeigt leider gar nix zum Schwachlast-Verbrauch.
Viele hier verstehen nicht mal, dass "Teillast" bei CB Volllast auf einem Kern ist.

Ich rate Dir, weniger Tests zu lesen, sondern einfach mal selbst zu messen. Wie der Kollege hier, der 89W bei Youtube misst (mit eine sparsamen GTX1070). Viele bei Reddit berichten von >100W.

Tharan schrieb:
Wie z.B. im Idle: Stimmt CB, braucht der AMD 6W mehr.
Realworld Messungen (an der Steckdose) ohne dGPU:
Mein 13700K: 24W
7800X3D lt. Daniel: 51W

In diesen Thread findet man 2 interessante Videos von technotice.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Daniel D.
till69 schrieb:
CB zeigt leider gar nix zum Schwachlast-Verbrauch.
Viele hier verstehen nicht mal, dass "Teillast" bei CB Volllast auf einem Kern ist.
Danke, so ein Gerät nutze ich auch und ich konnte auch lesen, wie CB misst, weswegen ich NICHT den Single-Core-Vergleich angebracht habe. Und genau hier kommst du ja mit deiner Glaskugel an die Grenzen: Was ist Schwachlast?
Der TE hat immer viel parallel offen laut seiner Aussage, also ist auch nur eine Betrachtung mit Youtube alleine kein passender Vergleich, sondern irgendwo zwischen dem und der Volllast wird man liegen. Je mehr, desto besser für den 7800X3D.
Bei deinem Fall kann ich 6 Stunden Idle / Schwachlast bleiben für eine Stunde spielen beim Mehrverbrauch von 30W im Vergleich zu einem i7. Das ist schon enorm.
 
till69 schrieb:
Office, YT, Browser uvm.

Beim realen Gaming (WQHD/4K) an der Steckdose gemessen liegen nur 10-30W Unterschied zwischen 7800X3D und 13600K ;)
13600K? Seit wann geht es um diesen? Du hast selbst den 13700K vorgeschlagen, der da nochmal gute 30W mehr als der 13600K nimmt beim Spielen.
Und die Schwachlastfrage war genau auf die Frage, was der TE damit macht. Spiel im Hintergrund ist keine Schwachlast mehr, YT, Browser, Office, Spotify etc. parallel ist auch nicht mehr die Schwachlast, die deine Benchmarks abbilden.

Ich bin über deine Kreativität sich alles immer zu Recht zu legen weiterhin begeistert.
 
  • Gefällt mir
Reaktionen: ferris19
Tharan schrieb:
der da nochmal gute 30W mehr als der 13600K nimmt beim Spielen
Ja, träum nur weiter in Deinen Tests.
Selbst CB (offenbar Deine Referenz) sieht zwischen i5/i7 19W Unterschied, und das im 720p/4090 CPU Limit fern ab jeglicher Realität.

Tharan schrieb:
Dafür in Spielen 180W weniger.
Wenn Du das ernsthaft glaubst, ist Dir eh nicht mehr zu helfen.
 
Ich frage mich, ob die 32GB RAM ausreichend sind für die nächsten Jahre.
Würden 64GB jetzt schon einen Mehrwert bieten? Wenn ja auf 2 oder 4 Riegel?
Die Kosten dafür wären ja mit ca. 100€ nicht so schlimm.
 
@kingmatl
Ich weiß nicht wie der Rambedarf deiner CAD Software ist, was Spiele angeht gibt es inzwischen ein paar die von mehr als 16GB profitieren, das heißt aber noch lange nicht, dass sie die 32GB auch komplett füllen.
Für reines Gaming bist du mit 32GB gut aufgestellt.
 
@kingmatl
Gibt sich in der Praxis nicht viel
 
Benötige ich eigentlich um meine zwei 4k Monitore betreiben zu können eine RTX4090 mit 2 HDMI 2.1 Anschlüsse?
 
kingmatl schrieb:
Ich frage mich, ob die 32GB RAM ausreichend sind für die nächsten Jahre.
Würden 64GB jetzt schon einen Mehrwert bieten? Wenn ja auf 2 oder 4 Riegel?
Die Kosten dafür wären ja mit ca. 100€ nicht so schlimm.
Wenn 64GB, würde ich auf 2 Riegel gehen - der AMD-Speichercontroller ist bei Vollbestückung nur für deutlich langsamereren RAM spezifiziert, da sind 2 x 32GB deutlich stressfreier als 4 x 16GB.
 
Sorry, dass ich schon wieder eine blöde Frage stelle.
Reicht das Netzteil mit 850Watt sicher aus oder könnte es bei Übertaktung zu Engpässen kommen?
Wäre es vielleicht besser dieses hier zu nehmen?
https://geizhals.at/be-quiet-pure-power-12-m-1000w-atx-3-0-bn345-a2884016.html

Preislich wäre nicht sehr viel Unterschied.
Hätte dieses Netzteil einen Nachteil?
Irgendwo habe ich gelesen, dass alleine die 4090 bei Übertaktung bis 600Watt gehen kann...

Kennt vielleicht jemand einen guten Artikel wo die verschiedenen RTX4090 miteinander verglichen/getestet werden? Mir fällt die Entscheidung etwas schwer welche es sein soll.

Danke
 
Zuletzt bearbeitet:
Ja, bis 600W wäre mit 4090 theoretisch möglich, real sind es eher 450W. Im Computerbase Test steht:
Die Leistungsaufnahme steigt je nach Auslastung zwischen 50 und 70 Watt an und beträgt im Worst-Case-Szenario etwa 530 Watt (geschätzt anhand der Karten-eigenen Telemetrie).
(Etwas Eigeninitiative beim Suchen kannst schon bringen.)

Du bist jetzt bei AMD-CPU? Dann würde ich hier mit ~170W rechnen.

Wären gesamt 700W. Also noch Luft beim 850W Netzteil.
1000W kann man machen. Ist dann im Idle etwas weniger effizient, aber die paar Watt mehr, die es dann aus der Steckdose zieht, wirst du auf der Stromrechnung auch nicht merken.
 
kingmatl schrieb:
Irgendwo habe ich gelesen, dass alleine die 4090 bei Übertaktung bis 600Watt gehen kann...
Kann sie theoretisch, macht aber keinen Sinn da 600W durchzujagen, selbst die 450W sind schon nicht sonderlich effizient.
https://www.computerbase.de/2022-10...rtx_4090_vs_rtx_3090_ti_bei_450_350__300_watt
Die Karte zu übertakten ist also komplett sinnlos.

frazzlerunning schrieb:
Du bist jetzt bei AMD-CPU? Dann würde ich hier mit ~170W rechnen.
Sofern wir hier weiter vom 7800X3D reden sind wir da selbst in Anwendungen für gewöhnlich unter 100W, in Spielen sowieso.
 
Zurück
Oben