Stromverbrauch bei GPU-Wechsel

Defragger

Ensign
Registriert
Dez. 2015
Beiträge
133
Servus zusammen,

aufgrund des derzeitigen Preisverfalls dachte ich mir, ich würde bei einem guten Preis von meiner 2080S auf eine neuere Grafikkarte umsteigen und meine alte würde ggf. in der Familie einen neuen Platz finden, da dort gerade Bedarf besteht.

Mein System sieht derzeit so aus:
CPU: R9 3900X
GPU: Asus 2080S EVO V2 OC
Mainboard: ASUS TUF Gaming X570-Plus (Wi-Fi)
RAM: G.SKILL Trident Z 32GB
Arctic Liquid Freezer II 360 CPU Wasserkühlung (3 Lüfter)
3 zusätzliche Lüfter im Corsair Graphite Series 780T Gehäuse
2x SSDs
1x M.2 SSD

Grafikkarte und CPU laufen auf normalen Werten, d. h. ich nutze kein Overclocking. Gemäß beQuiet Kalkulator hab ich mir dann ein Straight Power 11 650W Gold Netzteil gekauft. Für die damalige Konfig hatte ich sogar noch etwas Puffer nach oben, ein 750er war nicht notwendig.

Laut Netzteil-Rechner müsste ich aber selbst bei einer 3080 oder 6800XT schon mindestens auf ein 750W-Netzteil hochgehen, wobei mich bei AMD wenn dann nur die 6900XT reizen würde. Habe mich nie mit den TDP-Werten auseinander gesetzt, aber die Generation zieht schon ordentlich Saft. Von 250W (2080S) auf 320W (3080) ist sind einfach mal 28%.

Jetzt meine Frage an euch: habt ihr eventuell mit ähnlicher Konfiguration Erfahrung mit einem 650W Netzteil und einer 3080 oder ggf. sogar 6900XT? Wenn ich dann aufrüsten würde, müsste ich das Netzteil ja auch anpassen. Habe schon gehört, dass die 4000er-Serie noch mehr Strom frisst, also wäre dann statt 750W eigentlich fürs in die Zukunft schauen schon ein 850W Netzteil sinnvoll, oder? Bei AMD weiß ich leider noch nix über die 7000er-Serie.

Es eilt nicht, bin ja noch ganz gut unterwegs mit der Grafikleistung. Aber wenn ich höre, dass AMD bei TSMC ihre Chips für die 4000er-Gen nicht zurücknehmen kann und parallel noch die Lager mit den 3000ern voll hat, dann hört sich das prinzipiell nach guten Zeiten für einen Grafikkarten-Kauf an.
 
Ich weiß noch nicht wo das hinführt: die Wattangaben bei den Herstellern (empfohlenes Netzteil, welches sehr pessimistisch ist, also 50-100W kleines Netzteil geht immer) sowie bei Testern wieviel die GPU tatsächlich zieht reicht doch als Anhaltspunkt. Zudem hast du doch schon alles gut zusammengefasst.

Was ist die Zielauflösung, Detailierungsgrad und Ziel-FPS? Mit diesen Angaben könnte man eher ein Tipp eines möglichen Upgrades geben.

Ich z.B. hatte mir mal in Excel für alle Komponenten mit Stromverbrauch zusammengezählt. Wenn dann noch Luft nach oben ist (beispielsweise nur 80% in Benutzung) dann wird es schon passen.

Persönlich würde ich für dein Vorhaben ein 750W Netzteil nehmen. Der Prozessor hat ja auch schon 105W TDP.
 
Zuletzt bearbeitet:
Energiemessgerät hinter den Rechner. (Sollte eigentlich in jedem Haushalt vorhanden sein).
Deine Graka hat was für ein Bios? 300W? https://www.techpowerup.com/vgabios/215173/asus-rtx2080super-8192-190628
Eine 3080 hat was für ein Bios? 370W? https://www.techpowerup.com/vgabios/231658/nvidia-rtx3080-10240-210304
Und schon kannst Du Dir die Frage relativ leicht selbst beantworten^^ 70W Unterschied. Und das vergleichst Du mit dem Ist-Zustand, den Dein Energiemessgerät anzeigt.

Was spricht gegen ausprobieren? Oder möchtest Du "auf verdacht" Geld loswerden?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Willmehr und amorosa
Defragger schrieb:
Habe mich nie mit den TDP-Werten auseinander gesetzt
die sind auch nur bedingt zielführend da partnerkarten (deutlich) mehr schlucken können. und dann gibt es noch lastspitzen.

du würdest dir die graka doch so oder so kaufen? dann einfach ausprobieren, schlimmstenfalls geht die kiste unter last aus, dann kannst dir immer noch ein stärkeres NT kaufen. unbedingt darauf achten die karte an 12V3 und 12V4 anzuschließen!

Habe schon gehört, dass die 4000er-Serie noch mehr Strom frisst, also wäre dann statt 750W eigentlich fürs in die Zukunft schauen schon ein 850W Netzteil sinnvoll, oder?
dann werden die karten mit ATX3.0 eh neu gemischt.

ATX 3.0 & ATX12VO 2.0: Neue Netzteil-Standards mit 600-Watt-Stecker für GPUs

ansonsten würde ich für ne 4080 mit mutmaßlich über 400W verbrauch bei nem noch aktuellen NT doch eher zu 1000W greifen.
 
  • Gefällt mir
Reaktionen: CB.R
Bei mir hat die 6900XT trotz UV in Verbindung mit einem 5600X auf B450 Chipsatz mein Dark Power Pro 11 mit 650W in die Knie gezwungen.

Lief eigentlich immer sehr gut, aber es gab eine Szene (irgendein "Boss" in Cyberpunk 2077) da ist mir reproduzierbar das Netzteil in die OCP gelaufen (Rechner ging aus und ließ sich erst nach einigen Sekunden Wartezeit wieder einschalten)

Nach dem Wechsel auf ein Cooler Master CM White 750W (temporär) bzw ein Fractal Design ION Gold mit 850 Watt, konnte ich diesen Boss dann spielen 😁.

Ergo, ich würde die Empfehlung in diesem Fall ernst nehmen, sowohl bei der 6900XT aber ganz speziell bei der 3080 und unter 750 Watt nicht mehr starten, eher 850....

Vom absoluten Verbrauch der Komponenten darfst du dich nicht mehr blenden lassen, das "Spiken" und "Race to the Idle and back" was sich seit RDNA 2 und Ampere etabliert hat, stresst die Netzteile enorm, für Dauerlast würde ein 650er wahrscheinlich ausreichen, für die Phase des "Hochtaktens" via Turbo sind aber gewisse Reserven zu empfehlen
 
  • Gefällt mir
Reaktionen: CB.R
Wenn du dich etwas intensiver mit der Thematik auseinandersetzen willst TE, dann guck unter www.igorslab.de Rubrik Netzteile bzw. Graphikkarten die Blogs an, oder die entsprechenden Videos auf YT, der erklärt das exzellent und kann das auch meßtechnisch belegen, das mit den Lastspitzen und so weiter.

Aber wie schon geschrieben wurde TPD ist keine verlässliche Angabe für die Netzteilauslegung, hängt auch vom Prozessor ab und auch von den "Reserven" des NTs und tw. spielen sogar die GK Treiber mit rein.

Also lieber ein paar Watt zuviel und von nen guten Hersteller, dann lauft auch nach ein paar Monaten oder evtl. Jahren das NT trotz Alterung immer noch stabil und zuverlässig.

Wobei die neuen Anschlußsstecker für die 4000er Nvidias bzw. für die 7000er AMD, sprich ATX 3 stehen schon in den Startlöchern, bzw. sind tw. in den neusten/letzten Ausbaustufen der jetzigen Generation bereits vorhanden.
 
Die Entwicklung geht hier leider in die falsche Richtung. Etwas mehr ist okay, aber es ist leider eine sehr extreme Entwicklung.
 
Im Millisekundenbereich oder darunter werden die zukünftigen Karten, die schon in den Startlöchern stehen, die 1000 Watt Grenze definitiv weit überschreiten, laut Igor soll dies in den kommenden Generationen der NTs berücksichtigt werden (ATX 3) und angeblich, da die NTs dies dann abkönnen, wird die TPD wieder als Berechnungsgrundlage reichen, wir werden sehen.

Dies alles ist dem gewünschten Verhalten der GK allerdings schon entsprechend, einerseits sollen die im Idle bestenfalls 10-20 Watt ziehen, andererseits in 4k Auflösung mit entsprechend hohen Einstellungen möglichst alle jetzigen und die kommenden AAA Titel mit mindestens 60fps, gerne mehr, wiedergeben können.

Das ganze muss ja auch gekühlt werden, möglichst leise, und trotzdem sollen die Karten die hohe Leistung möglich lange bieten können, ohne thermisch vedingt zu drosseln, technisch ist das momentan halt nur so machbar, und ich glaube nicht, daß sich das in den nächsten Jahren großartig ändern wird.

Der Markt ist zudem völlig kaputt, wg. Kryptominig, die Preise schwindelerregend hoch, die Verfügbarkeiten kaum gegeben, das wird m.E.n. viele viele Monate bzw. noch mindestens 1 Jahr brauchen um wieder "normal" zu werden.

Intel ist mit der Alchemist Architektur raus aus dem Rennen, das wird preis- und leistungstechnisch kein Killer werden, d.h. für die Roten und Grünen bleibts bei der jetzigen Politik, PS5 kommt dank zu geringer Produktionszahlen auch nicht aus dem Quark, es ist für den Gamer, der gerne ne adäquate GK zu nem vernünftigen Preis hätte schwer wie nie, obwohl es im letzten halben Jahr schon besser wurde

Wir können alle nur auf bessere Zeiten und ein dickes Portmonee hoffen.
 
Zurück
Oben