[Sammelthread] Wie viel Watt benötigt mein System? Ist mein Netzteil stark genug?

Erfreulich dass sich angeblich noch eine Karte in die Gegend " R9 390x" " 1080Ti" "Vega 64" gesellen soll.
Kann dir nur sagen kann mein DPP 10 650 Watt mit einem i7 5820K OC + R9 390 gut klar kommt, ich behaupte das Passt auch mit einer RTX 2080Ti. Ich denke einen Versuch ist es auf jeden Fall wert, zumal deine CPU wohl sparsamer ist.
 
feidl74 schrieb:
was hat tdp mit Stromverbrauch zu tun?
tdp=wärmeverlustleistung
Haben die von der Grafikkarte berechneten Daten respektive die elektrischen Signale an den Displayausgängen einen signifikanten Energiegehalt? Bin mir gerade nicht 100%ig sicher, aber ich glaube das die aufgenommene elektrische Energie nahezu komplett in thermische Energie umgewandelt wird (Energieerhaltungssatz).
 
  • Gefällt mir
Reaktionen: Valeria
JackTheRippchen schrieb:
Haben die von der Grafikkarte berechneten Daten respektive die elektrischen Signale an den Displayausgängen einen signifikanten Energiegehalt? Bin mir gerade nicht 100%ig sicher, aber ich glaube das die aufgenommene elektrische Energie nahezu komplett in thermische Energie umgewandelt wird (Energieerhaltungssatz).
seltsam eine 1070 GTX hat 150 watt tdp laut nvidia, verbraucht aber bei mir z.b. bis zu 220 watt Strom. und nochmals die frage wärmeverlustleistung hat was mit dem Stromverbrauch zu tun? siehe auch cpu tdp angabe;)
 
Die TDP ist nunmal bei was anderem angegeben. Setzt du einen Kühler für 65w TDP auf einen i7 8700 (65w TDP) taktet er niedriger als mit einem anderen Kühler. Da kommt dein Mehrverbrauch her.
feidl74 schrieb:
nochmals die frage wärmeverlustleistung hat was mit dem Stromverbrauch zu tun?
Also viel?
 
Natürlich wird 100% (Lüfter, LEDs und Spulenfiepengeräusche :D abgezogen ) des Stroms in Wärme umgewandelt, was denn sonst?
Das Problem ist halt, dass die TDP-Angabe "Blödsinn" ist.
 
  • Gefällt mir
Reaktionen: usb2_2
@feidl74 Wie hast du die Leistungsaufnahme (Watt => Leistung, Ampere => Strom) denn gemessen?
 
Der Rest meines Systems besteht stand heute aus einem Ryzen 1700x (Die ryzens zu übertakten ist totaler Käse), 32 GB Ram, 1 SSD 1 TB, 2 HDD 1TB und 750 GB (meistens deaktiviert), 3 Lüftern. Bequiet berechnet aktuell ca. 350 Watt ohne OC. Sollte die 2080 TI wirklich soviel mehr brauchen, dann ist die Leistung/Watt ja grottenschlecht... 35% Mehrleistung zur TI werden ja vermutet (also etwa Titan V Leistung, wie erwartet. Weniger Shader, dafür mehr Takt...). PS. für eine Titan V reicht mein NT, da spuckt der Rechner 470 Watt aus (mit Übertaktung), was bedeutet 80 Watt Reserve sind noch da

Bin Persönlich kein Freund von Überdimensionierten NT, da der Energieverlust im Desktop-Modus dann enorm ist. Habe damals schon über 100 Watt+ unter Last mit berücksichtigt, sodass ich alle Möglichkeiten haben sollte... gerade bei einem NT der gehobenen Klasse. Das ein neuer Chip 650 Watt voraussetzt, ist schon ein starkes Stück. Der Einwand mit den "China-Böller NT" würde einiges erklären, aber warum sollte Nvidia so was bei einem Highend-Chip tun? Wer kauft eine GK für 1300€ (oder erwägt das) und hat nebenbei ein Billignetzteil für z.B. 40€?
Ergänzung ()

the_ButcheR schrieb:
Wahllos eine 1080 Ti auf Alternate gesucht: https://www.alternate.de/GIGABYTE/G...Grafikkarte/html/product/1344800?event=search
"benötigte Netzteilleistung min. 600 W"

Oder eine Vega 64: https://www.alternate.de/GIGABYTE/R...Grafikkarte/html/product/1408349?event=search
"benötigte Netzteilleistung min. 750 W" :freak:

Diese Angaben beziehen sich nicht auf die Grafikkarte.
Wer weiß was für ein Schrottnetzteil irgendwer verwendet und wie sein restliches System aussieht. Daher einfach mal ein viel zu großes Netzteil als "benötigt" deklarieren. Das ist gängige Praxis.

Dein 550W Dark Power Pro 11 wird locker reichen, schau dir (wenn es die Karte dann gibt) Tests zum realen Verbrauch an.


MfG
Mit ner Vega 64, komme ich auf 520 Watt ( mit Übertaktung des Rechners). Krass wie überdimensioniert die Herstellerangaben sind... Wenn die Neue Generation durstiger ist als Vega, wäre das ja ein dicker Bock von Nvidia
Ergänzung ()

Danke schonmal für die vielen Meinungen, genaueres werde ich ja bald in offiziellen Tests erfahren. 1300€ ist sowieso eine unverschämt hohe UVP, mal sehen wie lange es dauert bis die sich um 900-1000 einpendelt. Mit Monitor (HDR wäre schon was feines) wäre das ja dann jenseits von gut und böse... Wo sind die Zeiten geblieben als High-End GPUs etwa 500€ gekostet haben:heul: mit dem Display bin ich bei etwa 2,5K, kranker Kommerz.
 
Zuletzt bearbeitet:
JackTheRippchen schrieb:
@feidl74 Wie hast du die Leistungsaufnahme (Watt => Leistung, Ampere => Strom) denn gemessen?

dafür gibt's Tools (hwinfo) und auslesegeräte. z.b. Strommessgerät extern oder intern...tdp hat mit dem tatsächlichen Stromverbrauch nichts zu tun. nochmal TDP=wärmeverlustleistung nicht tatsächliche stromaufnahme. ist bei CPUs nicht anderst, da sagt die TDP nichts über die tatsächliche leistungsaufnahme in watt aus. es heist nur das gerät x 150 watt(z.b. Geforce1070 GTX) maximaler Energie als wärme abführt, nicht mehr nicht weniger
 
feidl74 schrieb:
seltsam eine 1070 GTX hat 150 watt tdp laut nvidia, verbraucht aber bei mir z.b. bis zu 220 watt Strom.
die ref1070 hat ein PT von 150W (was ein zufall, identisch zur TDP). diverse partnerkarten haben teils deutlich höhere PTs.
 
Zuletzt bearbeitet:
Deathangel008 schrieb:
die ref1070 hat ein PT von 150W (was ein zufall, identisch zur TDP). diverse partnerkarten haben teils deutlich höhere PTs.
die 150 watt gellten für standarttakt. die 1070 kann und darf auch mehr ziehen vorallem weil meistens auch partnerkarten von nvidia übertaktet sind. ändert aber nichts daran das TDP(ThermalPowerDesign)was anderes wie die leistungsaufnahme in watt ist. TDP heist nur, das die komponente bzw deren Kühlung, dauerhaft die Wärmeenergie (in watt) abführt. hat aber nochmals mit der aufgenommenen elektrischen leistung nichts zu tun^^, da die meist drüber liegt.
 
Zuletzt bearbeitet:
@feidl74:
150W sind das PT der FE. nicht mehr und nicht weniger. Nvidia spricht btw von "Graphics Card Power" und nicht von TDP. bei den boardpartnern steht auch nichts von TDP, sondern (wenn da denn was dazu steht) von "Graphics Card Power" oder "Power Consumption", wobei da manche das refPT und manche das tatsächliche PT der jeweiligen karte angeben.
 
Hallo, hab das "Seasonic S12II-380 380W ATX 2.2"-Netzteil und möchte meine Grafikkarte tauschen/aufrüsten! System besteht aus i7 3770, AsRock H67M-IT/HT, 2x 4GB DDR3, 1x SSD, 1xHDD, 1x DVD-RW, 2x 120mm Fan, aktuell GTX960 4GB - soll aber gegen 1060, GTX 980, 1070 oder RX 580 getauscht werden! Möchte das Netzteil nicht unbedingt in die Tonne treten wenn es nicht sein muss ;)
Ist mein Netzteil stark genug?
Vielen Dank
 
Nicht geeignet für eine moderen Grafikkarte a la GTX 1070, RX580 ..
Zudem ist es einfach alt und auch von der Leistung her nicht zu empfehlen.
Da sollte mal was aktuelles, neues her.
 
@Desmopatrick:
das Pure Power 10-CM 500W ist mMn zu teuer für das was es bietet. für den gleichen preis kriegt man auch ein besseres BitFenix Formula Gold 450W.
 
Bei Deiner Hardware hättest Du bei dem Bitfenix höchstens ein Kabel überzählig gehabt, je nach Verlegungsart wären sogar alle nötig. ;) Bei dem pp10 lässt Du dann auch nur ein Kabel im Karton... Nicht jede Eigenschaft ist auch immer sinnvoll.
 
Ohne Frage, aber der Reflex "modular ist gleich besser" gehört hinterfragt, insbesondere dann, wenn es tendenziell bessere Geräte für den Preis gibt.
 
  • Gefällt mir
Reaktionen: Deathangel008
Zurück
Oben