RX 580 extra Watts

Registriert
Mai 2017
Beiträge
1
Hallo,

stehe zurzeit vor der Wahl zwischen der GTX 1060 (EVGA SC 6Gb) und RX 580 (MSI Gaming X 8Gb).
Ich denke zwar, dass man mit beiden nicht viel Falsch machen kann, jedoch bevorzuge ich eher die RX 580 aufgrund der minimalen mehr Leistung(Low-Level API´s), 8GB Vram und da ich GeforceExperience nicht so gerne mag. ^^
Preislich wäre die 1060 im Moment rund 25€ günstiger, jeodch würde ich mir die Graka erst in ein paar Monaten kaufen.
Da ich mir irgendwann mal auch einen 144Hz Monitor kaufen möchte, wäre FreeSync ein weiterer Vorteil.

Was mich nur ein bisschen stört ist die Power Consumption der RX 580.
80 Watt mehr scheinen mir relativ viel, jedoch weiß ich nicht wie viele mehr Kosten diese extra Watt verursachen würden. (Sehe vor die Graka 3-4 Jahre zu behalten)
Das ist der einzige Faktor, der mich vom definitiven Kauf abhält. :/

Vielleicht kann mir ja jemand bei meiner Unsicherheit helfen. ^^
Grüße
 
komm wieder wenn die karte gekauft werden soll. ein "paar monate" vorher zu fragen ist einfach nur sinnlos.

niemand zwingt dich GFE zu installieren. was die kosten durch den höheren verbrauch angeht: überlege wie viel du zockst, rechne aus wie viele kWh das ausmacht und rechne dann aus was das in € für einen unterschied macht.
 
Warum fragst du jetzt und nicht in paar Monaten, wenn du kaufen willst?
 
Im Jahr ca 28€ mehr Stromkosten wenn du JEDEN TAG 4H zockst. ~ 14€ pro Jahr bei täglich 2H usw.. also völlig Hupe.
 
einfach ausrechnen

kw/h = 25 cent

80w/h = 12,5h *4 = 50h = 1€
 
Das kannst du dir selber ganz schnell ausrechnen was das ausmacht- siehe oben.
Wenn du soviel Geld für eine GPU ausgibst macht der Strom nix aus die paar €
 
Zunächst einmal, ich persönlich würde auch die RX 580 bevorzugen. Dieses Modell hier:
https://www.heise.de/preisvergleich/sapphire-nitro-radeon-rx-580-8gd5-11265-01-20g-a1610154.html

Die 580 verbraucht etwas mehr Strom, ob es jetzt wirklich 80W wage ich zu bezweifeln. Die 580er verbrauchen etwa soviel wie stark übertaktete 480er ;)
OC 1060er liegen zw. 130-150W
OC 480er liegen zw. 180-210W

Die Karten laufen ja nicht wie z. B. im CB Benchmark permanent bei 100% in vollen Details@4K, weil dann nur 20fps rauskommen. Insofern ist das Szenario etwas unrealistisch und zeigt gewissermaßen nur die "Höchstgrenze" an.
Die RX 580er karten lassen sich gut undervolten, wie auch schon die 480er. Damit kann ein gutes Stück Effizienz rausgeholt werden, so dass du am Ende ohne wesentliche Leistungseinbuße bei nur 150W landen kannst. Und diese 20-30W im Vergleich zu einer 1060 sind dann auch nicht mehr der Rede wert (kostet etwa 6€ mehr im Jahr, wenn du JEDEN Tag 2 Std. spielst)
 
Zuletzt bearbeitet:
Würde trotz des Mehrverbrauchs trotzdem definitiv die 580 nehmen. Zum Einen kann man nie genug Speicher haben, gerade wenn man sich die zum Teil miesen Ports der letzten Zeit ansieht, und zum Anderen sparst du das beim Monitorkauf mit FreeSync statt G-Sync um ein Vielfaches wieder ein.
 
Davon mal abgesehen muss man in der Heizperiode nur den Unterschied zwischen 80 W aus einer "Elektroheizung" (Abwärme von elektrischen Geräten, hier die Grafikkarte) und der Zentralheizung berechnen, so dass die 80 W nur im Sommer voll zählen (zzgl. 1/3 wenn eine Klimaanlage läuft).
Im Winter muss die Heizung im Zimmer 80 W weniger heizen...

Dann kommt bei raus, dass der Stromverbrauch der Grafikkarte nahezu irrelevant ist und eigentlich nur ein von Nvidia-Fanboys vorgeschobener Grund ist.
 
Zuletzt bearbeitet:
OneTimeQuestion schrieb:
Da ich mir irgendwann mal auch einen 144Hz Monitor kaufen möchte, wäre FreeSync ein weiterer Vorteil.

derbe schrieb:
Im Jahr ca 28€ mehr Stromkosten wenn du JEDEN TAG 4H zockst. ~ 14€ pro Jahr bei täglich 2H usw.. also völlig Hupe.

Dazu die Frage, wieviel kostet ein GSync Monitor im Schnitt ca mehr als ein FreeSync Monitor ? 100 ?
(Natürlich falls das Feature wirklich benötigt wird)
 
Zurück
Oben