R9 380

Zum Punkt Stromverbrauch: Im Idle sind die 380/380X genauso sparsam wie die GTX 960/970. Nur unter Last ist eine Differenz spürbar. Nun ist die Frage, wie lange läuft dein PC unter Volllast? Vermutlich nicht so oft oder bist du ein Dauerzocker bzw. schaltest den PC nur zum Zocken ein? Beim "Durchschnittsanwender" ist der Maximalverbrauch eher unrelevant. Viel wichtiger ist der Idle-/Office-Verbrauch. Meist braucht es Jahre um den erhöhten Einkaufspreis der NVIDIA Karten bei gleicher Leistungsfähigkeit im Vergleich zu AMD Karten zu rechtfertigen.
 
Also bei cb ist der Unterschied im Spielebetrieb 100 Watt - siehe hier <Test Last in Ryse: Son of Rome>. Es wird der Gesamtverbrauch gemessen und es ist somit auch der Verbrauch der CPU mit dabei. Evtl. belasten AMD-Karten die CPU etwas mehr.

Ich weiß, dass die TDP nicht die Verlustleistung ist, aber von der Tendenz könnte es hinkommen: die TDP liegt bei der GTX um 120 Watt und bei der 380 bei 190 Watt - also 70W Differenz.

Eigentlich hatte ich eher einen Unterschied von 40-50W im Kopf, aber evtl. ist er ja doch höher. Ich schätze mal, dass die 380er ca. 50% mehr verbraucht.

Fazit: die 380er verbraucht um einiges mehr im Spielebetrieb.

@Gervincent
Deswegen habe ich auch vom Spielebetrieb gesprochen. Die Nutzung muss jeder selbst wissen.
Beim Multimonitorbetrieb ist AMD auch im Windowsbetrieb klar im Nachteil: 40W Differenz!!!
 
Zuletzt bearbeitet:
@wahli: Ich wollte das mit der Leistungsaufnahme unter LAST nur noch einmal hervorheben. ;)
Im Übrigen beziehen sich die TDP-Angaben von 120W bzw. 190W auf die Referenzmodelle der beiden Karten (GTX 960 / R9 380). Insbesondere bei der den Custom-Varianten der GTX 960 dürfte die TDP deutlich höher liegen.
 
wahli schrieb:
Also bei cb ist der Unterschied im Spielebetrieb 100 Watt - siehe hier <Test Last in Ryse: Son of Rome>. Es wird der Gesamtverbrauch gemessen und es ist somit auch der Verbrauch der CPU mit dabei. Evtl. belasten AMD-Karten die CPU etwas mehr.

Dass AMD die CPU´s mehrbelasten, ist eine unbewiesene Behauptung und wurde bei Toms Hardware widerlegt, dort wurde gemessen, dass Nvidia GPU´s eher die CPU mehr Belasten, somit es in KOmbination zu mehr Strombedarf kommt.
Computerbase hat keine geeigneten Messinstrumente um den Strombedarf sicher zu messen.
Eine 380 verbraucht isoliert etwa 50 bis 70 Watt mehr, ist 10% schneller und bietet zukunftsicherere Directx12 Unterstützung, sowie ein doppelt so großes Speichertinterface.
Wenn Nvidia oder AMD egal ist, wäre das meine Karte der Wahl.

Bei Customlösungen der GTX 960 ( übertaktet, um an die 380 heranzukommen oder schneller zu sein) ist übrigens der Emmissionsvorteil nicht mehr so groß, eher schon völlig unbedeutend.

Deswegen habe ich auch vom Spielebetrieb gesprochen. Die Nutzung muss jeder selbst wissen.
Beim Multimonitorbetrieb ist AMD auch im Windowsbetrieb klar im Nachteil: 40W Differenz!!!

Auch das ist nicht korrekt.
Das ist abhängig davon welche Monitore man anschließt. Sind es von der Hertz Zahl und der Auflösung dieselben, dann erhöht sich der Strombedarf auch bei AMD nicht merklich als bei einem genutzten Monitor.
Dies hat HT4U nachgewiesen.
 
Also 50 bis 70 Watt mehr ist aus meiner Sicht enorm. Dann liege ich richtig, dass die 380 ca 50% über der 960 liegt.
Und das bei nur 5% mehr Leistung.

Der TE kann jetzt selbst entscheiden. Für mich wäre das ein Ko-Kriterium.
 
Enorm haha das ist ja läppich. Viele Teile im haushalt verbrauchen viel mehr. da sind 50-70 watt ein Witz gegen.
 
Jeder wie er meint. Für mich wären vielleicht 20 Watt Mehrverbrauch erträglich.

Ich wollte nur eine Alternative aufzeigen, die in etwa ebenbürtig ist und das ist die GTX 960 auf jeden Fall. Aber jeder hat so seine Prioritäten. Ich würde mich für die 960 entscheiden, andere für die 380. Konkurrenz belebt den Markt!
 
Zuletzt bearbeitet:
Allgemein etwas lächerlich, dass sich Leute wegen 10€ mehr an Stromkosten auf das gesamte Jahr gerechnet einen abbrechen. Ist bei vielen 1/5 des monatlichen Handyvertrags... Aber hauptsache ein Fass aufgemacht.

Würde die 380 auch jederzeit vorziehen! :)
 
Wenn man eine 960 übertaktet damit sie überhaupt an die 380 dran kommt, dann wars das mit der Effizienz ;)
-> Auf die 380X warten!

mfg,
Max
 
Die 960 liegt 5% hinter einer 380. Den Unterschied merkt niemand. Warum soll man dann übertakten?
Und wenn man sich eine OC-Version kauft, dann kann man selbst untertakten, um den Verbrauch zu senken.

Ich breche mir auch nicht einen ab wegen 10€ im Jahr. Das ist nur ein Nebeneffekt, den man gerne mit nimmt.
Mir geht es eher um kühlere Hardware. Die GPU ist die Komponente mit dem größten Heizpotential, also achte ich auf den Verbrauch. Aber das ist meine persönliche Priorisierung. Ihr könnte es ja anders machen.
 
Zuletzt bearbeitet:
1. Der Unterschied bzgl. Verbrauch ist angesichts des Leistungsplus minimal
2. Verbrauch ist beim zocken nicht wichtig, so lange Punkt 3 zutrifft
3. Die 380 überhitzt nicht. Keines der Partnermodelle
4. Die 380 bietet voraussichtlich aufgrund der CGN Architektur wesentlich bessere DX12 Performance, was in der oberen Mittelklasse ausschlaggebend sein wird

Ein Mehrverbrauch von 40W .. das ist eine Glühbirne, die man beim Zocken im Zimmer an macht. Da wir eh alle in der Dunkelheit zocken dürfen wir anschließend auch ruhigen Gewissens zu Bett gehen.

mfg,
Max
 
Zuletzt bearbeitet:
Wenn ich schon lese "Leistungsplus" (5% Mehrleistung, die einem sofort auffallen), "überhitzt nicht" (wo wurde das behauptet?), usw. dann führt das zu nichts. Bin raus.
 
wahli schrieb:
Wenn ich schon lese "Leistungsplus" (5% Mehrleistung, die einem sofort auffallen), "überhitzt nicht" (wo wurde das behauptet?), usw. dann führt das zu nichts. Bin raus.

Du hast geschrieben dass es dir darum ging. Zitat wie folgt:

wahli schrieb:
Mir geht es eher um kühlere Hardware. Die GPU ist die Komponente mit dem größten Heizpotential, also achte ich auf den Verbrauch. Aber das ist meine persönliche Priorisierung. Ihr könnte es ja anders machen.

mfg,
Max
 
Weniger Verbrauch = weniger Abwärme = kühlere Hardware. Das hat nichts mit Überhitzung zu tun.
Außerdem heizen Rechner den Raum auf - im Winter super, im Sommer eher nicht.

Wie gesagt: meine Prio ist der Verbrauch.
 
Zuletzt bearbeitet:
wahli schrieb:
Weniger Verbrauch = weniger Abwärme = kühlere Hardware. Das hat nichts mit Überhitzung zu tun.
Außerdem heizen Rechner den Raum auf - im Winter super, im Sommer eher nicht.

Wie gesagt: meine Prio ist der Verbrauch.

Der Verbrauch ist stark relativ. CB hat nicht das nötige Messwerkzeug um vernünftige Ergebnisse dokumentieren zu können, die messen nur das Gesamtsystem - und auch nicht in Relation mit der erbrachten Leistung, sondern Blanko.

Dass die 380 mehr verbraucht ist kein Geheimnis, aber sie ist eben auch schneller. Alles andere wäre ein Widerspruch in sich. http://www.hardwareluxx.de/index.ph...deon-r9-390x-390-und-380-im-test.html?start=6

mfg,
Max
 
Zuletzt bearbeitet:
Ich hatte eine GTX 750 getestet, aber die war mir doch zu langsam. Jetzt warte ich auf Pascal im nächsten Jahr. Meine reicht mir gerade so.
 
Dein v2 Verbraucht auch mehr als der neue v3 oder gar ein Skylake i7. Was ist damit? ;)

Klar, weniger Verbrauch ist schon nicht schlecht, aber die 50w (wenn überhaupt) sind 1 Lampe die Brennt (oder nicht brennt) und meine MSI ist Super leise, obwohl es seine 380 mit "viel" Abwärme ist
 
Achtung jetzt komm ich um die ecke
Niedriger StromVerbrauch erhöht ni9cht Die Gaming leistung :D

heißt es geht um gaming Maximal heißt 5% haben oder nicht haben heißt stromverbrauch nicht relevant fürs gaming nur für die eigene Stromrechnung
 
Zuletzt bearbeitet:
Zurück
Oben