Zukünftige Grafikkatrten weniger stromverbrauch ?

Amiga500

Admiral
Registriert
Dez. 2005
Beiträge
7.264
Hatte jahrelang nichts mehr mit Pcs zutun . da ich am überlegen bin wieder zum PC zu wechseln stellt sich mir auch die frage des stromverbrauchs. 340 watt unter last bei einer 780er TI ist nicht gerade wenig . kann man davon ausgehen das die zukünftigen karten in 1-2jahre weniger leistungsaufnahme benötigen werden ?
 
Nein, in den letzten Jahren hat sich der Verbrauch der High-End Karten immer weiter erhöht.
Es steht dir aber frei auf verbrauchsärmere Midrange Lösungen zu setzen.
 
wenn man in 2 jahren mit einer grafikkarte die leistung wie eine 780 ti abruft wird diese natürlich weniger strom verbrauchen.
das ist aber seit vielen jahren schon der fall.
 
midrange würde aber bedeuten nicht so schnell und das wiederum eventuell details in games runterschrauben.... will nicht hoffen das die leistungsaufnahme in zukunft wirklich weiter steigt.
 
Hiho,

Im Verhältniss tut sich natürlich was, aber absolut hält es sich in Grenzen :)

MfG

Yama
 
Amiga500 schrieb:
midrange würde aber bedeuten nicht so schnell und das wiederum eventuell details in games runterschrauben.... will nicht hoffen das die leistungsaufnahme in zukunft wirklich weiter steigt.

Mehr Leistung wird auch in Zukunft mehr Verbrauch bedeuten, solltest du nur auf High-End Karten setzen wollen.:freak:
 
Eigentlich ist der Verbrauch in den letzten paar Jahren kaum gestiegen.
Die R9 290X verbraucht genausoviel wie die 7970 GHz und die 7970 verbraucht genauso viel wie die 6970.

Bei Nvidia dagegen verbraucht die GTX 680 deutlich weniger als die 480 und die 780 Ti in etwa so viel wie die 580.
 
340W zieht keine (Single)Grafikkarte - es sei denn man hat nen Voltmod und übertaktet extrem.
Die 340W sind aufs Gesamtsystem bezogen.

Aber zur eigentlichen Frage:
Ich könnte mir vorstellen, dass das so sein muss.
Denn: feinere Strukturbauweise (aber halt erst in einigen Jahren) = weniger Fläche zum Wärmeabgeben = Probleme mit der Kühlung
Wenn das DIE nur nen "Haarnadelkopf" groß ist, dann kannste da keine 250W abführen ;)

Da muss man halt die Forschung vorantreiben, wie auch immer das aussehen mag.
 
also der test der 780ti von computerbase bei der leistungsaufnahme mit 340 watt ist also das komplette system? das würde dann ja noch doch noch i.o sein ;)
ich dachte die 340 watt würden sich nur auf die graka unter last beziehen
 
Amiga500 schrieb:
also der test der 780ti von computerbase bei der leistungsaufnahme mit 340 watt ist also das komplette system? das würde dann ja noch doch noch i.o sein ;)

Ist Gesamtsystem, steht auch dabei.
 
Auserdem verbrauchen die Grafikakrten ja nur unter last soviel im idle /desktop sind sie ja sparsamer geworden im Vergleich zu früher.
Wen man überlegt das sie gerade einmal ein ppar watt mehr vrabuchenwie eine interne/apu gpu
 
wenn man jetzt rechnet 340 watt gesamtsystem + 40 watt mit dem monitor kommt man auf 380 watt ist weniger als wenn man sich eine playstation 4 die untet last 140 watt verbratet + 50-60 zoll plasma der ca 300 wat verbraucht
 
Und wenn man nen PC anmacht um beim Kochen Musik zu hören, verbratet man xxW IdlePC + 2000W...

50" Plasma 300W?
Eher so 130W ;)

Auch gilt: Last ungleich Last (wir reden ja von Spielelast, nicht von theoretischer Maximallast)
Da kannst auch schonmal um 100W+ schwanken.
 
Zuletzt bearbeitet:
sicher sind 380 watt ne menge ..aber wenns das gesamtsystem unter last ist ..bei 340 watt nur die graka unter last wo ich dachte , da war ich schon am stöhnen :D


@SaarL
der Pana 50 zoll plasma hat durchschnittlich 286 watt laut panasonic ;) ist schon besser geworden bei plasmas aber der stromverbrauch ist immer noch hoch ;)
 
Und der Dell UltraSharp UP2414Q braucht 100W.

Es gibt immer Monitore die viel brauchen.
Und wenn man nen LCD als TV nimmt ist es auch weniger (bei manchem Modellen auch gleichviel/mehr ;)).

Deswegen ist deine Aussage kein Argument.
Ich kann dir auch XY finden und zeigen, dass selbst nen "300W Plasma+Konsole" weit weniger verbraucht als nen PC...
 
Zuletzt bearbeitet:
Ich finde die Entwicklung des Stromverbrauchs ehrlich gesagt nicht so schlimm. Das liegt aber an der Betrachtungsweise, denn ein niedrigerer Stromverbauch wär selbstverständlich besser! Meine Meinung: Die Meisten schauen immer auf die maximale Leistungsaufnahme - wichtig ist doch aber vor allem die Leistungsaufnahme im Idle. Wenn ich im Idle 5 Watt weniger verbrauche, dann kann ich unter Vollast auch gute 20-30 Watt mehr verbauchen. Mein Grafikkarte ist fast immer im Leerlauf und ich behaupte, dass das für die Mehrheit zutrifft. Sicherlich mag das für den ein oder anderen Schönrechnerei sein, aber die durchschnittliche Leistungsaufnahme verändert sich somit überhaupt nicht.
Bevor mich jemand missversteht nochmal ganz deutlich: weniger ist natürlich immer besser!
 
Zuletzt bearbeitet:
... bei gleicher/besserer Leistung(/Features/Mehrnutzen) ;)
Sollte man noch anmerken.

Bspw:
Titan verbraucht 200W
hypothetische XYZ mit 10 facher Leistung der Titan braucht 201W.

Da ist dann 200W der Titan nicht "besser", obwohl es geringer ist.
(natürlich ist es unabhängig von allen anderen Faktoren absolut gesehen weniger)

Man sollte es also immer in Relation zu anderen (teils subjektiven) Faktoren sehen.
 
Zurück
Oben