Angabe zur Leistungsnaufnahme von Grafikkarten

gwuerzer

Lieutenant
Registriert
Juli 2007
Beiträge
680
Was mich bei allen Tests und Berichten immer etwas irritiert, ist die "zweistufige" Darstellung der Leistungsaufnahme von Grafikkarten: angegeben wird nur "Leistungsaufnahme im Leerlauf" und "Leistungsaufnahme unter Last". Gerade letzterer Punkt ist mir jedoch nicht klar: hat eine Grafikkarte für ein 3D-Spiel immer mehr oder weniger den gleich hohen Stromverbrauch? Und wie sieht der Vergleich in der Leistungsaufnahme aus zwischen einer High-End Karte, die evtl. nur zur Hälfte ausgelastet wird und einer Mainstreamkarte, die bei gleichen Einstellungen am Anschlag läuft. Ich bin der Meinung, solche Vergleiche fehlen in Tests und Kaufberatungen und lassen Leser zurück, die glauben, High-End Karte = automatisch höhere Leistungsaufnahme, egal bei welchen Einstellungen.
 
eine grafikkarte sollte im idealfall immer 80-100% ausgelastet sein ansonsten ist die cpu zu schwach oder die einstellungen zu niedrig.
 
ich mag CB schrieb:
eine grafikkarte sollte im idealfall immer 80-100% ausgelastet sein ansonsten ist die cpu zu schwach oder die einstellungen zu niedrig.

Entschuldige, aber wenn ich z.B. Minecraft oder Plants vs. Zombies spiele, werde ich die 80% schwer erreichen.
 
Nein, der Verbrauch ist dann unterschiedlich hoch.
Bei den Tests wird in der Regel von einer sehr hohen Beanspruchung ausgegangen. Je nach Spiel variiert der Verbrauch natürlich und kann wesentlich geringer ausfallen.
 
Marc53844 schrieb:
Nein, der Verbrauch ist dann unterschiedlich hoch.
Bei den Tests wird in der Regel von einer sehr hohen Beanspruchung ausgegangen. Je nach Spiel variiert der Verbrauch natürlich und kann wesentlich geringer ausfallen.

Gibt es Hinweise, ob eine Maintstram-Karte bei 100% Auslastung bei gleichen Einstellungen und FPS weniger oder mehr verbraucht als eine High-End Karte (bei der ich die FPS auf den selben Wert herunterregle)?
Bzw. ist es so, dass eine Grafikkarte in Spielen immer annähernd auf Vollast läuft, weil sie halt dann 200 FPS ausgibt (sofern ich die FPS nicht limitiere)?
 
Zuletzt bearbeitet:
Wahrscheinlich braucht die high end Karte mehr. Fahr mal mit nem Ferrari normal in der Stadt da wirst du auch mehr als 5 Liter auf 100 km brauchen auch wenn ein Golf damit aus konnt

Edit: wegen deiner frage von wegen volllast und 200 fps. Nvidia hat mit den 600er Karten ein vsync eingeführt dass Taktraten so ändert dass immer 60 fps erreicht werden. Senkt Lautstärke und spart Strom
 
Zuletzt bearbeitet:
Gandalf2210 schrieb:
Wahrscheinlich braucht die high end Karte mehr. Fahr mal mit nem Ferrari normal in der Stadt da wirst du auch mehr als 5 Liter auf 100 km brauchen auch wenn ein Golf damit aus konnt

Möglich. Halte das aber für eine wichtige Frage, die soweit ich weiß nie nur sehr wenig behandelt wird.
 
ich denke der Vergleich hinkt weil IT deutlich besser skaliert. Eine GTX680 mit heruntergeregelten FPS verbraucht nicht deutlich mehr als eine 650 mit den selben FPS. Liegt natürlich auch daran mit welchem Takt sie dann fahren.

Eine voll ausgelastete Highend verbraucht natürlich auch mehr als eine vollausgelastete performance weil sie einfach mehr leistet.
Aber den Test dazu wäre schonmal schön. Wobei ich behaupten würde(ohne das auf Fakten zu stützen), dass es sich nicht viel nimmt.
Moderne Grakas sind ja sowieso die reinsten Stromsparer
 
Vivster schrieb:
Aber den Test dazu wäre schonmal schön. Wobei ich behaupten würde(ohne das auf Fakten zu stützen), dass es sich nicht viel nimmt.
Moderne Grakas sind ja sowieso die reinsten Stromsparer

Bin auch der Meinung, dass diese Dinge mehr Beachtung verdienen würde. Moderne Grakas sind immer noch die weitaus größten Stromfresser im PC.
 
@ vivister schau dir mal die idle Werte von high und low end Karten an. Die leisten das selbe aber die high end Karte braucht deutlich mehr Strom. Ob sich das bei steigender Belastung ändert weiß ich aber auch nicht.


Ok ich bin ehrlich, ich habe keine Ahnung xD

Obwohl einen Anhaltspunkt hätte ich noch Google doch einfach mal nach der Performance pro Watt der Karten, zumindest ein Anhaltspunkt.
 
Zuletzt bearbeitet:
Gandalf2210 schrieb:
@ vivister schau dir mal die idle Werte von high und low end Karten an. Die leisten das selbe aber die high end Karte braucht deutlich mehr Strom. Ob sich das bei steigender Belastung ändert weiß ich aber auch nicht.

Bei Leerlauf ist der Stromverbrauch aber ziemlich gleich, bzw. unterscheidet sich vielleicht um 2-3 Watt. Insofern hat Vivster sicher recht. Spannend wird`s, wenn ich ein 3D Spiel starte, was dann passiert.
Ergänzung ()

Hat sowas viell. mal wer mit einem Stromverbrauchs-Messgerät selbst ausgetestet? Wäre gespannt auf Berichte.
 
Bei älteren GraKas gab es früher 3 Stuffen 2D, Lowpower 3D und 3D, bei 2D (idle) wird deutlich die Spannung und der Takt reduziert, in diesem Betriebsbereich ist die Graka auch sparsam. Wenn aber eine Anwendung (Spiel) gestartet wird dann steigt die Spannung, Takt und damit auch der Verbrauch kräftig an.
 
Gandalf2210 schrieb:
Obwohl einen Anhaltspunkt hätte ich noch Google doch einfach mal nach der Performance pro Watt der Karten, zumindest ein Anhaltspunkt.

Die Performance pro Watt ist immer auf Maximallast bezogen, gerade darum geht`s hier ja eben nicht.
Ergänzung ()

Haniball1979 schrieb:
Bei älteren GraKas gab es früher 3 Stuffen 2D, Lowpower 3D und 3D, bei 2D (idle) wird deutlich die Spannung und der Takt reduziert, in diesem Betriebsbereich ist die Graka auch sparsam. Wenn aber eine Anwendung (Spiel) gestartet wird dann steigt die Spannung, Takt und damit auch der Verbrauch kräftig an.

Wär echt auf die Beantwortung dieser Frage gespannt: braucht eine GTX680 permanent um die 200 Watt, wenn ich nur irgend ein 3D Spiel starte?
 
Zurück
Oben