Stromsparen mit Frameratenbegrenzung?

Bender86

Lieutenant
Dabei seit
Jan. 2007
Beiträge
688
Nabend miteinander!

Als ich Heute die Grafikeinstellungen von World in Conflict angeguckt habe, ist mir aufgefallen das es dort eine Frameratenbegrenzung gibt. In der Beschreibung steht dann, dass man damit Strom sparen kann.. Nu frag ich mich, macht das eigentlich viel aus? Und wenn das tatsächlich sinnvoll ist, kann man diese Begrenzung dann auch universell einstellen? Also so, dass man einfach bei jedem Spiel maximal 30-40 fps hat? (mehr bemerkt man in der Regel ja eh nicht.)

Da es ja noch keinen Treiber gibt, der den Stromhunger der 8800er ein bisschen dämpft, wäre das doch mal eine Möglichkeit sich selbst zu behelfen oder nicht? (Ich hoffe ja mal sehr stark, dass es früher oder später mal einen Treiber gibt, der den Stromverbrauch insbesondere im Idle absenkt..) Kann einer sagen wie stark sich das prozentual in etwa auswirken würde und wie man sowas generell einstellen könnte? (also mit generell meine ich vom Spiel unabhängig.)
 

ingomc

Ensign
Dabei seit
Feb. 2006
Beiträge
248
irgendwie zweifle ich sehr stark daran, das man damit viel strom sparen kann.
weniger frames heisst weniger leistung, das heisst weniger abwärme, also auch weniger Stromverbrauch, das aber bei so geringen mengen das es keinen sinn macht, dann hab ich lieber 100 fps

jedem Spiel maximal 30-40 fps hat? (mehr bemerkt man in der Regel ja eh nicht.)
schon einmal quake CS(:S) NFS mit 30 fps mit den gleichen spielen 100fps verglichen.
Das ist ein sehr starker unterschied!
Und jeder der meint, mehr als 25 bilder pro sekunde kann unser auge eh nicht erfassen, der sollte sich mal informieren, grundsätzlich ist das richtig... einfach informieren

kleine tipps: PC Games sind interaktiv, 100Hz Bildschirme... :evillol:
 

Thomson1

Lt. Junior Grade
Dabei seit
Dez. 2006
Beiträge
459
auf der stromrechnung wirst du es wahrscheinlich nicht erkennen.
treiberseitig kann man normalerweise recht wenig machen. das einzigste was man machen kann ist
das bios umschreiben, im idle sowohl taktraten als auch spannung niedriger stellen

edit: um mal das mit den frames aufzugreifen. man kann die fernseher frames (die obwohl es ja so wenig sind flüßig erscheint)
nicht mit denen vom computer vergleichen. da steck eine andere technik hinter. so benutzt ein fernseher z.b motion blur was das bild verwischt. es sieht zwar flüßiger aus aber beim pc wäre das nur mit vorsicht zu genießen da es z.b bei ego shootern einfach nur
stören würde (kann auch gut sein aber dann ists kein hardware(monitor) seitiges motion blur sondern durch einen motion blur effekt ingame)
 
Zuletzt bearbeitet:

baFh

Captain
Dabei seit
Mai 2004
Beiträge
3.711
weniger frames -> weniger rechenleistung -> weniger hitze und verlustleistung -> also runter mit den frames für die umwelt. wer noch über 40 FPS zockt ist eine umweltsau!

ob sich das allerdings bemerkbar macht auf der stromrechnung wage ich zu bezweifeln :D
 

kuvaton

Lt. Junior Grade
Dabei seit
Okt. 2006
Beiträge
382
Hm eigentlich ist das ne komische Logik. Wenn jemand ein älteres System hat, aber auch sehr wenig Frames, dann rechnet die Kiste trotzdem auf voller Power. Aber ob das wirklich was bringen soll... am Ende kommen da eh nur 20Watt weniger raus und 24h 7Tage die Woche zockt niemand um da einen Unterschied auf der rechnungzu sehen.
 

theo.juhl

Lt. Commander
Dabei seit
Okt. 2005
Beiträge
1.798
Nur blöd das eine Grafikkarte solange sie sich nicht runtertaktet bei 40Frames und 70Frames ziemlich genau gleich viel verbraucht. Wirklich Strom sparen würde man nur wenn die Grafikkarte beim Spielen dynamisch die "Bereiche" abschaltet die sie nicht benötigt und noch den Takt und die Spannung senkt.
 
N

NeoXpert

Gast
Seit wann benutzen Fernseher denn Motionblur.. also benutzen im Sinne von benutzen wollen.. Klar kann man das nicht mit nem PC Monitor vergleichen, aber wenn dann unter dem Gesichtspunkt, dass die meisten Fernseher mit Halbbildern arbeiten ; )... Bei den guten alten Röhren Monitoren für die PCs hab ich schon bei 75Hz noch richtig Probleme gehabt in Sachen Kopfschmerzen nach 30 Minuten draufgucken ^^... 60Hz noch schlimmer ; ).

Naja.. ich denke auch nicht, dass sich ein framelock so sehr auswirken wird...
 

Smockil

Commander
Dabei seit
Feb. 2004
Beiträge
2.624
Wen man bei einem PKW dort wird auch behauptet das wen man die Klima Anlage aus macht und das Autoradio ausmacht man sprit spart aber das jemand auf die Idee gekommen das die Lichtmaschine sich dennoch weiterdreht ist noch keiner von den Schlaumaiern gekommen (meine damit nicht euch)

Ich will damit sagen wen die Framebegrenzung in der Grafikarte stattfindet wäre es möglich das man damit wirklich Strom spart aber wens nur im Spiel ist nein da ja die Grafik weiter auf voller leistung arbeitet das heruntersetzen des Taktes würde mehr bewirken.
 

AndrewPoison

Admiral
Dabei seit
Jan. 2005
Beiträge
8.228
Die LiMa ist aber in der Regel auch an den laufenden Motor gekoppelt, von daher kann sie sich ruhig weiterdrehen. Sie lädt damit ja die Batterie und versorgt die anderen Verbraucher mit Strom. Das hat nichts mit Energieverschwendung zu tun, im Gegenteil.

Aber der Kompressor der Klimaanlage erhöht den Arbeitswiderstand des Motors (mehr als die LiMa!), dieser muss also mehr leisten. Und das erhöht den Spritverbrauch. Daher: Abschalten wenn nicht gebraucht! Das wäre übertriebenermaßen Ausgedrückt so, als würde man mit gezogener Handbremse fahren wollen. Mit der Lichtmaschine hat das in soweit nichts zu tun, als das sie ein notwendiges "Übel" ist!
 
Zuletzt bearbeitet:

R4nD00m

Ensign
Dabei seit
Okt. 2006
Beiträge
203
Man rechnet, dass ein Auto mit aktiver Klimananlage etwa einen Liter mehr auf 100km verbraucht.
(Wikipedia: Der Mehrverbrauch reicht in der Realität von nicht messbar bis über 5 l/100 km. Wie hoch er letztendlich ist, hängt neben den Betriebsbedingungen von Motorleistung und Bauart des Klimakompressors ab. Neuere Messungen (2006) verschiedener Institute (u. a. ADAC) ergaben Mehrverbräuche von 0,8 – 1,2 l/100 km bei Autobahnfahrten und 2 – 4,5 l/100 km im Stadtverkehr.)

Auch wenn das Auge nur etwa 30 Bilder in der Sekunde wahrnehmen kann, nimmt man trotzdem ein Flimmern bis etwa 75Hz wahr.

Das europäische PAL-TV nutzt 25 Bilder pro Sekunde in Halbbildern.
Die USA nutzen NTSC, 30 fps in Vollbildern.
Die empfundene Qualität ist bei PAL jedoch besser.

Beim Spielen von Strategiespielen wie Civilization 4 empfindet man (die meisten Spieler) ein Spiel etwa ab 30fps, bei Egoshootern etwa 40fps als flüssig.
Es gibt Leute die behaupten, erst ab 60fps flüssig spielen zu können, dies hat aber nichts damit zu tun, dass diese Personen eine doppelt so gute Wahrnehmung haben oder empfindlich sind. Vielmehr stockt das Bild bei schnellen Drehungen, weil Teile der Karte (Map) geladen werden, die sich derzeit nicht im Arbeitsspeicher der Grafikkarte befinden. Die Framerate diesem Moment fällt kurzzeitig ab, was als Stocken wahrgenommen wird.

Begründung:
Nehmen wir an, eine Karte A kann 60fps in dem Spiel darstellen, die Person dreht sich -> 30fps -> kurzzeitiges Ruckeln
Karte B bringt im gleichen Spiel 90fps, die Person dreht sich wieder -> 45fps -> kein Ruckeln.
Und jetzt zum Punkt auf den ich raus will:
Würde man ein Limit setzen, z.B auf 40fps, so würde Karte B das Spiel immer flüssig darstellen, auch bei einer schnellen Drehung, das sie die Daten schnell nachladen kann.
Karte A jedoch, würde die 40fps ebenfalls flüssig darstellen, bei einer Drehung jedoch wieder auf die 30fps zurückfallen.

Das Limit begrenzt also die maximale Anzahl der Frames, die minimale Anzahl der Bilder
bleibt unberührt.

Egal wie viele Frames die Karte im Maximum anzeigt, fällt die minimale Anzahl unter einen bestimmten Wert, so ruckelt das Spiel, weshalb es Sinn macht, ein Limit zu setzen, da es das Spielgefühl nicht beeinflusst!

zum Topic:

Gehen wir von folgender abstrakter Rechnung aus:
Eine Grafikarte braucht 10 Watt, wenn sie nicht gebraucht wird (idle) und 100 Watt unter Vollast. bei halber Leistung würde Sie dann auch nur die Hälfte, also etwa 50-60 Watt verbrauchen.
Natürlich ist die Rechnung nicht auf die Praxis nicht exakt übertragbar, aber wenn das, was ich in Physik gelernt habe richtig ist, dann muss man für die Hälfte der Arbeit auch nur die Hälfte an Energie aufbringen.

Mein Fazit: Für weniger Bilder muss weniger gearbeitet werden, was sich auf den Stromverbrauch positiv auswirkt. Wie groß die Einsparung ist, weiß ich nicht, aber sie ist vorhanden (falls sich das als falsch herausstellen sollte, bin ich von den beiden GrakaHerstellern sehr enttäuscht über das miese Design).
 
Zuletzt bearbeitet: (Rechtschreibung)
N

NeoXpert

Gast
Das Problem ist, dass du wie schon erwähnt bei einige spielen einen unterschied von 90 zu 45 fps wirklich merken kannst.. mir ist das bei wow ziemlich krass aufgefallen. Testhalber mal mit VSync gespielt und zum Teil wurde die Framerate auf 37 gelockt, dann wieder mal auf 60.. schon das waren welten in sachen spielbarkeit ; ).
 

blueGod

Lt. Commander
Dabei seit
März 2006
Beiträge
1.787
Sorry, aber das ist der grösste Schwachsinn überhaupt...
Wenn du SO viel Wert auf Stromverbrauch legst, hast du dir die falsche Grafikkarte gekauft.
Ich finds immer wieder lustig, wenn sich Leute HighEnd Hardware für mehrere hundert bzw. tausend Euros kaufen und dann über 30 Euro mehr Strom im Jahr heulen, dazu fällt mir echt nichts mehr ein...



in diesem Sinne
Greetz blueGod
 

R4nD00m

Ensign
Dabei seit
Okt. 2006
Beiträge
203
@ww2warlord + NeoXpert
Vsync + ( Herzzahl gleich max. fps ) = optimales Bild

@blueGod
Man kann doch auch mit einem Sportflitzer versuchen, möglichst Energiesparend zu fahren und die Sau nur dann rauszulassen, wenn man Eindruck machen will, oder nicht!?

Ich verstehe nicht, warum sich hoher Verbrauch und hohe Leistung in 3D und geringer Verbrauch im Idle derart ausschließen. Da muss nachgebessert werden.
 

serra.avatar

Banned
Dabei seit
Aug. 2004
Beiträge
4.448
naja wir haben hier im Forum ja soviele die bei 100 Fps jedes einzelne Frame sehen, aber Rechtschreibfehler sehen sie nicht ;) klar unter 50 bis 60 FPS sieht mans schon, aber darüber sieht man weniger die mehr Frames (100 oder 120 wers glaubt) sondern eher die Einbrüche die sich bemerkbar machen ...
wenn also nen Game egal was auf dem Schirm abgeht konstant 70 Frames hat und das gleiche konstant 100 siehste absolut keinen Unterschied ... merken tust dus erst wenns von 100 (oder 60, 70) in den Keller geht ...
 

Flo89

Rear Admiral
Dabei seit
Mai 2007
Beiträge
5.643
Strategiespiele von EA haben eine Begrenzung von 30 fps (zumindest die, die ich kenne: Schlacht um Mittelerde I + II, Command and Conquer - Tiberium Wars).
Genaue Zahlen habe ich jetzt nicht mehr, aber ich habe beim SuM/C'n'C Zocken mal die Temperatur der Grafikkarte überwacht (EXPERTool auf zweitem Bildschirm) und anschließend "rthdribl" (lastet die Grafikkarte voll aus, wie Prime95 die CPU) laufen lassen. Durch die Begrenzung auf 30 fps war meine 7800GT beim zocken ca. 10 Grad kühler (und dürfte somit auch weniger Strom gebraucht haben?).

Also eine optionale Begrenzung der Framezahl im Treiber fände ich durchaus sinnvoll.
 

Bender86

Lieutenant
Ersteller dieses Themas
Dabei seit
Jan. 2007
Beiträge
688
Sorry, aber das ist der grösste Schwachsinn überhaupt...
Wenn du SO viel Wert auf Stromverbrauch legst, hast du dir die falsche Grafikkarte gekauft.
Ich finds immer wieder lustig, wenn sich Leute HighEnd Hardware für mehrere hundert bzw. tausend Euros kaufen und dann über 30 Euro mehr Strom im Jahr heulen, dazu fällt mir echt nichts mehr ein...



in diesem Sinne
Greetz blueGod
Soein Schwachsinn. Erstens heule ich an keiner Stelle über irgendwelche Stromkosten und zweitens kaufe ich mir schnelle Hardware, damit ich sie habe wenn sie gebraucht wird (zB bei World in Conflict oder für kommende Titel). Aber wenn ich grad ein Spiele spiele, dass die Hardware nicht ausreizt, dann wär es sehr wohl sinnvoll den Stromverbrauch zu senken.
 

Thomson1

Lt. Junior Grade
Dabei seit
Dez. 2006
Beiträge
459
Also ich selber spiele jetzt schon sehr lange ego shooter und hab mich jetzt auch schon öfters mit sachen wie bildqualität beschäftigt.

Wichtig dabei ist das zusammenspiel von Monitor und Grafikkarte. (wenn man vom reinen bildaufbau ausgeht und mal von sachen wie AA/AF absieht)
Wenn ein Monitor mit 60hz betrieben wird werden von monitor auch nur 60 bilder pro sekunde dargestellt.
Auch wenn ingame vlt 100 angezeigt wird. denn die ingame angezeigten frames beziehen sich auf der von der grafikkarte erstellten frames.

frames sind nichts anderes wie standbilder.
wenn es jetzt so ist das der monitor mit 60hz läuft und 60 bilder pro sekunde darstelt. die grafikkarte aber 200 bilder pro sekunde erzeugt. werden die bilder immer in den buffer geladen und monitor zeigt praktisch mehrere bilder gleichzeitig bzw besser gesagt er zeigt 60 bilder pro sekunde an aber diese bilder bestehen aus 200 welche übereinander lappen.
d.h in der millisikunde wo von dem monitor ein bild angezeigt wird. werden aus dem grafikkarten buffer 2 bilder genommen übereinander gelapt und dargestellt.
die folge davon ist das bei bewegungen das bild zerrissen aussieht. oft sieht das aus wie so ein vertikaler strich durch den bildschirm.
auf der anderen seite ist es so wenn die grafikkarte nur 30 bilder pro sekunde erzeugt und der monitor aber 60 pro sekunde darstellt, werden gleiche frames doppelt benutzt.

deswegen erzielt man optime bildqualität wenn die hz des monitors und die erzeugten frames der grafikkarte übereinstimmen. trotzdem kann es vorkommen das wenn man ingame z.b das limit auf 60 setzt das bild immer noch zerreist weil 60 fps ingame heißen nicht umbedingt das diese bilder genau in dem moment erzeugt werden in dem moment wo der monitor ein einzelnes bild darstellt. damit will ich sagen man zwar 60 bilder in einer sekunde hat aber was hat man in einer milisekunde?
wenn die grafikkarte dann 3 bilder in einer millisekunde macht und in der nächsten keins bringt das nichts.

deswegen gibt es vsync. es gleicht die frames direkt mit der grafikkarte ab. die graka macht nur genausoviele bilder wie gebraucht werden und auch nur genau dann wenn sie gebraucht werden. das führt zu einem flüßigeren bildverlauf. aber natürlich bringt das nichts wenn die grafikkarte zu schwach ist.
wenn man den monitor mit 60hz betreibt und dann vsync anmachen will sollte man einen pc haben der ohne probleme 60 bzw mehr frames schafft.

ich selber spiele auf einem crt röhren monitor auf 1024x768 @ 100hz , 8xaa/af +vsync
es gibt einfach das beste ergebniss. das bild ist total scharf und laufen tut alles super.


um auf den stromverbauch zurück zu kommen;
diese frame begrenzung bringt relativ wenig, warum?
dadurch das weniger frames dargestellt werden müssen wird die grafikkarte nicht so belastet
und bleibt infolgedessen auch kühler. das macht aber nichts aus. weil das wichtigere beim stromverbauch
sind eher die spannungen und die architektur. diese werden bei weniger frames nicht geändert.

edit: und ja ein fernseher benutzt eine art motion blur. wenn du irgendwie die möglichkeit hast halte bei einem kamera schwenk
das bild an und du wirst sehen das es verwischt ist. das wird aber von unserem auge in der bewegung nicht wahrgenommen

und ich kann das tool refresh force force (oder auch reforce) für nvidia karten benutzer empfehlen damit kann man die hz zahlen je nach auflösung kinderleicht fixieren. dann hat man niewieder probleme und muss in games die hz zahl (was bei vielen nicht mal geht) nicht mehr umändern. sobalt man die einstellungen übernommen hat funktionieren sie immer ohne das ein programm oder ein dienst im hintergrund nötig ist. das einigste problem was es damit gibt ist bei halflife 2. bei standart auflösung (1024x768) kann es passieren das mit einer höheren hz zahl nicht richtig startet.
 
Zuletzt bearbeitet:
Top