News GeForce 9500 GT mit Stromsparfunktion?

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.630
Es war ein regelrechtes Novum, als ATi mit der Radeon-HD-3000-Serie eine Stromsparfunktion namens „PowerPlay“ in die Desktop-Grafikkarten einbaute. Dadurch ziehen die 3D-Beschleuniger deutlich weniger Strom aus der Steckdose als alle anderen 3D-Beschleuniger.

Zur News: GeForce 9500 GT mit Stromsparfunktion?
 
Das ist echt eine gute Alternative. Ich rege mich bei meiner 8800 GTS/640 immer noch auf, dass sie so viel Strom frisst, obwohl ich nicht so viel im 3D Modi zocke...sieht man schon deutlich an der Stromrechnung -.- Aber meine nächste Graka wird so eine Funktion haben.
 
naja auf dauer wirds des auch nich bringen... da sollte nvidia bzw ati schon ordentlich mal was machen dass die karten weniger strom unter last ziehn... ich sag nur was man bei der cpu an strom einspart hat man bei der gpu wieder drauf bzw doppelt so viel drauf^^
 
Gute Idee. Fragt sich nur wann das Standart wird.
 
und wieder musste AMD/ATI den ersten schritt gehen.
 
Die ATI 3650 taktet von 725/800 auf 110/500 herrunter.
 
Wenn es gut umgesetzt wird nimmt Nvidia ATI einen großen Vorteil. Vielleicht findet sich dann auch mal wieder eine Nvidia Karte in meinem PC ;)
 
Stromsparen über Taktsenkung allein reicht nicht.
Habs mit meiner 8800GT ausprobiert. Takt um 60% reduziert (weniger hat das System aufgehängt) -> 3W weniger Stromverbrauch

Unter einer "effektiven" Stromsparfunktion stelle ich mir was anderes vor. Undervolten dürfe da auch nicht grad den riesen Ausschlag geben, auch wenn ich das selbst nich ausprobiert habe.

Ich halte Hybrid SLI immer noch für die beste Lösung, nur sollte Nvidia wenigstens die Beschränkung auf Vista aufheben (ich beiß mir heute noch in den Arsch, dass ich für das OS vor 3 Monaten 80€ aus dem Fenster geschmissen hab und seitdem ca. 20 Stunden benutzt habe)
 
Die Technik ist sowas von alt, warum wrude sie bei den "schnelleren" Modellen weggelassen?

Edit: Die Temperaturen für so eine Low-Midrange-Karte finde ich persönlich auch viel zu hoch, was ist da denn wieder für ein gammliger und wahrscheinlich lauter Kühler drauf? Da bleibt ja meine 9600gt um mehr als 10C° kühler.
 
Zuletzt bearbeitet:
Mich wuerde ein Test interessieren, wieviel Watt jetzt wirklich dadurch eingespart werden, wenn das, wie Klamann sagt, nur ein paar wenige Watt sind, waer das ja nicht unbedingt sehr effektiv, vielleicht bringt ja eine Spannungssenkung mehr Watt, wenn die unterstuetzt wird.
 
Das ist jedenfalls schon mal ein guter Schritt in die richtige Richtung. Jetzt wäre nur noch interessant, was das bringt (sprich, um wieviel % der Verbrauch gesenkt wird).
 
War das bis vor ein paar jahren nicht Standart, dass die sich runtergetaktet haben, und (zumindest teilweise) die Spannung gesenkt haben ? o0

Das wurde dann doch (vorallem von nVidia, ati weis ich grad nicht) ausm Treiber geschmissen, warum auch immer.

Oder bin ich ganz falsch ?
 
Wenn man die Spannung herunterstellt wird das sicher was bringen und wenn man den Tackt von 600 mhz auf ca 200 mhz setzt ist ja auch nicht so viel Spannung nötig.
Die Spannung hat ja auch einen Erheblichen Anteil am Verbrauch also denke ich bringt das schon genz gut was, sieht man ja auch wenn man seine Cpu übertaktet denn wird die CPU auch sehr viel wärmer wenn man die Spannung hochstellt.
 
Hallo zusammen,

es wundert mich, daß im Hinblick auf Stromsparen und Leistungsanpassung immer wieder nur auf Hybrid-SLi verwiesen wird.
AMD bietet gleiche Funktionalität mit dem 780G Chipsatz genannt Hybrid-Crossfire.
Leider funktioniert dies, ebenso wie Hybrid-SLI, zur Zeit nur mit Low-End-Grakas.
Aber ich hoffe doch mal, daß die 4000er Serie, die vermutlich Mitte des Jahres herauskommt auch im High-End-Bereich Hybrid-fähig sein wird. Leider noch keine disbezüglichen Infos gefunden.

Grüße
 
wie schon in den news steht, nur die taktsenkung bringt sogut wie keinen verbrauchsvorteil, die spannung hat einen viel größeren einfluss. muss man abwarten was wirklich fakt ist
 
Bis dato gibt es noch keine tools, die die Spannung von Grafikkarten runterschrauben oder? Das Untertakten von GPU und VRAM bringt ja anscheinend kaum etwas im 2D-Betrieb bis auf die zusätzliche Kühlung außerhalb von 3D-Anwendungen.
 
@ TheGhost31.08

Was interessiert die Temperatur, wenn sie weit von einer kritischen Temperatur entfernt ist?


Irgendwie ist es schon traurig, dass man jetzt endlich auf die Idee kommt, Stromsparfunktionen im Desktopbereich einzuführen...
Aber besser spät als nie!
Ich wünsche mir ein Chipsatz- und GPU-Hersteller unabhängiges Hybrid-SLI/Crossfire (was aber leider noch weniger realistisch sein wird, wie Crossfire auf einem Nvidia-Chipsatz (und umgekehrt). Sonst stellt es für mich keine wirkliche Alternative dar, da ich mir ungern vorschreiben lassen will, wie ich Chipsatz und GPU kombinieren soll.
Von daher ist das schon ein wichtiger Schritt, dass die Karten selbst im idle wenig verbrauchen.
 
Gut das in der news noch ein Fragezeichen steht, denn bekannt ist bisher garnix.

Zumal die Senkung auf ~33% takt immer noch viel zu wenig ist, man beachte die Sekunden bei Ati wo weniger als 20% übrig bleiben und das auch bei high-end Modellen.

Das der Speicher nicht runtergetaktet wird ist das nächste Manko. So kann man einen passiven Betrieb mit einem Standardkühler praktisch ausschließen, weil sonst der Speicher überhitzt.

Wirkt bisher recht halbgar.
 
Also ich habs mit meiner Graka getestet mit einem Strommessgerät, wenn ich den Takt von 670/830 auf 200/200 absenke, verbraucht der Rechner im Idle ca 25-30 Watt weniger. Und das ist schon ne Menge wie ich finde
 
Zurück
Oben