News GeForce 9500 GT mit Stromsparfunktion?

ähm, ich weiß ja jetzt nicht genau, was daran so besonders sein soll, meine gf8800gt kann das auch.

TMU 450 Mhz -> 702 Mhz
Shader 1188 Mhz -> 1728 Mhz
Speicher 702 Mhz -> 918 Mhz



bin ich jetzt was besonderes? das ist übrigens eine gigabyte-karte auf einem gigabyte-board, das board bietet die möglichkeit des automatischen übertaktens der karte, allerdings ist das alles deaktiviert
 
Das Problem bei den Karten wird sein, dass die eigentlichen Verdächtigen - GPU und VRam - nicht das meiste im Idle verbrauchen, sondern die Spannungswandler.
Bei AMD ist das mittlerweile alles Digital und verbrutzelt dementsprechend weniger Energie bei einer ausgezeichneten Regelbarkeit.

@Etymotic: Doch, bei AMD. Bei den HD 3000ern lassen sich die Spannungen per Software regeln. Bei Nvidia muss leider Umweg übers Bios gegangen werden und auch da sind die Möglichkeiten mehr als begrenzt (0,1V-Schritte und kleiner Regelbereich).
 
Zuletzt bearbeitet:
Na toll - man kann in der Power-User Funktion von Rivatuner das ganze doch schon einstellen, dass man verschiedene Stufen von Mhz angibt und dann die Grafikkarte automatisch runterregelt.
Bei meiner ATI X1950XTX war das ganze auch schon integriert - ging von 680Mhz auf 550Mhz ... zwar nicht viel, aber war auch schon da. So weit ist also Nvidia schon ;)
Hybrid SLI ist wirklich ne gute Idee, aber dann müssten ein paar billigere Boards herkommen, da ich kein Bock habe so viel Geld fürn Chipsatz auszugeben, wenn ich grade mit meinem Board zufrieden bin.
 
Irre ich mich, oder unterstützt die X700 in meinem fast 3 Jahre alten Notebook auch schon Powerplay?
Kommt mir irgendwie so vor als ob das was altes als neu verkauft wird...

Wenigstens nehmen die sich endlich dem Thema Stromverbrauch mal an, hat sich ja auch in Bereiche entwickelt wo man nicht einfach drüber hinwegsehen konnte

lg
 
@Seppuku:1. Kommt der Sommer noch was heist das die Umgebungstemp um rund 16C° steigen kann. 2. Will ich keine Heizung neben mir stehen haben.
 
P=U*I d.h. entweder man senkt die Versorgungsspannung oder die Stromstärke. Evtl könnte man durch Abschalten nicht benötigter Teile des Chips (für 2D brauch man sicherlich nicht alle Rendereinheiten) auch die Stromaufnahme reduzieren, was sich dann auch in der Leistungsaufnahme bemerkbar machen sollte.
 
genausowas such ich die ganze zeit schon fuer meinen stromsparpc ich hab im mom nur was fuer amd cpus gefunden http://geizhals.at/deutschland/a325422.html gibts sowas nicht fure intel cpus 775 pin und noch ne andere frage geht das zusammen mit einer geforce 9600 gt
mfg matze
ps es is schon nervig im jahr locker 200 euros fuer strom rauszuballern ohne sinnnnn....
 
@ TheGhost31.08

Selbst im Sommer sind dann die Temperaturen noch nicht kritisch. Und wer seinen Rechner bei 36°C Zimmertemperatur betreibt, dem ist eh nicht mehr zu helfen...
Und dir ist hoffentlich klar, dass hohe Temperaturen beim Chip nicht gleich auch mehr Hitze im Gehäuse produziert. Wenn auf einem anderen ein besserer Kühler drauf ist, ist der Chip kühler, aber das Gehäuse erwärmt sich trotzdem (die Hitze wird ja nur besser abtransportiert).
 
das ist eine sehr gute frage!!!seltsam das die erst ejtzt mit solchen ideen kommen,wo das bei cpu´s schon längst standart ist,und die grakas ziehen weit mehr als so eine cpu
 
@ moepster
P=U*I so einfach ist das nicht.
das mit spannung senken ist schon richtig. allerdings kannst du nicht strom senken, WEIL du strom nicht dem chip hinzufügst, sondern der strom wird vom chip unter spannung "gezogen". d.h. Stromstärke "ergibt sich" aus der am wiederstand angelegten spannung.

naja nvidia hat sich nie um das stromsparen groß geschert. jetzt versuchen die das nachzuholen haben aber (noch) nicht das know-how. solche "lösungen" wie spannung senken, dafür muss man kein genie sein und 150 entwickler beschäftigen. der gewinn von spannungssenkung ist gegeben aber nicht so groß wie man es sich erhofft. eine "ECHTE" Stromsparfunktion erfordert abschalung von nicht benötigter chipteile und zwar am besten dynamisch. Die können ruhig von Intel was lernen, auch wenn Intel konkurrent ist.

Solche Notfalllösungen wie Hybrid-SLI braucht man dann nicht wenn die Grafik sich anständig runterschalten kann. Hybrid hat zu viel Implementierungs-Overhead und zu viele potentielle Problemquellen als das wenige Mehrwert. Im moment scheint das die lösung zu sein, weil nvidie nicht besseres schaffen konnte.

Hybrid ist zur Zeit nur das hochgepuschte Hype umd die sinnlosen 9800GTX zu verticken. Die technik ist innovativ und witzig aber auf die Dauer nicht überlebensfähig. Zu fummelig das ganze. Wenn die Grafikkarte lernt sich anständig herunterzuschalten, dan braucht man das ganze nicht. Denn wer potente grafik haben will, gibt sich auch mit 10Watt iddle glücklich. Und ultra low power htpc freaks greifen eh zu integrierten grafiklösungen, da kommt kein PCIEx16 in die tüte.
 
Zuletzt bearbeitet:
Klamann schrieb:
Stromsparen über Taktsenkung allein reicht nicht.
Habs mit meiner 8800GT ausprobiert. Takt um 60% reduziert (weniger hat das System aufgehängt) -> 3W weniger Stromverbrauch
Da hast du irgendwas falsch gemacht. Der G80 hat (mit VRAM) drei wichtige Taktraten: Shader, Rest der GPU und VRAM.

Klamann schrieb:
Unter einer "effektiven" Stromsparfunktion stelle ich mir was anderes vor. Undervolten dürfe da auch nicht grad den riesen Ausschlag geben, auch wenn ich das selbst nich ausprobiert habe.
Doch die Spannung beeinflusst den Energiehunger überproportional. Wenn die Spannung, mit der ein Mikrochip betrieben wird, erfolgreich um 20% gesenkt wird, sinkt der Energieverbrauch stärker als 20%.

patrik.bateman schrieb:
Irre ich mich, oder unterstützt die X700 in meinem fast 3 Jahre alten Notebook auch schon Powerplay?
Ja. PowerPlay wurde ab der HD 3xxx-Serie auch in den Desktop-Modellen eingesetzt und wurde vorher bereits von den Mobile-Produkten verwendet (dort ist der Energieverbrauch schließlich besonders wichtig). Es steht auch explizit "Desktop" in der News.
 
Juhu, stromsparen .... Im ernst, wie lang gibt es powerplay? Wielang ziehen nvidiagrakas
unendlich viel strom aus der steckdose?
Könnte man nicht einfach ein paar shader der karte deaktivieren
 
Das hört sich eher wie ein Ablenkungsmanöver der Marketingabteilung an. Ich vermute mal, das nach dem Zurückrudern, bezügl. der Möglichkeit separate Grakas auf Basis der 93xx bzw. 94xx, 95xx, 96xx im 2D Betrieb gänzlich abzschalten, nun auch die 98xx Karten diese Möglichkeit in Zukunft nicht bieten werden.
 
Wie ein anderer Leser ebenfalls anbrachte: das kann keinesfalls neu sein, zumindest die 6600GT unterscheidet in der Betriebsfrequenz zwischen 2D und 3D-Modus. Ich kann mir nicht vorstellen, dass davon nur die eine Karte in der GeForce6-Generation betroffen sein soll.
 
Ja also eine kleine Recherche hat folgendes ergeben: die GeForce 5900 Ultra hatte im 2D-Modus einen 100 Mhz geringeren Kerntakt. Und bei hardwarezone bin ich in einem alten Review auf folgendes gestoßen:

"On a related note, NVIDIA has also said that in a break from the past, these new cards will have identical clocks for both 2D and 3D mode. In other words, the clock speeds are no longer lower for 2D and then increased when running 3D applications. NVIDIA feels that with the modest TDP of the GeForce 8600/8500 series, there is little power savings to be had by doing so."

Es scheint also, dass erst seit der 8er Generation nicht mehr zwischen den Betriebsmodi unterschieden wird. Merkwürdig, da das Untertakten ja kein Problem sein kann. Und zumindest meine 6600GT profitiert davon spürbar (500MHz->300MHz).

Also technisch keine große Neuerung, lustig nur, dass man zu dem Thema im Netz so wenig findet (bei NVIDIA gibts gleich gar keine brauchbare Dokumentation). Offenbar hat in der Vergangenheit wirklich niemand Wert auf das Energiesparen bei Grakas gelegt.

mfg
Finkenelch
 
das haben nvidias karten auch schon vor jahren gemacht
nur eben seit dem G80 nicht mehr, was schade ist und vll wieder kommen soll

noch besser wäre es natürlich die techniken aus dem mobile bereich in den desktopbereich zu verpflanzen, so wie es ati mit powerplay schon gemacht hat
denn das ist richtig effektiv
 
riDDi schrieb:
Das Problem bei den Karten wird sein, dass die eigentlichen Verdächtigen - GPU und VRam - nicht das meiste im Idle verbrauchen, sondern die Spannungswandler.
Wie kommst du auf so eine Unsinnige Idee?
Dort wo am meisten Wärme abgeführt werden muss (Kühlkörper (+ Lüfter)), dort gibt es die größten Verluste.

riDDi schrieb:
Bei AMD ist das mittlerweile alles Digital und verbrutzelt dementsprechend weniger Energie bei einer ausgezeichneten Regelbarkeit.
Aha und alle anderen haben Linearregler :rolleyes:
Das ist Quatsch. Es werden immer Schaltregler eingesetzt (Wirkungsgrad ~90%)[1]. Analogregler wären untragbar, je nach Regelbereich bis 80% Verlust. Dafür haben Linearregler einen wesentlich höheren Regelbereich.

Finkenelch schrieb:
"On a related note, NVIDIA has also said that in a break from the past, these new cards will have identical clocks for both 2D and 3D mode. In other words, the clock speeds are no longer lower for 2D and then increased when running 3D applications. NVIDIA feels that with the modest TDP of the GeForce 8600/8500 series, there is little power savings to be had by doing so."

Es scheint also, dass erst seit der 8er Generation nicht mehr zwischen den Betriebsmodi unterschieden wird. Merkwürdig, da das Untertakten ja kein Problem sein kann. Und zumindest meine 6600GT profitiert davon spürbar (500MHz->300MHz).
Anscheinend bringt es massive Kostenersparnis solche Funktionen weg zu lassen.
 
Zuletzt bearbeitet:
Zurück
Oben