Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Sparsamere (langsamere) GeForce 9600 GT
- Ersteller Simon
- Erstellt am
- Zur News: Sparsamere (langsamere) GeForce 9600 GT
A
Adam Gontier
Gast
@ KAOZNAKE:
Gut, ich habe es erfasst
.
Und undervolten ist, dass man die Spannung^^ kleiner macht, um die Lebensdauer zu verlängern, aws bei Office PC gemacht wird
.
Ich hab das endlich verstanden.
Aber mann muss auch wissen, wie viel Spannund(Volt) ein Mainboard freigibt, also hier steht das:
Hier steht, dass nicht alle Mainboard 2.2Volt zur Verfügung stellen können....
Und das Netzteil(PSU) muss doch auch noch irgendwie mitmachen?
Gut, ich habe es erfasst
Und undervolten ist, dass man die Spannung^^ kleiner macht, um die Lebensdauer zu verlängern, aws bei Office PC gemacht wird
Ich hab das endlich verstanden.
Aber mann muss auch wissen, wie viel Spannund(Volt) ein Mainboard freigibt, also hier steht das:
Hier steht, dass nicht alle Mainboard 2.2Volt zur Verfügung stellen können....
Und das Netzteil(PSU) muss doch auch noch irgendwie mitmachen?
ITX
Commander
- Registriert
- Dez. 2008
- Beiträge
- 2.275
Wird diese Karte dann sozusagen eine Ergänzung zu nvidias Hybrid Power? Denn alle die einen entsprechenden Chipsatz haben werden kaum etwas vom gesenkten Stromverbrauch bemerken, fürchte ich. Oder wird es davon vllt eine Low Profile Karte für den Einsatz in HTPCs geben? Wozu würdet ihr raten; diese Karte oder eine normale 9600 GT + Board mit Hybrid Power Chipsatz (nehmen wir mal an ich wollte einen neuen PC zusammenstellen)?
JackTramiel
Cadet 3rd Year
- Registriert
- Juni 2005
- Beiträge
- 37
Viel interessante ist ob die Karte dann genauso wie die Onboard-GPUs alle bei nVidia machbaren Videofeatures kann. Wüßte sonst keine PCIe Karte bei der das so ist.
C
claW.
Gast
bei den spieleentwicklern.Adiak schrieb:ich würde gern mal wissen wo die Gelder hin sind
Ich hatte selbst mal zwei 9600GT-Karten im SLI, für den Preis ist eine solche Karte wirklich ne Wucht. Wirklich viel Strom braucht das kleine Teil ja selbst unter Last nicht. Dass hier jedoch mit einer permanenten Senkung am Chiptakt gespart wird, damit die Karte die Einsparansprüche seitens nVidia erfüllt, kann ich nicht gutheissen. Viel sinnvoller wäre endlich mal eine halbwegs gescheite Abschaltfunktion des größten Teils der GPU unter Windows sowie einem großen Teil des Arbeitsspeichers.
Wenn das ganze noch treiberseitig zu bedienen wäre, eben für Anwender, die auch unter Windows eine hohe GPU-Power (Computing, De/Encoding, HD-Wiedergabe, 3DCAD usw.) wahlweise hinzuschalten können, wäre der Keks gegessen. Ich kann mir nicht vorstellen, dass das technisch heute nicht mit halbwegs bezahlbaren Mitteln umzusetzen wäre.
Im Übrigen:
20 Watt bei 24/7-Betrieb bei 20cent per kw/h (im Extremfall):
42 Euro im Jahr.
Jemand, der diese übrigens sehr hoch gegriffenen 42 Euro pro Jahr wirklich so nötig hätte, sollte sowieso darüber nachdenken, ob das Hobby PC das Richtige für den Jenigen ist.
Stromsparfunktionen finde ich schön und gut, aber: Sie sollten einerseits konsequent, andererseits aber auch nicht zu Lasten der Performance des jeweiligen Geräts (wenn die Performance gebraucht wird) sein.
Cya, Mäxl
Wenn das ganze noch treiberseitig zu bedienen wäre, eben für Anwender, die auch unter Windows eine hohe GPU-Power (Computing, De/Encoding, HD-Wiedergabe, 3DCAD usw.) wahlweise hinzuschalten können, wäre der Keks gegessen. Ich kann mir nicht vorstellen, dass das technisch heute nicht mit halbwegs bezahlbaren Mitteln umzusetzen wäre.
Im Übrigen:
20 Watt bei 24/7-Betrieb bei 20cent per kw/h (im Extremfall):
42 Euro im Jahr.
Jemand, der diese übrigens sehr hoch gegriffenen 42 Euro pro Jahr wirklich so nötig hätte, sollte sowieso darüber nachdenken, ob das Hobby PC das Richtige für den Jenigen ist.
Stromsparfunktionen finde ich schön und gut, aber: Sie sollten einerseits konsequent, andererseits aber auch nicht zu Lasten der Performance des jeweiligen Geräts (wenn die Performance gebraucht wird) sein.
Cya, Mäxl
paul1508
Captain
- Registriert
- Nov. 2005
- Beiträge
- 3.830
Raucherdackel schrieb:Soso... ich dachte die 9er Serie von NV taktet sich im Idle runter?!? Wie ist dann die Differenz von 20 Watt möglich?
edit: hab grad gesehen, bei NVIDIA gibts sowas nicht. Und deswegen kommt mir keine Graka von denen ins Case...
edit2:
@ GokuSS4: Mir reichts schon lange, hab ne HD3450
Zitat von meinem Everest:
Grafikkarte nVIDIA GeForce 8600M GT (Compal)
ein haufen technisches blabla
nVIDIA ForceWare Clocks
Standard 2D Grafikprozessor (GPU): 169 MHz, Shader: 338 MHz, Speicher: 100 MHz
Low-Power 3D Grafikprozessor (GPU): 275 MHz, Shader: 550 MHz, Speicher: 200 MHz
Performance 3D Grafikprozessor (GPU): 475 MHz, Shader: 950 MHz, Speicher: 400 MHz
zitat ende
Dio
Lieutenant
- Registriert
- Juni 2004
- Beiträge
- 645
Desktopdie 9er Serie von NV
MobileGrafikkarte nVIDIA GeForce 8600M GT
Das Eine hat mit dem Anderen nichts zu tun.
In einer Preisklasse wo die 40€ den halben Preis der Karte darstellt, halte ich diese 40€ für bedenklich.Jemand, der diese übrigens sehr hoch gegriffenen 42 Euro pro Jahr wirklich so nötig hätte, sollte sowieso darüber nachdenken, ob das Hobby PC das Richtige für den Jenigen ist.
D
dllfreak2001
Gast
Kann bestätigen, die 9600GT taktet nicht runter....
Aber die Karte wird auch unter Last bei weitem nicht so heiß wie eine 8800GT oder jetzt 9800GT und zieht auch nicht soviel Strom.
Im Idle ist sie den damals erhältlichen HD3850 zwar unterlegen aber das waren auch nur 7-10W und unter Last ist die Karte sogar sparsamer.
Heute siehts natürlich anders aus...
Die Karte ist mit Standardtakt ja auch garnet so langsam, also durchaus fürs zocken geeignet. Das ist kein 128Bit-Verschnitt mit DDR2 drauf.
Aber die Karte wird auch unter Last bei weitem nicht so heiß wie eine 8800GT oder jetzt 9800GT und zieht auch nicht soviel Strom.
Im Idle ist sie den damals erhältlichen HD3850 zwar unterlegen aber das waren auch nur 7-10W und unter Last ist die Karte sogar sparsamer.
Heute siehts natürlich anders aus...
Die Karte ist mit Standardtakt ja auch garnet so langsam, also durchaus fürs zocken geeignet. Das ist kein 128Bit-Verschnitt mit DDR2 drauf.
Dio schrieb:In einer Preisklasse wo die 40€ den halben Preis der Karte darstellt, halte ich diese 40€ für bedenklich.
Das mag einerseits stimmen, andererseits sind aber sowohl die 20ct per kw/h, sowie auch die 365 Tage bei 24/7 etwas hoch gegriffen - eben der Extremfall.
Hat mal jemand Erfahrungswerte, wie sich der Stromverbrauch einer Mittelklasse - oder gar HighEnd-Klasse Grafikkarte auswirkt, wenn man sie mit RivaTuner im 2D-Bereich entsprechend zum Stromsparen (also extremes Heruntertakten) zwingt? Leider funktionieren Voltmods (soweit ich weiß) ja noch nicht aus einem Softwaretool heraus, das wäre sicherlich mit die beste Möglichkeit (in Verbindung mit dem Heruntertakten der GPU, Ram und Shader) Strom zu sparen.
Cya, Mäxl
Dio
Lieutenant
- Registriert
- Juni 2004
- Beiträge
- 645
bei einer 4870 sind mit einem modifizierten Bios im Idle bis zu 50W Einsparung möglich im Vergleich zum originalen Bios. Unter Last, naja lassen wir das .........
Ein 2D Profil würde der 9600GT deutlich besser tun als gesenkter Takt und gesenkter vcore.
Ein 2D Profil würde der 9600GT deutlich besser tun als gesenkter Takt und gesenkter vcore.
paul1508
Captain
- Registriert
- Nov. 2005
- Beiträge
- 3.830
Dio schrieb:Desktop
Mobile
Das Eine hat mit dem Anderen nichts zu tun.
In einer Preisklasse wo die 40€ den halben Preis der Karte darstellt, halte ich diese 40€ für bedenklich.
naja wenn ich so mit everest die aktuellen Taktraten anschau seh ich gerade das sie immer auf maximaltakt ist... und das mit dem original nvidia notebook teiber von der nvidia hp!
ich hätt auch lieber ne hybrid wie sie im ASUS M51TA drinnen ist ^^
lässt sich ohne zu booten usw. zwischen IGP und ner Mobility Radeon 3650 wechseln!
1337 g33k
Vice Admiral
- Registriert
- Sep. 2008
- Beiträge
- 6.335
Mein neuer Core2Quad Q8200 (2,33GHz) braucht dank Undervolting (bei ~1,0V) weniger Energie als mein alter hochgetakteter Core2Duo E4300 (2,61GHz, Standardspannung, ca. 1,35V). Die 45nm-Architektur hat wohl viel gebracht. Die Differenz beim Verbrauch sind 30 Watt.
Mein Ziel "QuadCore-Leistung mit wenig Stromverbrauch" habe ich damit mehr als nur erreicht. Jetzt seid Ihr dran oder meine Grafikkarte...
Mein Ziel "QuadCore-Leistung mit wenig Stromverbrauch" habe ich damit mehr als nur erreicht. Jetzt seid Ihr dran oder meine Grafikkarte...
Dio schrieb:bei einer 4870 sind mit einem modifizierten Bios im Idle bis zu 50W Einsparung möglich im Vergleich zum originalen Bios.
Das finde ich schon beeindruckend, immerhin ist der Idle-Betrieb beim Normalverbraucher der Status, in dem die Grafikkarte, sowie auch die CPU die meiste Zeit verweilt. Hier wären wir bei meiner zuvor erwähnten Rechnung bereits bei einem Ersparnis von über 100 Euro im Jahr.
Dio schrieb:Unter Last, naja lassen wir das .........![]()
Das sollte nicht weiter erwähnenswert sein - kein KFZ-Hersteller stimmt seine Motoren so ab, dass sie im Volllastbereich am Effizientesten verbrennen - weil es eben der Lastbereich ist, der am Seltensten abgerufen wird.
Wenn ich mir die Performance meiner 7600Go-Grafikkarte in meinem Laptop ansehe, sowie auch die Leistung des dort ebenfalls verwendeten T2400 (Core Duo 1,83GHz), dann frage ich mich, warum die Industrie im Desktopbereich teilweise so weit daran vorbeibaut. Wie gesagt, so richtig konsequent ist das alles noch nicht. Spontan fällt mir da bisher nur AMD ein, die ihre Prozessoren teilweise ohne wirklichen Preisunterschied in verschiedenen Stromverbrauchs-Klassen angeboten haben. Das finde ich doch recht löblich, auch wenn es sich hier ebenfalls nur um wenige Watt handelte.
Cya, Mäxl
crux2003
Admiral
- Registriert
- Feb. 2004
- Beiträge
- 7.819
ich denke mal, die Karte kommt nur auf Wunsch von OEM's oder aus einer negativen Kritik.
Zudem will Nvidia jetzt "jeden" bestmöglich bedienen bzw. Umsatz erzeugen. (Nach den schlechten umsatzzahlen)
Großer PC Builder kann CoreI7 nur mit Radeon 4670 kombinieren, da zum Beispiel das 300 Watt No-Name Netzteil leider keine normale 9600GT unter LAST versorgen kann. Nvidia sieht sich gezwungen zu handeln
Ein 2D-Profil bzw. alle aktivierten Srtomspartechniken wie bei den mobilen Varianten hätten eher es verdient auf den Markt zu kommen, als eine mit einem neuen BIOS geflashte Karte
Zudem will Nvidia jetzt "jeden" bestmöglich bedienen bzw. Umsatz erzeugen. (Nach den schlechten umsatzzahlen)
Großer PC Builder kann CoreI7 nur mit Radeon 4670 kombinieren, da zum Beispiel das 300 Watt No-Name Netzteil leider keine normale 9600GT unter LAST versorgen kann. Nvidia sieht sich gezwungen zu handeln
Ein 2D-Profil bzw. alle aktivierten Srtomspartechniken wie bei den mobilen Varianten hätten eher es verdient auf den Markt zu kommen, als eine mit einem neuen BIOS geflashte Karte
Gorby
Vice Admiral
- Registriert
- Juni 2008
- Beiträge
- 7.132
Naja, 0,1Volt gegen weniger Leistung. Das ist wirklich keine Leisung. In 55nm hätte man das auch ohne Leistungseinbusen erwarten können und statt dessen einfach eine überarbeitete 2. Rev. rausbringen wie bei der GTX 260. besser wär natürlich, wenn alle derzeitigen Karten bei nV in ein gescheites neues Namensschema umbenant werden, damit man von Anfang an sieht, wo man ist. Denn momentan hört sich für jemanden der gar keine Ahnung hat 9500GT schneller an als GTX295 finde ich.
Raucherdackel
Banned
- Registriert
- Apr. 2008
- Beiträge
- 1.874
Zum Thema HD4870:
das Heruntertakten des GDDR5 Speichers bewirkt schon ne deftige Energieeinsparung, nur wieso hat das ATI selber nicht implementiert? Weil durch das stetige Verändern des Speichertaktes der Speicherkontroller instabil wird. Dieses Phänomen tritt seit der HD2K auf. Meine HD3450 (DDR2)taktet per BIOS-Mod im 2D auf 150/150 bei 0,8V, läuft so gesehen einwandfrei, bis auf gelegentliche Freezes, die sich auch durch das original-BIOS nicht mehr beheben lassen. Bei meiner HD3870 (GDDR4) dasselbe Bild. Die laufen ein paar Wochen bzw Monate einwandfrei, und dann beginnen die sporadisch zu freezen. Tritt aber nicht bei allen Karten auf...
das Heruntertakten des GDDR5 Speichers bewirkt schon ne deftige Energieeinsparung, nur wieso hat das ATI selber nicht implementiert? Weil durch das stetige Verändern des Speichertaktes der Speicherkontroller instabil wird. Dieses Phänomen tritt seit der HD2K auf. Meine HD3450 (DDR2)taktet per BIOS-Mod im 2D auf 150/150 bei 0,8V, läuft so gesehen einwandfrei, bis auf gelegentliche Freezes, die sich auch durch das original-BIOS nicht mehr beheben lassen. Bei meiner HD3870 (GDDR4) dasselbe Bild. Die laufen ein paar Wochen bzw Monate einwandfrei, und dann beginnen die sporadisch zu freezen. Tritt aber nicht bei allen Karten auf...
TheGhost31.08
Captain
- Registriert
- Okt. 2007
- Beiträge
- 3.514
Bisschen Witzfrei die Karte. Meine Karte steuer ich mit RivaTuner auf 720mhz und 1Ghz Ram, bei 3D-Anwendungen die es brauchen (Standardtakt übrigens). Ansonsten läuft sie die ganze Zeit auf 350mhz Kern und 500mhz Ram. Wieviel Strom sie dann weniger brauch kann ich nicht sagen, aber sie wird 2C° kühler
und wenn ich jetzt noch die Spannung ändern könnte... ^^
jan4321
Lt. Commander
- Registriert
- Juli 2007
- Beiträge
- 1.929
Das verwirrt doch nur. Ich bleib dabei, wer Power will Nvidia und wer P/L Sieger will ATI. Klar hat big N auch gute Middle karten, ATI find ich nur da besser. Ich glaub kaum, das die die 20 W nur mit 55nm und weniger Spannung/Takt erreichen.
Demo@elite
Banned
- Registriert
- Feb. 2007
- Beiträge
- 87
hmm Man könnte doch einfach die normale 9600gt nehmen und diese 50mhz runtertakten und auf 1 volt drosseln ! Also das is meine Theorie ! Belehrt mich was besserem wenn ich da falsch liege!
Ähnliche Themen
- Antworten
- 25
- Aufrufe
- 2.070
- Antworten
- 94
- Aufrufe
- 13.886
- Antworten
- 8
- Aufrufe
- 1.890
- Antworten
- 8
- Aufrufe
- 2.296
- Antworten
- 8
- Aufrufe
- 2.317