Leserartikel Nvidia GeForce 8800 GT (G92) - Cool & Quiet

Sagen wir mal so, die Reduzierung der Spannung verlängert auf der einen Seite schon die Lebensdauer, dafür verkürzen die Taktänderungen des VRAMs jedoch wiederum die Lebendsdauer, denn das mag er nicht sooooo gerne. Alles in allem würde ich behaupten, dass die Lebensdauer außen vor bleibt, denn in drei bis vier Jahren ist die 8800 GT sowieso wieder ein altes Eisen.

Was die VID angeht, verstehe ich noch nicht, wie Du am Diagnostic Report nun erkennen kannst, welche VID anliegt. Es werden doch nur die verfügbaren VIDs angezeigt, aber nicht welche anliegt, oder?
 
Hey Sebbekk:
Das ist der beste User-Bericht, den ich bisher gelesen habe. :daumen: :daumen:

Allerdings:
Hast du vorher irgendwie getestet, wie weit du mit der Vcore runter kannst? Ich konnte dazu nichts finden (oder bin ich blind?).
Und dann noch: Gibt es nicht auch einen "besseren" Weg zwischen den 2D/3D-Clocks zu schalten als über den Videospeicher zu gehen?
 
@Ruby, freut mich zu lesen, dass es Dir so gut gefällt!

Wirklich testen kann man die Spannung vorab nicht. Um Schnitzels Frage zu beantworten, die eingestellte Spannung gilt immer, egal in welchem Zustand, wenn ich 0,95 V einstellte, dann läuft die Karte damit.

Da im BIOS so genannte Bootup Clocks definiert sind, die mit 400/800/400 MHz relativ niedrig liegen und die Karte in DOS nicht wirklich belastet wird ist es höchst unwahrscheinlich, dass es nen Blackscreen geben wird. Und zur Not kann man auch das backup-BIOS blind zurückflashen. War bei mir aber noch nie von Nöten.

Was das Testen der niedrigeren Spannung angeht, so lege ich einfach die niedrigste verfügbare Spannung fest, boote Windows und belaste dann mit rthdribl. Danach noch ein paar Runden Crysis o.ä., also etwas das wirklich reinhaut und dann kann man relativ seicher sein, dass die Karte stabil läuft. Übliche Fehler durch zu niedrige Spannung bzw. gleichzeitig zu hohen Takt sind in etwa dieselben, wie wenn man zu viel übertaktet. Also längere Lags, farbige Punkte oder bunte Strahlen sowie komplette Systemhänger oder Abstürze.

Es gibt imho leider keinen anderen Weg, zwischen 2D- und 3D-Takt umschalten zu lassen, als mit einem Trigger-Wert des Videospeichers.
 
@ sebbekk

Wenn ich mich recht entsinne, wurde nach dem Mod nur noch die aktuell anliegende (es gibt ja nur die 0.95v) VID angezeigt.

@ Schnitzel_12000

Die 0.95v gelten in 2D wie in 3D - die 88GT kennt ja nur eine Spannung. Hast du vll 2D und 3D verwechselt?

@ RubyRhod

Die Idee mit der VRAM-Triggerung kam von sebbekk, man kann natürlich die Clocks auch an die GPU-Temp oder sonst etwas koppeln.
Jedoch halte ich wie er, die Kopplung an den VRAM für am sinnigsten, denn viel VRAM genutzt wird, kann man zu 99% von einer 3D-Applikation ausgehen.

EDIT
@ sebbekk


Hmmpfff ... zu spät^^

cYa
 
Moin y33H@,

ne, ist aber leider nicht so, wäre ja schön, wenns so wäre!
Guckst Du Anhang, Diagnostic Report einer 8800 GT mit 0,95 V.
 

Anhänge

  • RT.jpg
    RT.jpg
    147,2 KB · Aufrufe: 697
Naja, da man weiß, dass eine GT immer die gleiche Spannung hat, müsste man generell von dem niedrigsten Voltage Level ausgehen ;)

cYa
 
Sehr sorgfältig und professionell gemacht. Das gefällt mir gut das Review!

Allerdings ist mir das persönlich zu kompliziert und zu gefährlich, daran selbst Hand anzulegen. Abgesehen davon finde ich die Unterschiede um die 15 Watt jetzt nicht so arg merkbar.

Die niedrigeren Temps sind natürlich klasse, aber der AC S1 schluckt das ohnehin. Auf 90°C komme ich bei weitem nicht.

Hoffen wir, dass die neuen Karten à la Hd4000 und Geforce 10 endlich mal vernünftige, leise und im idle sparsame Techniken verpaßt bekommen.
Mit ausreichend Ram und Bandbreite für Hd Gaming, einfach mit einem gesunden Paket. Das kann doch so schwer eigentlich nicht sein :)
 
y33H@ schrieb:
Naja, da man weiß, dass eine GT immer die gleiche Spannung hat, müsste man generell von dem niedrigsten Voltage Level ausgehen ;)
Ich vermisse bei Deiner Aussage ein wenig die Logik. Der Diagnostic Report sieht genauso aus, wenn die 8800 GT mit irgend einer der anderern VIDs liefe. Können wir uns endlich darauf einingen, dass man mit RivaTuner nicht auslesen kann, welche VID anliegt?
 
Können wir uns endlich darauf einingen, dass man mit RivaTuner nicht auslesen kann, welche VID anliegt?
Das war bereits eine Zusage, der Smiley sollte das andeuten - mit dem Rivatuner gehts de facto nicht.

cYa
 
@y33h@
Nein ,hab ich nicht.
Sollten die 0,95 V nicht für den 2D-Betrieb reichen,bekomme ich von Anfang an kein Bild mehr.
Das würde heissen das ich ohne PCI- oder onboardgrafik auch keine Möglichkeit habe das Bios wieder zurück zu flashen.
Ich wollte eigentlich nachfragen ob in dieser Hinsicht eine Gefahr besteht oder ob die 0,95 V auf jeden Fall für ein zuverlässiges 2D-Signal reichen.
 
0.95v reichen ja für 3D samt OC bereits aus, d.h. für 2D auf jeden Fall und bei imo jeder 8800GT.

cYa
 
Mit einem genialen Hinweis vom user LAW-Mastermind konnte ich den Abschnitt zu RivaTuner etwas kürzen und gleichzeitig ein Kompatibilität zu Windows Vista gewährleisten.

Die Änderung besteht darin, dass die automatische Umschaltung zwischen 2D- und 3D-Takt nun nicht mehr über die Belegung des Videospeichers getriggert wird, sondern über die Hardware-Beschleunigung, so wie es üblicher Weise auch sein sollte.

Ich hatte bis dato Schwierigkeiten, über den Hardware-Monitor-Eintrag "Hardware acceleration" zu triggern, weil keine Daten in den Monitor übergeben wurden. Der Trick ist, dass man den RivaTuner Statistics Server laufen haben muss, damit das so genannten Hooking gewährleistet ist.

Das HowTo wurde im zweiten Abschnitt daher aktualisiert.
 
aber es ist doch eigentlich egal ob mans jetzt über den videospeicher oder über die Hardware-Beschleunigung macht? oder ist die Hardware-Beschleunigung besser dazu geeignet?
 
Axel90 schrieb:
aber es ist doch eigentlich egal ob mans jetzt über den videospeicher oder über die Hardware-Beschleunigung macht? oder ist die Hardware-Beschleunigung besser dazu geeignet?
Ist eigentlich egal, aber das mit dem Videospeicher ging nicht mit Windows Vista. Was ich beobachten konnte, war nur, dass der Takt beim Videospeicher als Trigger einfach öfter runtertaktet, z.B. wenn ich Crysis nur in die Taskleiste minimiere. Dann wird der Videospeicher so sehr entleert, dass auch der Takt wieder abfällt, da aber immer noch ne Hardware-beschleunigete Anwendung läuft, bleibt der Takt mit dem Hardware-accelerator-Trigger immer noch auf 3D-Takt.

Aber das sind Feinheiten, ansich ist es egal, worüber man nun triggert. Hardware acceleration finde ich persönlich eleganter und weil es zudem die einzige Möglichkeit für Vista ist, habe ich nun diesen Weg ins HowTo aufgenommen.
 
moinsn sebbekk.

Hab mich mal (dank deinem Zureden im Artikel ^^) dran gemacht meine 88GT mit weniger Spannung zu versorgen - wollte das eigentlich nicht tun, schließlich ist sie kein halbes Jahr alt und billig war sie auch nicht ;)

Nun denn, vorweg: ich hab ne Zotac 8800GT (non-Amp!) - diese ist Werkseitig nun schon gut übertaktet (660/1600/1800) aber ich habs trotzdem probiert:
  • 0,95V: Flash einwandfrei, Neustart problemlos, Windows keine Probleme, beim Laden von 3D-Anwendungen freezed das Bild (getestet: GTR2 und Colin Dirt)
  • 1,00V: Flash ebenfalls einwandfrei, genau wie Neustart und Windows; Laden von 3D-Anwendungen glückte, das arbeiten mit selbigen führte aber wieder zum freeze (Colin Dirt)
  • 1,05V: Alles bestens. Immerhin bissl was gespart ;)
Vlt. kannst du das in deinen Artikel aufnehmen, also das Leute mit ner Zotac oder ähnlich stark übertakteten Werkskarte nicht gleich auf 0,95 sondern auf 1,05V gehen sollten - sonst gibts hinterher nur wieder so viel gemeckere ;)

(Karten wie die AMP-Editions sind vmtl. allgemein nicht undervolting-fähig, dafür sind sie einfach zu hoch getaktet :/)
 
Zuletzt bearbeitet:
Zuerst einmal ein dickes Lob an dich sebbekk, prima erklärt das ganze und schön bebildert!

Sag mal, wie kann ich eientlich jetzt beim 2.08er den Statistic Server nach belieben aktivieren und deaktivieren? Ich hatte früher immer unter Launcher -> + -> Regular Item mir mit 2 Tastenkürzeln das Ein- und Ausblenden der Informationen eingestellt. Da ich ja nicht immer diese Daten sehen wollte/brauchte, war dies eine nützliche Sache. Aber seit dem 2.08er ist diese Kommandozeile nicht mehr da und man muss da was manuel eintragen, aber wie das geht weiß ich nicht. In älteren Versionen konnte man einfach sagen "Assosiation application" und dann dort zwischen verschiedenen Dingen wählen, ua. eben "start server" und "stop server".

Anhang anzeigen 91806

Links ist der alte RivaTuner zu sehen, mit der Option, und rechts der neue ohne eben diese Option. Also müsste man da von Hand diese Daten eingeben nur weiß ich nicht wie die Parameter heißen.
 
Zuletzt bearbeitet:
was meinst du mit performance schub? was für ein performance schub?
 
Zurück
Oben