Shader übertakten - nur wie hoch??

Ultrawoach

Lieutenant
Registriert
Jan. 2007
Beiträge
558
Hallo zusammen,

bin momentan damit beschäftigt meine 88GTX zu übertakten, da ja Crysis bekanntlich recht anfordernd ist :-)

Es ist ja möglich mit dem Rivatuner seperat den Shadertakt zu übertakten.
Nun meine Frage:

Woran merke ich beim Shadertakt dass ich am ende der Fahnenstange angekommen bin?
Beim Speicher bekommt man Grafikfehler, bei der GPU hat mann evt Bild Freezez.

Aber woran merke ich denn nun ob ich es mit dem Shadertakt übertrieben habe?

aKtuell läuft meine GTX mit 612/1620/2100

Hat hier jemand erfahrungen bezüglich Shadertakt?

Grüsse
 
Würde mich echt auch mal interessieren was passiert wenn die zu hoch sind.
 
Guck dir die Temps an und achte auf Grafik-Fehler...Scanne mit Ati-Tool nach Artefakten. Wenn nichts problematisches auftritt, dann sei glücklich. Meine GTX verträgt mit dem Standard-Kühler keine 1620 Shadertakt und 2100 Speichertakt. Sehr beachtlich!
 
Aber kann man den Shader und Ram Temps. auslesen ?
 
Das ist eine verdammt gute Frage, wie weit man den Shadertakt hochtreiben kann.
Alles auf standard lassen und nur den Shadertakt erhöhen. Ist das möglich ?

Soll ja angeblich mehr bewirken, als wenn man GPU und Ram Takt erhöht. Man schaue sich die 88GT an.
 
Wirkt auf jeden fall mehr, ich hatte Core auf 600, Ram auf 1900 und Shader auf 1400 da hatte ich im 3dmark 11900, beim gleichen nur mit Shadertakt 1500, 12400. Meine GPU geht nicht höher als 600 Mhz:mad:.
Wo ist denn die Temp Grenze vom Ram ?
 
Zuletzt bearbeitet:
Ja dass ist möglich - mit Rivatuner, oder seit heute neu der komische MSI treiber.

Beim Shader wird soweit ich weiss nur der Multi geändert. Somit ergibt sich ein höherer Shadertakt.

Bei Crysis ist der Shader das wichtigste. Siehe tests von PCGH.
Bei mir hat eine 20% ige übertaktung des Shaders ca 10 FPS mehr bei High und 1680x1050 gebracht.

Reines Core clocken bringt bei weitem nicht so viel.
 
Hallo zusammen

Was passiert wenn Shadertakt zu hoch ist? Habe eine 8800gts (Asus A3)und habe es getestet wie hoch ich gehen kann. Mein Shader geht locker mit 1500mhz, bei bei 1600mhz kommen übelst viele gelbe Punkte bei Artifactenscan mit ATI TOOL. Mein bestes OC Ergebnis: 660/1528/1100mhz(2200mhz), aber lass sie mit 600/1500/1000, 650/1500/1000 laufen oder auch standard je nach Game.
 
Wie kriegt man denn das Ati-tool bei einer Nvidia zum laufen ?
OC ist eigentlich immer Schädlich ;)
 
Der Würfel ist geil, jetzt habe ich die Core und Shader Enden gefunden.
 
Wenn du OC und dann mit ATI TOOL stundenlang testet, OHNE FEHLER, dann ist das nicht schädlich. Wenn die Temps im grünen Bereich liegen, sollte nichts kaputt gehen. (sollte ;) Ausserdem hat die Grafikkarte Garantie und es ist ja nich so das die 8800er nichts verträgt. A3 Revision verträgt nunmal mehr als A2. Die Ultra hat A3.


PS: RivaTuner 2.06 released!
 
Zuletzt bearbeitet:
Bevor man irgendwelche Taktraten hochschraubt sollte man wissen, dass seit dem G80 die Taktraten nicht 1:1 gelten, sondern ihre "Bereiche" haben. Das gilt für den Kerntakt der GPU als auch für den Shadertakt. Ich lasse mir immer per RivaTuner OSD die Taktraten anzeigen.

Der Shadertakt sollte immer mit Standard GPU und VRAM Takt ermittelt werden, um diese als Fehlerquelle auszuschließen. Hierfür bietet sich nun mal die Kombination aus RivaTuner und ATiTool (0.27 beta) an. Dieser Würfel belastet die GPU doch sehr stark, dort können auch die GPU Temps ausgelesen werden. Dazu sollte man aber die GPU schon ne gute halbe Stunde auf einem neuen Takt testen, um sicher zu gehen, dass diese den Takt auch schafft, ähnlich wie bei CPUs. Da macht man den Prime Test ja auch keine 5min um sagen zu können, dass es stabil läuft.

Bei meiner GTS ist es so, dass die GPU zwar bis 684MHz läuft, um aber nicht am Limit zu sein stelle ich diese auf 675MHz runter (dazischen gibt es keinen Wert. Je nach dem was näher gewählt wurde springt die GPU eben auf 675MHz oder eben auf 684MHz). Der RAM ist bei mir mit 1080 im effektiven Einsatz, 1100 ist das Maximum. Bei Shader kann ich das Maximum an sich nicht testen. RivaTuner geht nur bis 1782MHz, um aber auch hier nicht am (möglichen) Limit zu sein stelle ich "nur" 1724MHz ein (auch hier gibt es keinen Wert dazwischen und der eingestellte Takt stellt sich auf den näheren Wert dieser beiden).

Wenn ihr einen Wert ermittelt habt und an den nächsten wollt, dann stellt den zuvor ermittelten Wert wieder auf Standard und testet den anderen Takt (also dann Kern, Shader oder RAM). So können die Fehlerquellen minimiert werden.

EDIT:
Ich habe nun die Liste gefunden, auf die ich mich mit den "Bereichen" beziehe.
 
Zuletzt bearbeitet: (Liste für Taktraten ergänzt.)
Aber kann mir mal einer sagen wie ich wirklich nur den Shadertakt beim Rivatuner erhöhe ?
 
Auf den Reiter "Power User" -> System
NVAPIShaderClockControl eine "1" dahinter
NVAPIUsageBehavior ebenfalls eine "1" dahinter reinschreiben.

Rivatuner neustarten.
In den low level system settings rein und "link clocks" aktivieren.

Geht nur mit Nvidia.
Wie kann ich den Shadertakt bei meiner HD 2900 XT verändern???
 
Ich habe bisher noch von keiner Möglichkeit gehört, dass man überhaupt bei ATi den Shadertakt ändern kann.
 
Ach verflickst. Vielleicht währ das gerade bei meiner Grafikkarte gut. Shadertakt hat ja was mit den Rops zu tun die bei der 2900 xt nen Fehler oder Defekt haben.
Wenn man die Geschwindigkeit die verloren geht wieder mit Übertakten etwas ausgleichen könnte währ spitze.
 
Zurück
Oben