Offizieller GTX260 Overclocking Thread

ich hab heut Spaßeshalber mal meine Asus weiter übertaktet. Normal läuft se ja siehe Screeny weiter oben. Dann hab ich mal den versuch gestartet, hab 750/1250/1550..glaub ich..hätt ich mal aufschreiben sollen ^^.. eingestellt, dann mal den 3Dmark Vantage durchlaufen lassen und es hat für 10000 Punkte und nen paar zerquetschte gereicht. Temperaturmäßig lag die Karte bei ca. 60° (aquagrafx sei dank). Aber die Werksübertaktung reicht erstmal vollkommen.

Und dass die Karte unter Last an die 80° rankommt, das ist durchaus normal. War bei meiner auch so, 62° idle und ca. 82° Last.

Mfg Matti
 
Huuuh! Fett.

Ich muss mich unbedingt heute nochmal ransetzen und gucken was so geht.
 
die Stabilität hab ich noch net getestet, aber es hat sowohl im 3DMark Vantage als auch im 3DMark 06 keine Grafikfehler angezeigt. Bei Gelegenheit mach ich mal den Stabilitätstest mit Grid oder so. Da kommt schnell ne Stunde zusammen ;o)

Mfg Matti
 
ich habe mich jetzt auch mal daran gemacht meine GTX 260 von Gainward zu übertakten, komme aber noch nicht einmal auf 665/1404/2250Mhz.

Werde die nächsten Tage mal die maximalen stabilen Taktraten ausmachen.


Kann ich bestätigen. War bei meiner Gainward auch so.

Mal ganz abgesehen davon das sie sowieso über 100°C warm wurde und ich stark davon ausgehe, dass sie schlampig montiert war.

Wurde aber auch ohne OC so extremst warm. Werde hoffentlich die Woche noch mein Ersatzexemplar bekommen dann gibts weitere Infos :p

Muss man halt echt etwas Glück mit seiner Karte haben wenn man Übertakten möchte :)

lg
 
Ich muss meine Aussage zurück nehmen!

Ich habe jetzt die maximalen, aber auch stabile, Taktraten erreicht (bis auf VRAM-Takt, da das EXPERT Tool nur bis 1200 Mhz zulässt):

GPU: 715 Mhz
Memory: 1200 Mhz (da geht noch mehr)
Shader: 1431 Mhz


sobald ich nur einen Mhz bei GPU/Shader erhöhe gibt es eine Artefakteparty beim ATI Tool :lol:

Die maximale Temp beträgt 85°C

EDIT: Der Grund, warum ich vorher nicht so hoch mit dem Takt gekommen bin ist, dass wenn man den Shadertakt linked mit dem GPU Takt hat, die GTX 260 nicht besonders weit mit den Taktraten kommt.
Wenn man jedoch auf unlinked klickt, kann man den GPU Takt immer weiter erhöhen und bei einem bestimmten Wert geht der Shader takt automatisch mit nach oben.
Ist das ein allgemeines Phänomen der GTX 260 (GTX 280)?
 

Anhänge

  • Maximale Übertaktung.jpg
    Maximale Übertaktung.jpg
    121,5 KB · Aufrufe: 1.805
  • Maximale Übertaktung Temp.jpg
    Maximale Übertaktung Temp.jpg
    78,2 KB · Aufrufe: 1.297
Zuletzt bearbeitet:
Hm. Gab es da nicht auch einen Zusammenhang, dass GPU und Shader innem best Verhältnis sein sollen? Mag mcih auch irren.
 
Eigentlich solle alles einigermaßen gleich hoch sein, was ja fast immer der Fall ist.

z.B. Würde ein GXT 260 mit 1100Mhz Coretakt und Standard Memorytakt wenig Sinn machen weil der Speicher nicht hinterherkommt die Daten bereitzustellen.
 
Ja, so meinte ich das. Aber gibt es genauere Angaben über das Verhältnis Core-Shader-Mem ?
 
Laut meinem Rivatuner ist das Verhältnis 2,15. Aber: ich habe oft von 1:2,5 gelesen.

Werde mich jetzt auch mal an meine jungfräuliche Karte ranmachen ;)

Edit: Von Default auf 690GPU Takt schonmal 20W mehr Verbrauch.
In Verbindung mit hochgezogenem Ramtakt gehen aber "nur" noch 710Mhz.

Ergebnis:

710Mhz/1530Mhz/1200Mhz (GPU/Shader/Ram)
 
Zuletzt bearbeitet:
Gib´s ihr rischtisch, ganz egal wo! :D

Ja, da steh ich auch in etwa derzeit. N paar Mhz mehr.
Beim Bech komm ich auf 14700. is aber auch egal... sorri.
 
Zuletzt bearbeitet:
Im 3Dmark?

Ich hab mit 4050Mhz grad mal 14.400 Punkte (Graka @default) im Sch...mark06, irgendwie kommt mir das so wenig vor, wenn ich mir die Liste hier durchschaue. Das erreichen manche mit ner DualcoreCPU und ner OC 88GTX
Mit den Taktraten werd ich morgen mal testen. Ich kämpfe derzeit erstmal mit meiner Signatur...und morgen dann noch finetuning Cpu.

Dennoch bleibt sie max. bei 84°C und ist auch nicht störend laut, 49% der Lüfter. Aber bei 100% ist er deutlich lauter als der Lüfter auf meiner alten Gainward 88GT.
 
Zuletzt bearbeitet:
Meine ist bei 727 / 1485 / 1260 max tem. ist auch nur 82° mit furmark getestet:D hab sie schon seit wochen so laufen und bis jetzt keine probleme gemacht
 
Habt Ihr eure GTX 260 auch mit ATI Tool auf Artefakte getestet? Oder nur mit 3DMark06?
Das ATI Tool ist von den 3D Anwendungen die ich habe am empfindlichsten.

Ist es eigtl. schädlich für die Grafikkarte, wenn man im ATI Tool Artefakte hat, aber in den Spielen keine?
 
Da mein Straight Power 500W heute endlich angekommen ist, habe ich mich natürlich gleich an's Übertakten rangemacht (und das sogar ohne Garantieverlust, EVGA sei Dank :D).

Vorläufiges Ergebnis ist eher durchschnittlich.

Im Detail:
Der Lüfter bleibt erstaunlich leise, ich höre ihn unter Last bei 45 % (830 U/min) nur leise und er ist keinesfalls störend (und ich hatte vorher eine passive 8800 GT drin). Temperatur bleibt bei ATITool-Last auf maximal 71°C Core-Temperatur, geschätzte Raumtemperatur liegt bei 25°C.

Leute, deren Karte auf 100 Prozent Lüfterdrehzahl geht, haben, denke ich mal, wohl einfach schlampig zusammengebaute Hardware erwischt. Wie gesagt, meine bleibt immer unter 50 Prozent.


Der VRAM lässt sich ziemlich gut übertakten, 1288 MHz waren ohne Artefakte im ATITool möglich (allerdings nur circa 60 Sekunden getestet), 1296 führten zur schonmal angesprochenen "Artefakteparty".

Core und Shader gehen linked bis circa 650/1404 MHz.
Unlinked gehen die Shader auch nur bis 1404 MHz, der nächsthöhere Schritt, 1458 MHz, ergibt wieder massenweise gelbe Artefakte.
Der Chip läuft momentan mit 675 MHz, mal sehen, wie weit ich noch komme.

Also momentan höchstmögliche Taktraten, die einzeln stabil (>3 Minuten "Scan for Artifacts") sind: 675/1404/1260 MHz.

Noch was Anderes:
Ist es bei euren Karten auch so, dass sich die einzelnen Taktraten besser (weiter) übertakten lassen, als alle drei zusammen gleichzeitig?
Das war bei meiner 8800 GT so. Hatte überall einzeln stabile Werte ermittelt, dann alle drei MHz-Zahlen gesetzt und schon gab es einen Haufen Artefakte.


Edit:
Ich war mal so frei, eine einfache Liste mit den bisher geposteten Werten zu erstellen, sortiert aufsteigend nach Chiptakt.
Bei mehreren Posts für die gleiche Karte habe ich nur die höchsten (stabilen) genommen.
Keine Garantie auf Korrektheit/Vollständigkeit, habe die Liste gerade eben so nebenbei erstellt und nicht korrekturgelesen ;)


Core....Shader..VRAM
575.....1242....0999 (Standard)
650.....1400....1150
675.....1404....1288
675.....1455....1100
700.....1425....1200
702.....1512....1188
710.....1530....1200
715.....1431....1200
720.....1458....0999
727.....1485....1260
 
Zuletzt bearbeitet:
Noch nichtmal nach einer Stunde spielen kann man sagen, dass die Grafikkarte auf jeden Fall stabil ist.
Also ma lieber n paar Stunden zocken oder Fur Benchmark laufen lassen.
Sowas ist n bisschen anspruchsvoller als der Fellwürfel vom AtiTool.
 
Hypocrisy schrieb:
Aber gibt es genauere Angaben über das Verhältnis Core-Shader-Mem ?
"Früher" (Geforce 8 und 9) war es so, dass die Shader 2,5 mal so hoch wie der Chip waren, bei der GTX200-Serie sind die Shader 2,15625 mal so hoch.
Beim Übertakten ist es so, dass die Shader mindestens ~2,05 mal so hoch wie der Chip sein müssen, bei einem kleineren Wert springt der Chiptakt runter auf 100 MHz.

Das Verhältnis 2,05 muss übrigens nicht real sein, sondern hängt von den eingestellten Werten ab.
Zur Erläuterung: Man kann ja nicht stufenlos in Ein-MHz-Schritten übertakten, sondern immer nur stufenweise. Nach 1404 MHz Shadertakt ist der nächstmöglich höhere 1458 MHz.
Stellt man jetzt 1404 MHz Shadertakt ein (im RivaTuner), dann kann man den Chip bis auf 687 MHz übertakten, bei 688 MHz springt er wieder runter auf 100 MHz.
Stellt man jetzt 1410 MHz Shadertakt ein, takten die Shader real immernoch mit 1404 MHz (siehe Hardwaremonitoring von RivaTuner), der Chip geht dann allerdings bis auf 690 MHz zu übertakten.

Fragt mich bitte nicht, warum das so ist :D


Edit:
Höchstmögliche Übertaktung meiner EVGA GTX260
Core/Shader/VRAM
701/1431/1240 (in RivaTuner eingestellt)
702/1404/1242 (real im Hardware Monitor angezeigt)
 
Zuletzt bearbeitet:
Ahh! Alles klar. Danke für die ausführliche und einleuchtende Beschreibung. :daumen:
Jetzt ist auch klar, warum sich die eingestellten Werte, teils ändern.

Um sicherzugehen also stets Coretakt * 2,1 = Shadertakt.
 
Zurück
Oben