GTX570 - Energiemodus

olo

Lieutenant
Registriert
Mai 2010
Beiträge
820
Hallo,
ich habe mir meine GTX570 endlich einbauen können. Hat auch ohne Probleme geklappt. Allerdings habe ich einige Fragen bezüglich des Heruntertaktens des Chips.
Die Grafikkarte ist via DVI mit meinem TFT verbunden und zudem über die mini-HDMI-Schnittstelle mit meinem LCD-Fernseher.
Benutze ich nur den TFT, hat sie Taktraten von 50,6Mhz für die GPU z.B.
Ich nehme an, dass sie in diesem Zustand im Sparmodus läuft. Die Temperatur liegt auch bei 42°C im Idle.
Sobald ich aber nun meinen LCD-Fernseher dazu schalte, nur um z.B. über diesen Musik zu hören und der Desktophintergrund mitläuft, taktet sie sich hoch, aber ich weiß nicht ob das nun ein Zwischenlevel ist oder ob sie nun komplett hochgetaktet ist. Jedenfalls steigt die Temperatur auf 55°C an.
Ich hatte vorher eine HD5770 von Sapphire und ich wollte mal Fragen ob das normal ist, dass die GTX570 in so einen 3D-Lowtakt geht und ob es bei ATI genauso der Fall gewesen ist. Jedenfalls konnte ich bei der ATI keine Taktratenerhöhung feststellen, geschweige denn hat sich die Temperatur verändert.
Insbesondere interessiert es mich, wieviel Strom die 570er aus der Leitung zieht, wenn sie in diesem 3D-Lowtakt ist, weil im Idle soll sie 20W ziehen, aber das würde dem Idlemodus ja nicht mehr entsprechen.

Schönen Tag noch
Ergänzung ()

Ansonsten bin ich mit der Leistung der Karte hoch zufrieden, auch die Lautstärke habe ich mir schlimmer vorgestellt. Im Idle genauso leise wie meine alte Vapor-X HD5770. :)
 
Nivida kriegt dass noch nicht so gut hin wenn ein 2. Monitor hinzugeschaltet wird, ist ganz normall das die Karte dann auf Last geht.
 
Das ist meines Wissens bei NV-Karten normal, dass sie auf die hälfte (also ein Zwischenlvl) hochtakten, bei Dual Monitoring.
 
olo schrieb:
Ergänzung ()

Ansonsten bin ich mit der Leistung der Karte hoch zufrieden, auch die Lautstärke habe ich mir schlimmer vorgestellt. Im Idle genauso leise wie meine alte Vapor-X HD5770. :)

wie deine alte vapor unter volllast ;) hast du vergessen...

glaube nicht das sich dein problem umstellen lässt, es sei denn du veränderst die bios einstellungen deiner karte, also greifst manuell ein.
 
das "problem" hab ich mit meiner gtx580 auch, aber als störend empfinde ich das nicht...
 
Getreu nach dem Motto, its not a bug it is a feature.

Stört ja auch nicht, nur ist es komisch wenn man es nicht weiß!
 
Ohne diese Prblematik selbst zu kennen/testen zu können - versuch doch mal mittels MSI Afterburner o. Rivatuner die karte auf Stromsparen zu setzen. Habe bei meinem Desktop eine feste Taktrate beim Start (Shader, Core + Memtakt auf minimal, sowie den vCore herabgesetzt) von Win7. Brauche ich mehr, kostet es mich nur 3 Klicks.
 
Die Karte taktet beim Anschluss von zwei Monitoren direkt auf ihre volle Leistung. Haben die beiden Monitore aber die gleiche Auflösung, soll die Taktung angeblich wieder stark verringert werden. Du wirst also zwei unterschiedliche Auflösungen nutzen?
 
Ich hab mit 2 verschiedenen Auflösung auch nud sie bleibt dann so zu sagen auf 3D betrieb. Hat mich bis jetzt aber nie gestört :D
 
Jop, einmal 22" mit 1680x1050er Auflösung und einmal FullHD-Auflösung. Hmm, stören tut es mich auch nicht besonderlich. Habe mich nur gewundert, dass es bei ATI anders ist. Auf Volllast geht sie trotzdem nicht, jedenfalls deute ich das an den Temperaturen, weil unter Volllast bewegt sich meine bei 77°C.
 
Ich denke, dass das aber trotzdem nicht so gut ist, da im desktop Betrieb keine hoher Chiptakt benötigt wird, aber die Karte halt mehr Strom verbraucht.
Das mit dem Temperaturen kann man nicht so sagen, es ist natürlich was anderes wenn ein pc Spiel gespielt wird. Dennoch wird im dualmonitor Betrieb der vcore des Chip erhöht um höhere taktraten möglich zu machen und dadurch verbraucht sie mehr Strom! Natürlich nicht so viel wie beim Spielen.
 
Wäre nett, wenn du mir Werte geben könntest, ohne, dass es zu Problemen kommen kann. :)
Diese Alternative wäre echt eine Lösung, wenn beide Monitore laufen. :)
Benutze EVGA Precision. Ich weiß, damit kann man 2D und 3D-Profile erstellen, jedoch weiß ich nicht wie. :D
Ergänzung ()

Mir ist schon bewusst, dass sie dadurch mehr Strom frisst, bloß frage ich mich, ob es da eine Lösung für gibt (z.B. durch Benutzung von Profilen via Software).
Ergänzung ()

chris193 schrieb:
Ohne diese Prblematik selbst zu kennen/testen zu können - versuch doch mal mittels MSI Afterburner o. Rivatuner die karte auf Stromsparen zu setzen. Habe bei meinem Desktop eine feste Taktrate beim Start (Shader, Core + Memtakt auf minimal, sowie den vCore herabgesetzt) von Win7. Brauche ich mehr, kostet es mich nur 3 Klicks.

Hoikaiden schrieb:
wie deine alte vapor unter volllast ;) hast du vergessen...

glaube nicht das sich dein problem umstellen lässt, es sei denn du veränderst die bios einstellungen deiner karte, also greifst manuell ein.

Die Vapor-X hat man bei 100% Lüfter auch rausgehört, bloß ist der Lüfter der GTX570 noch ein Stück aufdringlicher. Bei Spielen interessiert es mich nicht, da ich eh Kopfhörer benutze. Hauptsache im Idle ist sie angenehm leise.
 
Der Grund für das beibehalten hoher Taktraten im Idle bei Multi-Monitor-Setups liegt darin begründet, dass aktuelle Grafikkarten (sowohl NVIDIA als auch AMD) Probleme mit Bildflackern haben, wenn mehrere Monitore eingesetzt und die Taktfrequenzen umgeschaltet werden.
Dies ist eine Hardwarelimitierung (auf GDDR5 zurückzuführen) und deshalb durch Treiber o.ä. nicht zu beheben, weshalb NVIDIA und AMD als Workaround die Taktfrequenzen auf den 3D-Taktraten belassen.

D.h. wenn du die Taktraten manuell heruntersetzt umgehst du diesen Workaround und kannst dich dann mit Bildflackern herumärgern ;)

btw, hier mal ein Vergleich zwischen Idle im Single- und Multi-Monitor-Betrieb:
Single: http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index22.php
Multi: http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index23.php

Bei der GTX570 ist das ein Sprung von 24W auf 65W. Ärgerlich, aber wie gesagt leider nicht vermeidbar (sofern du kein Bildflackern haben möchtest...).

Hier auch nochmal ein Auszug aus dem HT4U-Artikel:
Seit die beiden Grafikkarten-Hersteller mittels Taktabsenkungen bei GPU und Speicher die Leistungsaufnahme ihrer Grafikboards im Idle-Modus deutlich senken können, kommt es leider zu einem Ärgernis sobald man bei diesen Desktop-Boards einen zweiten Monitor anschließt. Die Taktraten werden entweder nicht mehr so tief oder überhaupt nicht abgesenkt. In aller Regel läuft der Speicher dann mit vollem Takt und vernichtet im Leerlauf schlagartig die erhofften Einsparungen.

Als Grund dafür nannte uns AMD, dass es im Betrieb mit mehr als einem Monitor zum Bildflackern kommen kann, wenn man den Speichertakt von GDDR5 absenkt. Die teils zu beobachtenden höheren GPU-Taktungen/ -Spannungen könnten dabei eine notwendige Zugabe für die Stabilität des Speichercontrollers sein.
 
Zuletzt bearbeitet:
Danke dir. Ich hatte gehofft, dass man mit Hilfe von Profilen die Taktraten soweit verringern kann, dass es trotzdem funktioniert. :>
Naja, so oft lasse ich den LCD-Fernseher nicht mitlaufen, halt nur zum Chillen oder direktes Musikabspielen via. Computer. Sofern das Bild stimmt, kann ich mit den round about 40Watt mehr leben. Ist ja auch kein Dauerzustand.
 
war mir garnicht bewusst das die karte im Dualmonitorbetrieb hochtakten muss. Habs gleich mal getestet^^ Ergebniss:
ein monitor 100/300 (core/mem)
monitor + tv 250/1000
gaming ein monitor 775/1000

die Werte beziehen sich auf ne HD6850
 
Zurück
Oben