News Catalyst 9.6 behebt endgültig PowerPlay-Bug

Beziehst du in den Gesamtwert des Rechners auch den Verbrauch des Monitors mit ein?
Weil unter diesen Umständen wäre der Idle Verbrauch von 171 Watt garnicht so schlecht, wenn man davon ausgeht, dass der Monitor nochmal mit ca. 30Watt(Ich gehe jetzt mal so von ungefähr 19" aus) zu Buche schlägt.
Dann wären es für den Rechner gesehen "nurnoch" 141 Watt.
Im Hinblick auf die Vcore deines Quads und dessen Takt erscheint mir dieser Verbrauch recht gut zu sein, da mein Verbrauch im Idle ohne Monitor bei 138Watt liegt und das bei einem E6600@Standard und einer 8800gts512.
 
Vladez schrieb:
Hast du nur den PC oder auch den Monitor mitgerechnet?
Es ist tatsächlich NUR der Rechner. Das Energiekostenmessgerät hängt praktisch direkt und nur am Netzteil.

Vermutlich liegt der hohe Verbauch an den ziemlich hoch eingestellten Spannungen der Mainboardchipsätze und CPU. Anders läuft das System auf 4 x 3,4 GHz sonst nämlich nicht stabil.

@Pioneer_One: Du hast tatsächlich 138 Watt schon bei einem E6600@Standard und einer 8800GTS512? Dann liege ich wahrscheinlich ja doch gar nicht so schlecht im Rennen.

//Edit: Übrigens, ich habe die Spannung der Grafikkarte eben noch mal um 0,13V auf 0,923V gesenkt und konnte damit meinen Idle Verbauch um 3 Watt auf 168 Watt senken. Bestimmt nicht die Welt, aber immerhin.
 
Zuletzt bearbeitet:
Genau deshalb habe auch ich gefragt.
So kommt mein PC mit x4 940 ( @ default) zusammen mit einer 4870 Vapor X bei einem VRam Takt von 450Mhz auf etwa 169W inklusive Monitor, der auch nochmal etwa 40 Watt zieht.
Wenn der VRam unangetastet bleibt, verbraucht der Pc + Monitor etwa 190 Watt; bei einem VRAm Takt von 1100Mhz braucht der Pc ohne Monitor (!) in etwa so viel wie der Pc + Monitor bei untertaktetem Speicher.

Was mich aber stutzig geamcht hat ist, dass der Easy Energy Saver von Gigabyte den Stromverbrauch im Idle erhöht, aber bei Last den Verbrauch um 70 Watt senkt.
Zuerst habe ich dies für einen Messfehler von mir gehalten, aber auch nach dem fünften Test war das Ergebnis das gleiche :D
 
Zuletzt bearbeitet:
Day.wal.ker schrieb:
Es ist tatsächlich NUR der Rechner. Das Energiekostenmessgerät hängt praktisch direkt und nur am Netzteil.

Vermutlich liegt der hohe Verbauch an den ziemlich hoch eingestellten Spannungen der Mainboardchipsätze und CPU. Anders läuft das System auf 4 x 3,4 GHz sonst nämlich nicht stabil.

@Pioneer_One: Du hast tatsächlich 138 Watt schon bei einem E6600@Standard und einer 8800GTS512? Dann liege ich wahrscheinlich ja doch gar nicht so schlecht im Rennen.

//Edit: Übrigens, ich habe die Spannung der Grafikkarte eben noch mal um 0,13V auf 0,923V gesenkt und konnte damit meinen Idle Verbauch um 3 Watt auf 168 Watt senken. Bestimmt nicht die Welt, aber immerhin.


Ja ist wirklich so hoch:(
sind glaube 44Watt die da immernoch von der Grafikkarte veranschlagt werden
 
Juhu, es hat wieder mal

...nicht funktioniert das CC zu installieren. Ich hasse diesen MOM.Implementation Fehler -.-
 
wie schauts denn nun mit X1950 Pro AGP Karten aus?

werden dir nun noch unterstützt oder nicht, welcher is da der neuste treiber nun?

ich weiß nicht welchen treiber ich bei der karte nun nehmen soll =(
 
Oha 168 Watt Idle ist aber recht viel.
Mein System verbraucht im Idle 150 Watt mit Monitor und 100-110 ohne.

Phenom II 940 BE @3.4GHz/1.35V/C1E,C&Q an , 4GB RAM, HD4870 @150/200/0.7V, 3 Festplatten, Lautsprecher, MP3 Player mit HDD und sonstige Peripherie nicht aufgelistet (8x USB belegt) und ich komm auf 100 Watt.

Ohne Graka runtertakten verbrauchte ich aber rund 50 Watt mehr.


Also definitiv lohnt es sich Hand selbst anzulegen und die Taktraten nach unten zu drehen.
 
Zuletzt bearbeitet:
168 Watt sind in der Tat eigentlich noch viel zu viel.

Liegt aber wohl daran, dass ich den Core 2 Duo in Win7 ums verrecken nicht im Idle Betrieb automatisch runtergetaktet bekomme. EIST und C1E greifen nicht, eine Lösung habe ich bislang dazu noch nicht finden können.

Um so erfreulicher ist es, dass ich die Leistungsaufnahme der Grafikkarte nun so stark senken konnte. Powerplay ist vielleicht ein nettes Extra, wer richtig sparen möchte muss aber selbst Hand anlegen. Im Grunde genommen ist es nicht ausreichend, einfach nur den Takt der GPU runter zu reduzieren und den Speicher trotzdem auf "voller Pulle" weiter braten zu lassen. Schade eigentlich, dass der Chiphersteller selbst bislang nicht dazu in der Lage ist, den Chiptakt gleich mit zu senken.
 
Bei mir unter Vista X64 ist der Bug endlich behoben. Beide Kerne takten wieder mit 297 MHz.
An alle anderen 3870X2 User. Habe den Catalyst 9.5 ganz normal deinstalliert und den 9.6 installiert. Treiberreste können anscheinend nicht verantworlich sein das es immer noch nicht funktioniert.
 
Day.wal.ker schrieb:
168 Watt sind in der Tat eigentlich noch viel zu viel.

Liegt aber wohl daran, dass ich den Core 2 Duo in Win7 ums verrecken nicht im Idle Betrieb automatisch runtergetaktet bekomme. EIST und C1E greifen nicht, eine Lösung habe ich bislang dazu noch nicht finden können.

Um so erfreulicher ist es, dass ich die Leistungsaufnahme der Grafikkarte nun so stark senken konnte. Powerplay ist vielleicht ein nettes Extra, wer richtig sparen möchte muss aber selbst Hand anlegen. Im Grunde genommen ist es nicht ausreichend, einfach nur den Takt der GPU runter zu reduzieren und den Speicher trotzdem auf "voller Pulle" weiter braten zu lassen. Schade eigentlich, dass der Chiphersteller selbst bislang nicht dazu in der Lage ist, den Chiptakt gleich mit zu senken.

Ich habe zwar nur einen AMD Prozessor aber ich habe, glaube ich, gelesen, dass Deine Sorte Intel-CPU Probleme mit dem herunter takten hat, wenn man die Vcore erhöht. Ist ein bekannter Intel-Bug. Wenn Du Deine CPU nur soweit übertaktest, dass du Vcore auf Standard lassen kannst, dürfte das mit dem herunter takten funktionieren. Das habe ich auf jeden Fall bei Google dazu gefunden. Ist eine Suchmaschine. Da gibt man Fragen ein und bekommt meist viele Antworten. Musste Dir mal ansehen. http://www.google.de

Gruß Pegasus
 
Zuletzt bearbeitet:
*Auf den CB Testbericht wart*

F5, F5, F5, F5, F5, F5, F5, F5, F5, F5, F5, F5, ...
Da kann ich leider nicht sagen, ob ein Test überhaupt kommen wird. Wir schrauben derzeit doch massiv am Grakaparcours herum und da fehlt eigentlich etwas die Zeit dafür.
 
Kann jemand folgendes Problem nachvollziehen?

Als ich noch mit Vista32 und dem ATI Tray Tools unterwegs war, hatte ich folgendes Problem mit meiner 4870 (1024 MB):

Wenn ich die Graka im Windowsbetrieb mit beispielsweise 400 + 400 getaktet hatte, und anschließend mittels Tastaturkürzel oder manuell mit Profilwahl die Standardtakte 1000/750 (Graka siehe Sig) verwendete, hatte ich anschließend in den 3D Spielen hier und da Pixelfehler. Also keine total krassen Grafikfehler sondern "nur" einige Pixel, die immer mal kurz hell aufleuchteten, ähnlich wie ein Überhitzungsphänomen.

An der Hitze kann es aber nicht liegen, weil ich ohne Tray Tools ja dieselben Takte (1000/750) fahre und dort KEINE Pixelfehler habe. Meine Vermutung war deswegen, es lag an ATI Tray Tools.

Jetzt mit Vista64 hab ich die Tray Tools noch nicht versucht, weil meine letzte Info war, daß der Vista64-Treiberschutz die Installation der TrayTools irgendwie nicht zulassen würde.... (korrigiert mich, wenn die Info veraltet ist ;) ). Jedenfalls: hat jemand so etwas auch schonmal erlebt und evtl. das Problem beseitigen können?

Mein Ziel ist eben auch, unter Windows (Idle) so niedrig wie möglich eingestellte Taktraten zu haben. Aber ehrlich, ans Graka-Bios trau ich mich nicht ran......:(
 
Zuletzt bearbeitet: (Satzbau ausgebessert ;))
Hi,
ich hab mir grade eine HD4870 1024MB bestellt, um zumindenst etwas besser spielen zu können.

Sorry aber ich muss eben mal blöd dazwischenfragen: War das jetzt ein Fehler?

Ich lese jetzt hier nicht nur von einem Bug.

Besteht die Möglickeit das die Karte gut funktioniert, mal abgesehen vom Heruntertakten im IDLE?

mfg
Kai
 
Ja, sie funktioniert wunderbar. Lass dich nicht von solchen "Zwischenrufen" abschrecken. Meine Karte hab ich seit etwa einer Woche und bin vollkommen zufrieden damit.
 
GuestNr1 schrieb:
Das einzige was noch nicht geht ist, dass ich die Spannung per Software senke.
Die Grafikkarte schmort bei 1.083V - 36°C mit Palit Kühler - was mir zu viel ist. Vorallem weil die Karte sicher noch kühler und somit leiser/stromsparender werden könnte.

Schau dir mal Voltage Factory an. Meine 4870 läuft idle auf 0,90V und unter Last auf 1,15V. Bringt unter Last nochmal gute 30Watt weniger Verbrauch. Im Leerlauf ist der Stromspareffekt im Vergleich zum heruntergetakteten Speicher kaum erwähnenswert, aber die Temps gehen deutlich runter.

spam23 schrieb:
Ich hab eine 4870 mit modifzierten Bios und eben mal schnell einen neuen Speichertakt hinzugefügt. Was auffällt, unter Vista 64 wird nicht mehr ständig zwischen den Power-States hin und her gesprungen, wenn aber vom Media-Center die Leistung gefordert wird, so flackert es auch beim Speichertaktwechsel immer noch.

Und genau darum ist die BIOS-Lösung einer Software wie Ati Tray Tools weit unterlegen. Das Media-Center fordert hier keinesfalls Leistung an so wie du vermutest. Es ist vielmehr so, dass die meisten aktuellen Video-Renderer (quasi die hardwarebeschleunigte Oberfläche in der das Video angezeigt wird) in 3D arbeiten. Die Leistung die sie dabei benötigen um ein paar Pixel zu verändern, ist aber verschwindend gering. Ich habe sämtliche Mediaplayer sowie Browser in die Sperrlisten von ATT eingetragen, so dass die Karte dann trotzdem im "2D-Takt" bleibt, auch wenn 3D verwendet wird. Mit 100MHz/200MHz hat meine 4870 selbst bei Full-HD Wiedergabe keine erwähnenswerte Auslastung.
Also warum einen BIOS-Mod mit dem man sich im schlimmsten Fall etwas kaputt macht oder Garantieprobleme kriegt, wenn die Softwarelösung in vielerlei Hinsicht überlegen ist?
 
Wolfgang schrieb:
Da kann ich leider nicht sagen, ob ein Test überhaupt kommen wird. Wir schrauben derzeit doch massiv am Grakaparcours herum und da fehlt eigentlich etwas die Zeit dafür.

Das ist aber echt schade :(
Hoffentlich kriegt ihr noch bisschen Zeit für sowas :p
 
Hallo!

Endlich geht es um das Thema PowerPlay und Stromsparen. Hatte bei dem ganzen Fanboy-Gezetere schon gar keine Lust mehr. :cool_alt:

Haben noch mehr Leute die Behebung des Bugs nachgemessen? Mit einem Messgerät? Aussagen wie "ja, funzt", die Entstehen, weil der Treiber sich installieren ließ, lösen bei mir Kopfschütteln aus. Ich bin sehr auf Energiesparen fixiert. Daher auch mein Rechner mit AMD 5050e CPU, GF8300 Board, GTX 260 Grafikkarte. Durch HybridPower geht die Idle-Energieaufnahme mit C'n'Q von 100 auf 50 Watt. Die GTX geht dann ganz aus.

Es wäre also dem Thema hilfreich, wenn noch mehr Leute die Energieaufnahme messen würden. Am besten einmal mit alten, einmal mit neuem Treiber. Vielleicht könnte Computerbase das ja auch mal machen. :)
 
Zurück
Oben