News HD 4800: Stromsparen leicht gemacht

Ich hätte da noch eine Frage wenn mann die Taktraten so wie angegeben runterschraubt im 2D Modus dann erhöt sich aber die GPU und alles wieder selber wenn mann Zocken möchte normal schon oder weil mann ja die 3D angaben in ruhe lässt ?

Aber das lässt auch hoffen das AMD/ATI doch noch mit einem Treiber die Leistung so senken, kann oder gar noch weiter wenn die Spannung abgesenkt wird, und auch die anderen Stromsparrmechanissmen innerhal der GPU greifen.

Danke CB für die info, jetzt kann ich mich wieder richtig auf die 4870x2 freuen, oder dann auf 2x 4870 ihr habt mich aus dem hinn und her gerettet.
 
Zuletzt bearbeitet:
Die Taktraten bleiben bei verwendung des AMD GPU Clock tools in 2D und 3D gleich! Andere tools unterstützen momentan die 48er Reihe noch nicht richtig.

Ich finde es aber nicht schlecht, das die Taktrate auch im 3D so bleibt. Da kann man wunderbar bei älteren Titeln wie WC3 Strom sparen.
 
Naja...wenn mans manuell kann, dann kann mans per Treiber oder BIOS auch automatisch machen lassen. Denke mal das AMD da im moment stark dran arbeitet und das dann wohl noch gefixed wird. Die werden halt nicht irgendeine zwischenlösung veröffentlichen wollen sondern gleich ein Feature das dann auch wirklich funktioniert.
 
Wollen wir hoffen dass es so ist :)
 
Einen Stromsparmechanismus nicht richtig in Hardware implementiert und ein neuer Treiber muss es ausbügeln?

Die Entwicklungsabteilung seitens ATI backt trotz fortschrittlicher Schrumpfung kleine Brötchen.

Mitunter war die wenig durchdachte Energieeffizienz ein Ko Kriterium, eine ATi nicht zu kaufen. Das "just to have Leistung" Syndrom verleitet zwar zum Erwerb aber es gibt noch weitere Gründe, da letzlich die HD4xxx auch nicht mehr kann, als Leistung in teure Abluft zu wandeln.

Gruß
 
kleines Ottili schrieb:
Naja, ne ganz nette Option...aber wirklich anwenderfreundlich ist das nicht, zumal es nur bei der HD4870 was bringt.

Dass das neue Powerplay so schlecht funktioniert, hätte ich aber trotzdem nicht gedacht. Auch der neue Treiber schafft keine Abhilfe und disqualifiziert die HD4000er in meinen Augen.

Was der User hier von Hand machen muss, kann doch nicht so schwer realisierbar sein...ist doch ein Witz AMD/ATI. :(
Was heißt "so schlecht funktioniert"? Das neue PowerPlay funktioniert nicht schlecht, es funktioniert gar nicht. Und ob es jemals dazu kommt, dass es funktioniert möchte ich auch bezweifeln. Die Leute kaufen die Karte doch sowieso. Warum sollte man also noch Geld in die Entwicklung stecken? Vermutlich werden bei neueren Versionen eher noch ein paar Teile ausgebaut, die für PowerPlay gedacht sind, um so die Kosten zu senken.

Ich meine, man weiß natürlich nie, ob ATI da doch in ein paar Monaten nochmal einen Treiber rausbringt, der das ganze endlich mal zum Funktionieren bringt, oder ob in einem halben Jahr Karten mit einem neuen BIOS rauskommen, bei denen das dann funktioniert. Aber bei mir ist z.B. das fehlende PowerPlay der EINZIGE Grund, der dazu führen wird, dass ich mir keine 4870X2 kaufen werden. 150W im Idle - oder was die Karte dann auch immer verbrauchen wird - sind einfach absolut inakzeptabel. Das die HD4870 mit geschätzten 90W idle Verbrauch dennoch dermaßen leise ist, ist schon ziemlich genial (insbes. weil die GTX260 weniger verbraucht, aber deutlich lauter ist; das hat man bei der 8800 GTX noch besser gelöst), aber der Stromverbrauch ist trotzdem nicht ok. Es kann nicht angehen, dass beim Betrachten des Windows Desktops knapp 40%-50% des Stromverbrauchs durch eine kaputte Grafikkarte verursacht wird. Ich habe lieber eine Karte mit 10W Idle und 300W unter Last, als eine Karte mit 100W idle und 150W Last. Die meisten werden ja nicht den ganzen Tag spielen, sondern nur hin- und wieder und da ist ein niedriger Idle Verbrauch schon wichtig. Alternativ könnte AMD auch endlich mal wieder die Finger aus der Nase nehmen und PowerXPress für den Desktop fertig kriegen. Dann kann man die stromsaugenden Mega-GPUs gleich ganz ausschalten, wenn man sie nicht braucht. Hauptsache die Technik wird dann durch Intel lizenziert und eingesetzt, denn ein Board mit AMD-Chipsatz möchte ich wirklich nicht haben.
 
Spannungsabsenkung wird aber nicht mehr sehr viel bringen. Das wurde von den Biosmoddern schon durchexerziert. Einzig ein Abschalten eines GPU Teils könnte noch einen ordentlichen Beitrag liefern.

Was ich AMD vorwerfe, ist das große Stillschweigen. Man könnte zumindest verraten, in welchen Prozentzahlen Powerplay 2.0 gegenüber der ersten Generation effektiver (!) sein wird. Irgendein Ingenieursteam wird sich wohl Gedanken darüber gemacht haben.
Es ist mehr als blauäugig anzunehmen, AMD hätte keine Erfahrung mit ihrem eigenen Chip.
Wenn die Programmierer keinen Kontakt zu den Chipentwicklern haben (so wird dies dargestellt), dann tut mir dies wirklich leid für AMD. Missmanagement par excellance.

Ich möchte lediglich eine zuverlässige Roadmap, wann und wie Powerplay Einzug halten soll.

Ansonsten wird sich irgendein US-Amerikaner sicher schon eine Klageschrift ausgedacht haben, dass er sich beim Kauf der HD 4000 Karten um ein Feature betrogen fühlt. Im Namen aller Käufer wird er dann gegen AMD zu Felde ziehen. Das wird den Ruf und die Aktienkurse AMDs nicht unbedingt stärken auch wenn so eine Klage haltlos wäre.

Fazit: Etwas mehr Informationspolitik würde dem Konzern nicht schaden.
 
Nvidia ist da ja auch nicht besser, hab meine 9600gt auch per Rivatuner runtergedreht auf: 350/900/500 und wenn ich spielen will stell ichs halt wieder um auf 720/1800/1000. Geht zügig und spart Strom.
 
Eigentlich waren ja unter 20W Idleverbrauch bei Highend und unter 10W bei Mainstreamkarten geplant. Aber dennoch, selbst wenn der Mechanismus funktionieren würde, würde ich sowieso manuell weiter undervolten, da wäre überall noch Potential. Und mit Atitool kann man sich da auch ganz einfach Profile anlegen...
 
Ich habe nicht ganz die selben Erfahrungen gemacht. Ich habe meine GPU im IDLE auf 160Mhz und 1,1Volt laufen, per BIOS, und ich habe dadurch eine Ersparnis von 32Watt lut meinem Messgerüt. Wenn ich dann noch die Spannung senke per AMD Tool, dann sind es nochmal 5 Watt mehr oder besser gesagt weniger.

Das dumme ist nur, was nicht erwähnt wurde, dass der Bildschirm einmal flackert/aufblitzt wenn man die Mhz des Speichers senkt. Macht man dies nun per BIOS, flackert es ununterbrochen, wenn die Graka von 2D auf 3D und zurück schaltet.

Im übrigen finde ich auch gut, das die 2D Einstellungen bei 3D bleiben, weil Aero oder aufwendigere Programme im Windows auch den 3D Mode hervorrufen können.

@FredKune - beruhige dich ;-), es ist nicht war, dass es nicht funktioniert, es geht doch, es könnte nur besser
Schon lustig, wie plötzlich die Muttis die noch vor kurzem meinten, dass das Powerplay auf den 3870 Karten kein Kaufgrund wäre, plötzlich sparen wollen. Die letzte NV hat wohl doch den geldbeutel gesprengt. Ey Leute, solange ihr bei Mutti wohnt, zahlt sie den Strom ...
 
Zuletzt bearbeitet:
Meine 4870 läuft bei mir im Windows Idle mit 150 Mhz GPU / 200 Mhz Speicher. Dadurch sinken die Temperaturen von 74 Idle auf 41 Grad und die Stromaufnahme um 42 Watt. Alles ganz einfach einstellbar mit dem AMD GPU Tool. Leider muss man immer manuell switchen für den 3D Mode.
 
Zuletzt bearbeitet:
@devastor: Wenn Dir das Stromsparen jedoch so wichtig ist (wäre es für mich auch) dann ist das doch schon mal eine ganz gute Lösung, bis die Optimierung erfolgt ;)
 
Wenn man manuell mit dem Tool den Takt senken kann, dann wird es später mit bessern Treibern auch über die Treiber funktionieren. Die Entwickler müssen nur irgendwie abfragen wann die Leistung benötigt wird und wann nicht.
 
Ich denke, dass da etwas in der Hardware verleiert ist. Völlig unklar dass der GDDR bei einer niedrigeren Spannung soviel Leistung verbrät. Und durch das Absenken soviel Leistung gespart werden kann. AMD hat sicher die Timings nicht im Griff so dass irgendwas gegeneinander arbeitet. Bei einem niedrigeren Takt scheint es das zu entschärfen. Wenn es mit einem Treiber zu beheben gewesen wäre, wäre es schon längst geschehen. Das Absenken des Speichertaktes ist nur eine Hilfskrücke ... Möglich, dass es durch ein neues Hardware Design behoben wird, aber sicher nicht bei den Karten die schon draußen sind...
 
Wäre ja kein ding, man legt einfach nen file an mit Gamenames.exe und wenn die exe dort auftaucht taktet sich die Karte hoch und bleibt solange oben bis die exe aus dem Taskmanager fliegt. Und wenns mal keine exe so gibt, sollte es die Möglichkeit geben diese manuell hinzuzufügen.
 
Ich wette, dass sobald Powerplay funktioniert mit diesen Taktraten noch erheblich mehr (zum Strom sparen) drin ist!
Bei Powerplay werden nämlich nicht nur der Chip- und Speichertakt gesenkt, sondern auch nicht benötigte Chipteile komplett abgeschaltet. (daher nur so wenig Einsparung bei der Taktsenkung der GPU)

Wer mit den ATI Tray Tools früher experimentiert hat an seiner 3870, weiß was ich meine!
Bei einer früheren beta hat das powerplay manchmal auch gesponnen. (Lüfter schneller als normal gedreht, trotz 2D-Takt)

Mit richtigem Powerplay dürfte also noch einiges mehr drin sein!
 
Zuletzt bearbeitet:
Es ist sicherlich auch möglich die GPU auslastung zu ermitteln, ich hab es mt CPU Auslastung auch hinbekommen dann sollte es ja für AMD kein Ding sein die GPU auslastung zu prüfen und im gegebenen Fall die undervoltung zu starten xD ^^
 
faul wie Menschen nunmal sind wäre eine Lösung die wirklch einzig und allein in Games den Max Takt und bei allem Anderem den Min Takt anlegt das Beste. Und hier kommt einfach nur Bios + Treiber in Frage da beide Komponenten bei Systeminstallation benötigt werdne udn verfügbar sind. Ich will mein PC nicht mit Programmen aus 3. Hand zumüllen, jedesmal Profile ändern, welchseln, exe dateien Einbinden ( was vllt grad noch so geht) aber Karten als Betaware mit beworbenen aber nicht funktionierenden Features zu verscherbeln... Naja AMD braucht das Geld und gekauft werden sie trotzdem. Allerdings kommen die vielen Probleme mit den neuen Karten nicht von ungefähr.
 
Zuletzt bearbeitet:
gefährliches Halbwissen du hast junger Padawan :-)

Die Spannung bei den CPU´s wird auch immer weniger, aber die Verlustleistung steigt mit dem Takt. Hätte man nicht die niedrige Spannung käme man garnicht auf den Takt.

Summa summarum, wird jede Abwärme oder Stromersparnis gleich wieder in Leistungssteigerung investiert
 
Das ist ja shcon lange bekannt, dass man so Strom sparen kann.

Ausserdem könntet ihr bei CB mal in allen euren Beiträgen zur hd4870 ändern, dass der Speicher nicht mit 1800mhz taktet, sondern mit 3600mhz. Gddr5 ist quadpumped, gddr3 dual.
 
Zurück
Oben