News HD 4800: Stromsparen leicht gemacht

rager schrieb:
Natürlich haben Grafikkarten Leistung! Sie leisten Arbeit pro Zeit. Sie berrechnen pro Zeit eine gewisse Datenmenge und das ist Leistung! Ganz einfaches physikal. Gesetz...
Achja und der Stromverbrauch ist auch Leistung: Verlustleisung. wird ja schließlich mit der Einheit Watt berechnet und Watt ist die Einheit für Leistung... Der Verbrauch ist lediglich die (Verlust-)Leistung pro Zeit, also Wattstunden z.B.

Sicher, dass kann man alles toll Physikalisch begründen (übrigens schon, dass es noch ein paar gibt, die dass können),
nur Verbrauch wäre meiner Meinung nach ein absolut eindeutiger Begriff, mit Leistung kann viel gemeint sein.
 
Ändert nichts an der Tatsache, dass Grafikkarten Leistung haben. Rede doch einfach von Verlustleistung. Das trifft es am genausten und ist ziemlich eindeutig. Deine Aussage müsste nämlich genau umgedreht werden: Eine Grafikkarte hat nämlich keinen Verbrauch, nur Leistung. Denn das einzige was die Grafikkarte macht, ist elektr. Energie in Wärme umzuwandeln, wobei die Wärme die Verlustleistung (Verlustleistung, da sie nicht demn vorgesehenen Zweck einer Grafikkarte dient) ist und as, was wir als "Stromverbrauch" bezeichnen die Eingangsleistung ist. Die Ausgangsleistung ist technisch gesehen gleich null.

Verbrauch ist so ein Begriff. Kein "Verbraucher" verbraucht wirklich was, er wandelt es in andere Energien um.
 
Zuletzt bearbeitet:
Antimon schrieb:
Jo und den Stomverbrauch haben wir dann verdoppelt, was? :rolleyes:

Standardkonsolen liegen bei ~300 Watt Verbrauch dazu dann der Lappi, da muß dein jetziger PC schon ordentlich ausgestattet sein um an die Verbrauchswerte zu kommen. Und das nur weil man sich über 20 Watt Mehrverbrauch und 85 - 90° Chiptemperatur aufregt?

Also bitte lass die Kiste auf Standardwerten laufen und gut ist, die Probleme hast doch wohl nur weil die Finger ned davon lassen kannst :p

:D

eine Konsole läuft halt nur zum Zocken , der Rechner läuft allerdings 12-18 Stunden am Tag bei mir und da ist der IDLE Verbrauch der GKarte ein nicht unerheblicher Faktor ich bezahle immerhin meinen Strom selbst .

;)

70-80°C GPU im IDLE sind auch zuviel wenn die Karte auf 50°C IDLE laufen könnte aber das macht sie mittlerweile bei mir auch mit 1000MHZ Speichertaktung .

nerja aufregen bringt nix hoffen wir das beste das ATI das noch auf den Appel bekommt .

cu M^LiBuQ
 
Zuletzt bearbeitet:
70-80°C GPU im IDLE sind auch zuviel

wo ist das problem dabei ?

die emmitierte Wärme ist nicht von der absoluten Temperatur abhängig.

Und für die Graka selbst sind 80° ein lächerlicher Wert.

Viele passive Karten laufen von Haus aus bis 130° und trotzdem gibt der hersteller 2 Jahre Garantie.
 
e3bodhw9.jpg



http://www.pcgameshardware.de/aid,6...enu=browser&image_id=870340&article_id=654513


Und angeblich sollen sie dabei noch durchschnittlich 20W weniger verbrauchen. Wenns stimmt, hat ATI alles richtig gemacht. Zumindest sieht man, das ATI wirklich an der Optimierung des RV770 Chips arbeiten
 
Zuletzt bearbeitet:
komischerweise hat bis vor kurzem keiner geglaubt,dass der 8.8 was bringt.


gruß
 
Wobei ich selber noch ein wenig unsicher bin. Nochmal 10 % Leistungszuwachs wär schon bisschen deftig und würde Nvidia noch um einiges stärker unter Drück setzen.
 
find ich realtischtisch. man beachte die schedulerzuweisung der skalararen shaderunits,die über den treiber angesteuert wird. gerade da kann man stetig mit den treibern verbessern,wo bei Nvidia bereits das ende der fahnenstange erreicht ist,da sie 1D shader haben.


gruß
 
bringt aber nicht viel. der leistungsziehende (elektrische verlustleistung) faktor ist der Ram. und dieser taktet sich mit niedriger frequenz selber runter.


gruß
 
das da aber noch einiges an einsparpotential vorhanden ist und hoffentl. auch noch freigeschaltet werden kann, sieht man sehr gut an der 4870 x2, die nur minimal mehr verbraucht im idle, als die einzelne 4870.

es wäre ja möglich, das die normalen karten aktuell doch einen bug intus haben, den sie bei der x2 ausmerzen konnten in der zeit.

mfg
 
....oder bei der X2 im Idle ein Kern abgeschaltet wird.
Die Temperaturen und der Stromverbrauch einer X2 zu einer 4870 sind im Idle doch sehr ähnlich.
Leider habe ich auch kein verläßliches Datenblatt gesehen, welches die Power Play 2.0 Optionen einer X2 erklärt.
Sollte kein Kern abgeschaltet werden, dann hätte man eine theoretische Einsparmöglichkeit von mehr als 50 % des jetzigen Wertes einer 4870 zu erwarten.
Meiner Meinung nach schon fast zu unrealistisch.

Persönlich würde ich mich freuen, wenn Hybridcrossfire mit dieser Karte und der HD 3300 des 790GX Chipsatzes möglich wäre.
 
Gibt es in der Richtung eigtl. endlich Neuigkeiten? Sowas wie Hybrid SLI nur für ATI? Es kann doch nicht so schwer sein, auf die IGP umzuschalten im 2D und die konkrete Grafikkarte zu deaktivieren!? :(
 
im Verlauf der nächsten woche wird noch eine FAQ für die 4870 erscheinen, die beschreibt wie man automatisch ca 20watt im idle sparen kann.


gruß
 
ATT läuft suuuuper in Verbindung mit ner 4870. Schön Stromsparen und auch das automatische übertakten vom Windows Betrieb in den Gamebetrieb und wieder zurück läuft super, ohne dass man da gross konfigurieren muss.einfach nen hacken setzen automatisch zwischen 2D/3D und zurück wechseln. das mit den profilen läuft auch ganz super.hab bei einigen games profile bezüglich grafikeinstellungen und andere grafikkartentaktraten. da werden die immer schön übernommen.und bei den games wo ich kein profil hab nimmt er mir schön den standardtakt welchen ich als default eingestellt hab.
 
Stromsparen bei der Club3D 4870 OC, dass mache ich mit dem ATI Tray Tool. Im 2D Betrieb habe ich die Taktfrequenz auf 150MHz reduziert und den Speichertakt auf 200MHz. Dadurch habe ich eine Senkung des Verbrauchs von 60W erreicht. Was will man mehr.
 

Anhänge

  • Sparen.JPG
    Sparen.JPG
    55,8 KB · Aufrufe: 966
Habe das mit den Verknüpfungen mit "AMD GPU Clock Tool v0.9.26.0 For HD 5870" gemacht.
Das Tool ist für die HD5870 ausgeschrieben...funktioniert aber trozdem. Der author hat das mit der betitelung vieleicht etwas "verfehlt" da es ein upgrade von älteren Versionen ist.

Wie dem auch sei..mit Windows7 und Catalys 9.12 braucht man dieses Tool.

Verküpfung mit Ziel
"D:\Program Files\AMD GPU Clock Tool\AMDGPUClockTool.exe" -eng=200 -mem=200
machen, und GPU und Speicher werden auf 200mhz gesenkt. Wenn es nicht funktioniert, also das System unstabil wird, dann mit höheren Werten versuchen.

Dann eine zweite Verknüpfung mit den Normalwerten erstellen. Diese führt man dann immer aus, bevor man ein Spiel startet bzw während es läuft.

Ersparnis: Das komplette System von 200 auf 160Watt. Das sind 20% nur wegen einer Grafikkarte.. Ich will gar nicht wissen wie weit es nach unten geht wenn die ganz aus wäre. (ich wollte ja hybrid graphics aber das geht ja troz hybrid mainboard und crossfirex bei mir nicht.)

runter von 49°C @750/950 zu 36°C @200/200 idle @ 29% Lüfter.
Gainward Golden Sample 1024MB

Mit den 200Mhz kann man sogar locker noch UT2004 im Fenster spielen. ^^

ATI sollte das mal als standard Sparfunktion machen. Ich denke der einzige Mangel warum sie das nicht umsetzen ist das leichte Bildschirmflackern bei dem Umstellen.
Sie wollen das keinen Kunden zumuten. Aber ich würde wenigstens eine OPTION für den "erfahrenen Anwender" dankend entgegennehmen.

Das einzigste was die Karte sonst im Idle runterschraubt ist die GPU, von 750 auf 500. Aber das bringt genau...gar nichts. Außer halt weniger Abwärme. Also muss man selbst nachhelfen..
 
Leichenschänder!!1elf :mussweg:

Ich empfehle einen neuen Thread: "HD 5800: Stromsparen leicht gemacht" :rolleyes:
 
Ich glaube er meint damit, dass das Tool zwar für die HD58XX deklariert ist, dieses jedoch trotzdem auf seiner HD48XX läuft und das wollte er allen mitteilen. Was somit auch im richtigen Thread wäre und noch nicht einmal als Leichenschändung zu betiteln ist :p
 
Zurück
Oben