News HD 4800: Stromsparen leicht gemacht

TeHaR schrieb:
@CB ihr solltet schon entweder den realen oder effektiven Takt bei der HD 4870 angeben. Dh 900 oder 3600. Aber 1800 ist schlichtweg Falsch ;)

Nein, 1800 MHz ist genauso richtig wie 900 MHz und 3600 MHz. Laut Qimonda ist 1800 MHz sogar das richtigste, denn sie sprechen selber davon. Nicht vergessen, GDDR5 hat mehr als nur einen Takt.
 
Gibt es eigentlich irgendeine Möglichkeitdie idle Spannung zu senken? Wie in diesem Review sehr schön dargestellt wird, ist selbst unter idle die Spannung höher bei der 4870, als bei der 4850 unter Last!
http://ht4u.net/reviews/2008/amd_radeon_hd_4870/index10.php

Ich verstehe auch nicht, warum die Spannung unter idle überhaupt höher ist als bei der 4850. Wenn die 4850 serienmäßig mit 160MHz laufen soll, dann sollte es doch auch die 4870 können mit eben derselben Spannung. Zusammen mit den Einsparungen beim Speicher sollte da doch schlussendlich ein vernünftiger Wert herauskommen. Somit sollte es im idle sogar möglich sein, die Werte einer HD4850 zu unterbieten, da der GDDR5 allem Anschein nach beim Heruntertakten die Spannung selbständig senkt und somit weniger verbraucht als GDDR3. ATI was hast du da nur gemacht bzw. gedacht? :confused_alt:
 
@Straputsky:
Hast Du schon mit ATI WinFlash und RBE1.12 Dich an die Karte gewagt? damit ist theoretisch auch möglich die Spannungen, Takte und Lüftersteuerung zu modifizieren.
Leider gibt es einen Bug beim Auslesen des Bios. es hat nur 64kb statt 128. Damit habe ich mir beim ersten Versuch direkt das Bios geschossen. Zum Glück gibt es direkt eine passende Anleitung dazu, wo auch ein richtiges 128kb Bios verlinkt ist. Wenn ich erst alles gelesen hätte, wäre das mir nicht passiert. Selber schuld.
Siehe hier:
http://www.techpowerup.com/downloads/1131/TechPowerUp_Radeon_Bios_Editor_v1.12.html

Allerdings ist das ganze noch immer mit wesentlich höheren Risiken verbunden, und ohne 2. Rechner und möglich im selben System eine 2. Grafikkarte zu verbauen kann ich davon nur abraten.
Ich bin im Moment noch am testen und habe bereits einmal das Recover machen gedurft... Aber es geht.
 
Kleiner Zwischenbericht:
- Die Lüftermodifikation scheint einwandfrei zu funktionieren.
- Die VCore bei 2D zu reduzieren scheint nicht angenommen zu werden oder bringt nichts. Ich habe bei 150Mhz 1,000V gewählt und an der Stromaufnahme im Leerlauf ändert sich rein gar nichts.
- Das Umschalten der verschiedenen Frequenzen sieht auch richtig aus

Jetzt der große Haken:
Bei jeder Taktänderung (weiß noch nicht ob Ram oder GPU) flackert das Bild für ca 1sec. bis es wieder Synchron ist. Und das passiert im Desktop Modus andauernt bei irgendwelchen Aktionen.

Damit ist offensichtlich ein Grund für die immer gleiche Memclocks gefunden. Denn das Bildflackern ist äußerst störend. Damit liegt aber auch der Gedanke nahe, dass nur ein Biosupdate daran was ändern könnte.

Weiß jemand, womit man die VCore der GPU zu sehen bekommt? Ich kann mir nicht vorstellen, dass die VCore Absenkung um 0,2V sich praktisch nicht messbar bemerkbar macht.
 
das flackern kommt nur beim AMD clock tool,und da auch (bei mir zumindest) nur im Moment des umschaltens.


gruß
 
Torsten73 schrieb:
Weiß jemand, womit man die VCore der GPU zu sehen bekommt?

So wie ich das sehe: Gar nicht! Ich zitiere mal einen Tester von HT4U:
Wir haben uns an die Spannungsregler herangekämpft und an den entsprechenden Bauelementen mit einer Messsonde, deren Screenshots im Artikel wiedergegeben sind, die real anliegenden Spannungen genessen.
 
Torsten73 schrieb:
[...] Bei jeder Taktänderung (weiß noch nicht ob Ram oder GPU) flackert das Bild für ca 1sec. bis es wieder Synchron ist. [...]

Es könnte sich da theoretisch durchaus um ein Hardware-seitiges Problem handeln. Was natürlich schlecht wäre bezüglich einer vernünftigen Implementierung von PowerPlay 2.0 seitens ATI. Was ich aber glaube ist, dass es sich da eher um ein methodisches Problem handelt. Schließlich haben auch andere Komponenten (CPUs, manche Mainboards, Notebooks im Allgemeinen) Stromsparfunktionen, bei denen nicht das ganze System kurz "ausflippt". Das bei der Umschaltung was zu sehen ist, dürfte meines Erachtens nicht der Fall sein, da ein solches Phänomen ca. 1/25 bis 1/30 Sekunde dauern müsste, um überhaupt wahrgenommen zu werden. In solchen Zeiträumen passiert aber schon eine ganze Menge auf einer Grafikkarte.

Ich weiß zum Beispiel nicht, wie das bei nVidias "HybridPower" aussieht, aber ich denke mal, auch bei denen wird der Monitor nicht preisgeben, dass gerade umgeschaltet wurde.

Von daher bin ich mal voller Hoffnung, dass ATI diese Geschichte in den nächsten Monaten noch in den Griff bekommt.
 
Torsten73 schrieb:
Ich habe bei 150Mhz 1,000V gewählt und an der Stromaufnahme im Leerlauf ändert sich rein gar nichts.
- Das Umschalten der verschiedenen Frequenzen sieht auch richtig aus
Das Stromaufnahmeproblem ist bekannt. Die Grafikkarte scheint nicht weniger Energie zu verbrauchen, siehe hier https://www.computerbase.de/forum/t...hd-4850-und-eine-vorschau-zur-hd-4870.433850/.

Man kann hoffen, dass das ATI dem Problem auf den Grund geht. Spekulationen gehen dahin, dass niedrigere Spannungen durch einen Schutzmechanismus verhindert werden und das dass Bios den Parameter überschreibt. ATI scheint dieses absichtlich gewollt hat zu haben, um Untertaktungsabstürze zu vermeiden?!
Vielleicht kann eine neuere Version des ATI Tray Tool hier helfen, in dem nicht nur der ATI Hot Poller sondern auch "dieser wohlmögliche Schutzmechanismus" ausgehebelt wird.
 
Evtl. wird durch das Untervolten die Elektronik (Wandler?) zu stark belastet, so dass man dies vermeiden möchte.
 
also i hab mir mal ein bios sebst geschrieben. Spannungen gleihc gelassen, und im idle auf 300/300. jedoch flackert des immer wieder ganz schön,sobald man ein neues fenster aufmacht, ka worans liegt.


gruß
 
Schinzie schrieb:

Vielleicht wurde tatsächlich an der SpaWa Qualität deiner Karte gespart.
Ich habe seit zwei Tagen ein ähnliches Problem mit meiner 3750. Diese ging längere Zeit auf 100/200 bei 0,97V. Nun musste ich kontinuierlich die Werte auf 150/300 erhöhen damit mir der Monitor und auch der gesamte PC nicht ausgeht.
Der Monitor geht genau dann aus, wenn ich einen neuen Browser(-fenster) öffnen will.
Bei neuen Tabs habe ich das Verhalten noch nicht festgestellt. Artefaktscanning über ATI Tray Tools gibt unspezifische 0 Fehler. Irgendeine Komponente wird anscheinend zu stark belastet und diese Komponente muss seit 2 Tagen mehr Leckströme bzw. größeren Spannungsverlust erleiden, als sie es sonst tat. Höchstwahrscheinlich einer der Spannungswandler auf der Grafikkarte.

Vielleicht liegt es indirekt auch am Netzteil oder dem Arbeitsspeicher. Die Spannungen sind laut Everest aber identisch geblieben. Ärgerlich, dass macht bis zu Delta T von 6K aus. Gerade ab Werten unter 150/300 scheint die Karte insgesamt erst richtig kühl zu werden.
 
Also ich finde den Bericht auch sehr interessant und absolut hilfreich gerade was die Temperaturen angeht. Ich habe es soeben ausprobiert und es funzt wunderbar. Habe allerdings festgestellt, dass das AMD-Tool nur eine Graka konfiguriert. Habe in meinem System ein CF-Verbund aus 2 Hd's 4870 und würde das AMD-Tool nun gerne so konfigurieren, dass beide Grafikkarten über eine Verknüpfung runtergetaktet werden. Hat jemand eine Idee wie man das anstellen kann? Vielleicht kann mir ja auch jemand aus der Redaktion dabei helfen. Wie gesagt wenn ich die Verknüpfung mit den geänderten Taktraten anlege, wird leider nur die primäre "Graka" runtergetaktet und die zweite operiert weiterhin mit den standard Taktraten. Das ist sehr nervig, da ich nun jedesmal die 2. Karte manuell konfiguríeren muss.
Wäre nett wenn mir jemand hilft.
Gruß
 
Weiß jemand, womit man die VCore der GPU zu sehen bekommt? Ich kann mir nicht vorstellen, dass die VCore Absenkung um 0,2V sich praktisch nicht messbar bemerkbar macht.

jap es gibt neben dem Hardware Multimeter auch noch eine Software die dies macht ^^
nur leider gibt es zu wenige systeme die diese Software unterstüten.
vorraussetzung ^^ : AMD 64 X2 Processor AMD 7series Chipset AMD Radeon HD-series GPU <- Spider System Minimum specs




ahso gezeigte karte ist eine HD4870 und beim umschalten zwischen den taktraten gibbet kein flackern oder sowas in der art, man sieht vom umschalten nicht mehr als bei der HD38xx
Desktop :100/250 3D : 945/1170
 
Zuletzt bearbeitet:
Weiß jemand, womit man die VCore der GPU zu sehen bekommt? Ich kann mir nicht vorstellen, dass die VCore Absenkung um 0,2V sich praktisch nicht messbar bemerkbar macht.

http://www.hardwareluxx.de/Images/ASUS/X800XL/smartdoctor.jpg

Auch der SmartDoctor liesst die Werte aus, wenn die Grafikkarte dieses unterstützt bzw. sie Sensoren dafür besitzt. Das gilt natürlich nur für Asus-Karten.

Für die 4800-Serie ist das leider (noch?) nicht der Fall.

Gruß
Lucike
 
Zuletzt bearbeitet:
Eine kleine Berichtigung:

Grafikkarten haben keine Leistung, sondern nur einen Verbrauch:rolleyes:

Wann kapiert das endlich einer?

Wenn eine Grafikkarte was leisten würde, würde sie Energie produzieren,
was aber wohl eher nicht der Fall ist, ansonsten hätten wir wohl keine probleme,
mit zu wenigen und zu teuren Fossilen Brennstoffen und baldiger Energieknappheit.

Das einzige was eine Grafikkarte Leistet und in Watt angegeben werden kann,
ist Abwärme, aber sonst auch nix, also beherzigt dass doch bitte mal.
 
Spitzfindige Physiker würden Dir jetzt sagen: Das ist falsch. Wenn ein Objekt eine Leistung vollbringt, wird Energie pro Zeit verbraucht:

Leistung als physikalische Größe ist die pro Zeiteinheit umgesetzte Energie oder geleistete Arbeit.

Jede Form von Energieumwandlung, auch in Abwärme oder anderer Strahlung ist eine Form von Leistung. Deswegen ist der Begriff im Deutschen absolut korrekt.
 
Flo H schrieb:
Eine kleine Berichtigung:

Grafikkarten haben keine Leistung, sondern nur einen Verbrauch:rolleyes:

Wann kapiert das endlich einer?

Natürlich haben Grafikkarten Leistung! Sie leisten Arbeit pro Zeit. Sie berrechnen pro Zeit eine gewisse Datenmenge und das ist Leistung! Ganz einfaches physikal. Gesetz...
Achja und der Stromverbrauch ist auch Leistung: Verlustleisung. wird ja schließlich mit der Einheit Watt berechnet und Watt ist die Einheit für Leistung... Der Verbrauch ist lediglich die (Verlust-)Leistung pro Zeit, also Wattstunden z.B.
 
Zuletzt bearbeitet:
@ot (rager)

danke für diese klarstellung :)

sonst hätte ich es eben mit ähnlichem ansatz versucht.
als ich das gelesen habe...und dann auch noch die bemerkung "wann kapiert das mal einer"...meine fussnägel haben sich aufgerollt.

leistung ist ein umfangreicherer begriff, als man zunächst vermuten würde.

ein anderes gutes bsp.:
wenn ein auto bremst, dann beschleunigt es auch, aber negativ -> negative beschleunigung.


in der gesamtleistung einer graka ist quasi der "verbrauch (von energie)" und die berechnungen+bildausgabe, wodurch der verlust ja quasi erst entsteht enthalten.

am einfachsten ist es mit einer glühbirne:
5% lichtleistung+ 95% wärmeleistung= gesamtverbrauch/-leistung

mfg
 
hab auch eine HD4870 von Sapphire und hab mir mein Bios schon vor 2-3 Wochen geändert das sie im IDLE 160/1050 fährt und im 3D Modus 830/1050 hochtaktet hab den RAM Takt im IDLE , Desktop Power Mode u. 3D Mode gleich gelassen da für mich das flackern bei den wechseln der Speicher Takte unzumutbar ist , mir ist da auch aufgefallen das die Temps nur beim runtertakten des Speichers wirklich gut runtergehen sind im IDLE bei 160/500 ca. 50°C bei 30% Lüfter was schon sehr angenehme Temps im IDLE Betrieb sind bei 160/1050 hat die Karte gleich 8°C mehr bei 30% Lüfter .

die Spannungen zu ändern haben bei mir auch 0 , 0 Auswirkungen auf die Temps , messen kann ich es nicht ob die Karte weniger verbraucht .

hab diverse Kombis probiert IDLE & Desktop Power Mode auf gleiche Speichertakte runtertakten das flackern tritt nicht allzuoft auf aber immer noch sehr Störend !!

- beim Abspielen einer DVD mit MPC flackert es beim Starten , Stoppen , Pause usw.
- Firefox wechseln der Taps und Scrollen des Taps tritt sporadisches Flackern auf .

IDLE , Desktop Power Mode , 3D Mode in individuellen Takten hier ist es am schlimmsten der Bildschirm veranstaltet eine regelrechte Blink Orgie .

Desktop Power Mode & 3D Mode in gleichen Speichertakten laufen zu lassen ist mindestens genauso schlimm wie jeden Modus in individuellen Speicher Takt laufen zu lassen , da die Karte sehr oft vom IDLE in den Desktop Power Mode wechselt .

wollte hier schon nachfragen ob das gleiche auch mit dem ATI OC Tool passiert aber die Frage hat sich erübrigt .

wegen dem flackern finde ich momentan das runtersetzen des Speichertaktes eher als unbefriedigende Lösung um die Karte Kühler bzw. Stromsparender zu bekommen , ich bin echt gespannt wann ATI bzw. die Kartenhersteller da was vernünftiges Nachliefern kann ja nicht sein das wir ATI HD48x0 Besitzer auf sowas sitzenbleiben .

aber die Hoffnung stirbt bekannterweise als letztes .

wenn man wenigstens die Schwellenwerte der PP Modes Manipulieren könnte hätte man schon einen Ansatzpunkt wenigstens das flackern auf den wechsel in den 3D Mode zu beschränken obwohl das auch nicht nicht die eigentlich Funktion des PPs Herstellen würde , bei CSS ruht sich die HD4870 Teilweise auf einer Arschbacke aus aber im Fullscreen 3D Mode ist das flackern nicht so ganz penetrant .

achja hab mir die Karte auch beim 1ten Versuch das Bios zu Modden zerlegt hab ne PCI Karte in den Rechner gestopft und damit das richtige Bios 128KB inkl. der DDR5 Daten drüber geflashed , auf TechpowerUp sind schon diverse Biosfiles verschiedener Karten zu finden , Prinzipiell funktioniert jedes Bios File egal von welchem Hersteller es ist auf einer HD4870 Karte , aber hier sei gesagt alles auf eigene Gefahr .

nunja mein Fazit ist wenn das nicht bald behoben wird , hab ich die HD4870 auch nicht mehr lange in meinem Rechner da werde ich wieder eine NVidia in meine Kiste kloppen ist mir echt wurscht ob die im 3D Modus mehr Power brauchen dafür bringt z.B. die GTX280 auch ein paar Ecken mehr Leistung wie die HD4870 . Ist schade da die HD4870 eine gute Karte ist aber sowas werd ich auch nicht unterstützen , echt bald gibt es eine Konsole und Tausch meinen Desktop gegen einen Lappi damit ich den Käse nimmer mitmachen muss.

cu M^LiBuQ
 
Zuletzt bearbeitet:
M^LiBuQ schrieb:
...echt bald gibt es eine Konsole und Tausch meinen Desktop gegen einen Lappi damit ich den Käse nimmer mitmachen muss.

Jo und den Stomverbrauch haben wir dann verdoppelt, was? :rolleyes:

Standardkonsolen liegen bei ~300 Watt Verbrauch dazu dann der Lappi, da muß dein jetziger PC schon ordentlich ausgestattet sein um an die Verbrauchswerte zu kommen. Und das nur weil man sich über 20 Watt Mehrverbrauch und 85 - 90° Chiptemperatur aufregt?

Also bitte lass die Kiste auf Standardwerten laufen und gut ist, die Probleme hast doch wohl nur weil die Finger ned davon lassen kannst :p
 
Zurück
Oben