News Catalyst 8.8 mit besserem CF und PowerPlay?

@ michi12

naja, ich halte es wirklich für machbar 4€ zu sparen. 100W sind easy drin mit anderer CPU und stromsparender Graka.
Bei wievielen hier eiert der PC die ganze Nacht in Idle rum um die Downloads fertig zu bekommen. Selbst ich, mit ISDN, lassen den PC teilweiße Nachts durchlaufen. Bei den meisten wird er locker 12h / Tag laufen. Halte ich durchaus für realistisch.
Und bei einem Crossfiresystem verdoppelt sich ja noch die Energieverschwendung...

Wie wichtig einem Stromsparen ist muss jeder für sich entscheiden. Mein PC braucht idle 180W, dh er kostet mich alle 5 Stunden 20 Cent / >50 Cent am Tag / >15€ Monat / ~200€ im Jahr - was wie ich finde alles andere als unerheblich ist. Gut das ich ne Solar Anlage aufm Dach hab die mehr reinholt als ich durch den PC verbrate, das tut dem Gewissen gut ;)

Viele andere haben nen PC der nichtmal 90W frisst... 100€ gespart, kann man der Freundin was schönes davon kaufen =)
 
die.foenfrisur schrieb:
es gibt 2 versionen des cat 8.8 und laut ati-forum ist der neuere ohne powerplay.
das kann salvadore sicher dann auch bestätigen ;)

http://www.ati-forum.de/allgemein/n...aufgetaucht-catalyst-8-8-beta-found/?82c2a8cc
http://www.tweakpc.de/news/14406/ati-catalyst-8-8-beta-download/


allerdings habe ich soeben auch mit meinem bruder telefoniert, der heute frei und den cat schon installiert hat. bei ihm gab es mit beiden versionen keine verbesserung ;) (xp64)

ich teste gleich heute abend mal nach der arbeit. (xp32)
aber es sieht weniger gut aus.


@ hoosty, welches os haste drauf?

mfg

Ja, gibt in beiden Versionen offiziell keine Verbesserung in Powerplay!!!
 
musst schon aufpassen mit den messgeräten hatte auch mal mit einem billigen gemessen und da hatten die neuen netzteile 80+ die ich gekauft hatte alle nen höheren verbrauch als ein altes billiges 350W netzteil, hab sogar mal eins deshalb zurück geschickt. als ich dann ein seasonic 380W gekauft hatte und das laut dem netzteil immernoch 20W oder so mehr verbrauch hatte hab ichs nicht mehr geglaubt ein neues bestellt irgend ein testsieger auch billiges ding aber trotzdem das hat dann aufgezeigt das es genau adersrum war.

kann natürlich nicht ausschließen das es trotzdem stimmt aber man muss schon aufpassen mit den dingern und es nicht unkritisch glauben was die dinger ausspucken.
 
Sag ich ja auch nicht, aber eine Differenz sollte man bei Funktion von Powerplay erkennen.
 
die Mikroruckler sind systembedingt (klick).

Auch wenn im letzten Satz etwas von Treibern geredet wird, so ist das schier unmöglich. Wie soll denn da eine harmonisierung durchgefürht werden? die eine gpu weiß doch nicht wie lange die andere für das nächste (=zukünftige) bild brauchen wird. ein "smoothing" wäre dann nur möglich wenn bereits beide bilder berechnet vorliegen und im anschluss mit einem zeitlichen mittelwert ausgegeben werden.
dann ist die "echtzeit" aber dahin da je nach zeitlichem filter ein mehr oder weniger großer delay auftreten wird.

ich höre da schon die ego-shooter-kings schreien weil sie die bilder (zusätzlich zur latency des netzes) später sehen als andere.
 
Realsmasher schrieb:
wann löst nvidia diese Probleme ?

- mikroruckler haben sie genauso
- der stromverbrauch ist immernoch viel zu hoch
- bestimmte "optimierungen" (z.b. in crysis) lassen sich gleich garnicht abschalten
- Der Speicherbug der g80er sollte auch irgentwann Anfang 2007 mal gefixt werden
- die gpu-skalierung funktioniert schon seit ewigkeiten nicht mehr vernünftig
Darum gehts doch gar nicht. ;)

- Ja und zum Glück verschwindet die GX2 auch wieder.
- Ja, sollte allerdings auch nie gesenkt werden. (außer beim Nachfolger GF200) " Wann und ob überhaupt solch ein Treiber erscheinen wird, konnte uns nVidia nicht sagen."
- Mag sein, das Crysis von beiden IHVs noch extra optimiert wurde, aber erstens siehts doch auf Bildchens gleich aus und zeitens ist AI viel schlimmer weils alle Spiele betrifft.
- Was es in der Form nicht gibt, kann nicht gefixt werden. ;)
- Was meinst du damit? Die GTX 260 skaliert doch angeblich zu 86-90%.

michi12 schrieb:
Und wie willst du bitte 100W sparen, soviel verbraucht die Karte im Idle niemals ;)
Kommt auf die Karte an.
Wenns bei der 4870 65W sind, was zieht dann wohl eine X2? ;)

salvadore schrieb:
Das schliest aber nicht aus, das im Idle der Stromverbrauch, des gesamten Systems, zurückging!
Abzüglich NT 26-30W für 2 4850.
Interressant, das du unbedingt ein CF aus 2 Karten testen musstest und keine Einzelkarte. Damit die Ergebnisse größer werden? ;)

salvadore schrieb:
Aber, was ich mit ziemlicher Sicherheit sagen kann ist, dass es beim R800, der via MCM (Multi-Chip-Modul) Technik zusammengebastelt ist, höchst wahrscheinlich keine Mikrorucker geben wird!
Möglich, sofern diese alten Gerüchte stimmen. Aber jetzt sind wir erst mal bei Rx7xx. ;)
 
Zuletzt bearbeitet: (rosa)
Hat schon jemand die Temperatur mit dem neuen Treiber gemessen? Oder muss man weiterhin auf die selbst erstellten Profile zurückgreifen?
 
42k schrieb:
in meinen Augen ist der IDLE-Verbrauch der neuen ATI indiskutabel! nVidia hat es vorgemacht und es geht! warum soll ATI das nicht können? sollte der 8.8 tatsächlich das PP verbessern, dann sinkt der Verbrauch der 4850 in Regionen der alten 3850, was zu begrüßen ist! wie es bei der 4870, wegen DDR5 sein wird, dass mus dann ein Test bewesien! wenn nicht, dann wird auch der nächste Treiber es nicht richten können und der Fehler ist u.U. architekturbedingt!

EDIT: mit geht es um den IDLE-Verbrauch! unter Last ist mir das (fast) das egal!

Du weißt aber schon, dass es hier um eine Differenz von 15 -20 Watt geht? Und wenn ATI die mit dem Cata 8.8 noch raus holt, dann stehen die Nvidia und die ATI Karten gleichauf.
Und in den ersten Tests der GTX Karten hieß es auch noch, dass die Stromsparfunktion noch nicht so arbeite wie geplant und das es irgendwann per Treiber nachgereicht werden würde nur hab ich seitdem in keinem einzigen Test mehr etwas darüber lesen dürfen, im Gegensatz dazu steht es bei den ATI Karten in wirklich jedem Test dabei, dass PowerPlay mit einem Treiber noch folgt. Wenn jetzt der 8.8er Cata das hält was er verspricht ist ATI Nvidia wieder einmal einen Schritt voraus, wobei ich bezweifle, dass NV noch irgendwas am Stromverbrauch ändern wird, versprochen wurde sowas ja auch schon für die 8000er Serie :rolleyes:

xbitlabs haben mal nur (!) den Stromverbrauch der GraKas getestet, ohne die restlichen PC Komponenten:

gtx200_power.gif


Quelle
 
Sir_Paul schrieb:
Hat schon jemand die Temperatur mit dem neuen Treiber gemessen? Oder muss man weiterhin auf die selbst erstellten Profile zurückgreifen?

76°C weiterhin.
 
Tinpoint schrieb:
wenn das der stromverbrauch des gesamten PCs sein soll dann kauf dir lieber ein Neues Stromverbrauchsmeßgerät , das taugt nix :lol:

Welches verwendest du denn ?

Gut genug ?
- ELV EM 94
- Voltcraft Energy Check 3000
 
habt ihr es nicht gelesen, das powerplay doch nicht funkt?
also spart euch eure messungen.

mfg
 
Sowohl mit 8.6, 8.7 und auch mit dem neuen Beta Treiber. Keine Änderung, immer gleiche Temperatur, immer gleicher Verbrauch.
 
Unyu schrieb:
- Was es in der Form nicht gibt, kann nicht gefixt werden. ;))
Das sehen aber ganz ganz viele nV Besitzer anders als du, außer man hat den Status Ehrenamtlicher Super-Fan-Boy dann muss man sich das natürlich schön reden und als Modernes Exklusiv Feature verkaufen. Also nehme es mir nicht übel aber dann verhalten ist ja schon fast kra***aft und nochmal ein kleiner Tip, nV hat doch bestimmt ein eigenes Forum, da wärst du bestimmt besser aufgehoben, da widersprechen dir keine 95% User deiner Meinung.
 
Zuletzt bearbeitet:
seit wann kann man irgend eine leistungsaufnahme per software messen ??
 
@junglejunky
du musst Externe Geräte verwenden
Gut genug ?
- ELV EM 94
- Voltcraft Energy Check 3000
Ich habe auch das Voltcraft Energy Check 3000 für 25€ bei Conrad erstanden. Ist sehr genau mit +-1%

oder muss man das über Volt x Ampere ausrechnen?
Das wird nicht gehen, da zwischen der Spannung und er Stromstärke eventuell eine Phasenverschiebung vorhanden sein wird :)
 
N-rG schrieb:
Ich finde das so albern, wie viele hier immer wegen dem Stromverbrauch rumschreien. Die meisten hier, wissen nichtmal was Sie für das Kilowatt bezahlen bzw. bei den meisten zahlen es doch eh die Eltern.

Sorry, aber wenn ich Gamer bin und meine Karte zieht 40 Watt mehr ist mir das echt egal. Die paar cent mehr im Monat, das ist nen Witz. 1 Kippenpackung weniger und man kann die Karte 5 Monate laufen lassen ohne das es stört. Allgemein sollte niemanden in Deutschland der Aufpreis wehtun.

Und falls es doch wehtut, läuft bei Euch sowieso was falsch. Dann ein Tipp: Mehr in Bildung und Arbeit investieren anstatt alle Zeit der Welt ins Zocken zu stecken. Dann klappts auch mit dem Stromanbieter ;)

Womit ich nicht sagen will, dass ein niedriger Stromverbrauch gut ist. Bloß diese übertriebene rumgeheule nervt. Da kommt man sich ja vor wie in der Ukraine.
Stimmt. Man sollte sich doch darüber freuen, dass die Karten so viel verbrauchen. Erstens wird es im Winter schneller Warm im Zimmer (und es bleibt auch warm, selbst wenn man die Karte nur im IDLE-Modus nutzt) und zweitens habe ich gehört, dass die Stromanbieter so wenig verdienen und es denen ganz schlecht geht. Man tut also auch noch etwas für die Wirtschaft. Und wenn man sein ganzes Geld für Strom ausgibt, kauft man sich auch weniger Schokolade und tut damit etwas für seine Gesundheit.
Und alle, die das trotzdem noch stört, dass man heutzutage 90W benötigt, um stillstehendes Bild an den Monitor zu schicken (und damit so viel wie ein 30"-Monitor auf mittlerer Helligkeit zum Anzeigen braucht), die brauchen sich keine Sorgen machen und sollten auch nicht meckern. Denn Firmen wie ATI und NVidia werden von sozialen und umweltfreundlichen Leuten geführt und alle arbeiten hart daran Stromsparmechanismen in die Produkte zu integrieren und das würden sie auch tun, wenn sich keiner über den Stromverbrauch beschweren würde. Und das das komplette Ausschalten von Grafikkarten und das Nutzen der Chipsatz-Grafik noch nicht vernünftig und schon gar nicht auf Desktops funktioniert, obwohl PCIe bereits seit Jahren Standard ist und Hot Plugging eigentlich dazu gehört, ist einfach reiner Zufall und liegt vermutlich daran, dass die Firmen mit der Weltverbesserung so schwer beschäftigt sind, dass halt solche sinnlosen Dinge manchmal etwas warten müssen.
 
Unyu schrieb:
Darum gehts doch gar nicht. ;)

- Ja und zum Glück verschwindet die GX2 auch wieder.

Aber auch nur weil ein Gespann aus 2 280ern praktisch nicht möglich ist, sonst würde NV mit Sicherheit eins bringen


- Mag sein, das Crysis von beiden IHVs noch extra optimiert wurde, aber erstens siehts doch auf Bildchens gleich aus
dann hast du definitiv nicht mit pre-crysis-releasetreibern und aktuellen verglichen

und zeitens ist AI viel schlimmer weils alle Spiele betrifft.
Nur Ati optimiert spiele und nvidia nicht ? ziemlich unwarscheinlich

- Was es in der Form nicht gibt, kann nicht gefixt werden. ;)
Den Speicherbug kann man nicht abstreiten, der wurde von zig Seiten und hunderten von Nutzern bemerkt

- Was meinst du damit? Die GTX 260 skaliert doch angeblich zu 86-90%.
war wohl etwas unglücklich ausgedrückt. Ich meinte die Skalierung der Auflösung durch die gpu, z.b. 1600*1200 auf einem 1920*1200 ohne Zerrung auszugeben.


Wenns bei der 4870 65W sind, was zieht dann wohl eine X2? ;)
irrelevant, bisher konnte man bei allen x2 Karten die 2te gpu von Hand abschalten


Interressant, das du unbedingt ein CF aus 2 Karten testen musstest und keine Einzelkarte. Damit die Ergebnisse größer werden? ;)

Ich hab garnix getestet, sondern im gegensatz zu dir scheinbar die news komplett gelesen



hey, kann mir einer sagen mit welchem programm ich die leistungsaufnahme meiner graka messen kann? oder muss man das über Volt x Ampere ausrechnen?

Das Atitool beherrscht das bei meiner 1900xt, weiß aber nicht ob es bei den neuen karten auch funktioniert.

Es zeigt aber auch nur wenige Abstufungen an. (glaube nur so ~2A Schritte, also um die 24W)
 
Zurück
Oben