Stromverbrauch X1900XT 256mb vs. 8800GTS/X

Rohirrim

Lieutenant
Registriert
Apr. 2007
Beiträge
596
Moin,

nach dem Test bei computerbase

https://www.computerbase.de/artikel...mb-test.639/seite-27#abschnitt_stromverbrauch

verbraucht meine x1900XT 256mb mehr strom unter last als eine 8800GTS und nur minimal weniger als eine 8800GTX.

Könnt ihr mir das mal erklären?? Wieso hat dann die GTX zwei Stromanschlüsse und kann ich dann (hab ein 400W Aopen netzeile mit 14 bzw. 15A auf den 12V-Leitungen) eine 8800GTS betreiben??

Mfg
 
Ich glaube das stimmt auch nicht! ;)

Deine Karte verbraucht DEFINITV weniger!

eine X1900XT soll sogar MEHR brauchen!:freaky:

Das stimmt aber auf keinen fall.
 
Die X1900XT ist eben leider eine der ineffizientesten Karten, was das Verhältnis von Stromverbauch zur Leistung angeht :rolleyes:. Das sieht man ja u.a. auch an der hohen Wärmeentwicklung der GPU (=hohe Verlustleistung). Von daher können die Ergebnisse schon stimmen.
Die 8800GTX hat den zweiten Stromanschluß quasi als Sicherheitsreserve, d.h. es würde gerade eben so auch ein Anschluß reichen. Vielleicht hat nvidia da bei der Konzipierung schon an übertaktete Modelle oder die 8800ultra gedacht, die nochmals deutlich mehr verbrauchen.

Für eine 8800GTS würde Dein NT ausreichen.

Mfg mmic29
 
Ich habs selbst schon gemessen, und ich kann dir sagen, dass bei mir was anderes rauskam! ;)
 
die GTX intressiert mich auch eher weniger.....nur hat mich die doch recht kleine differenz beim verbrauch gewundert.
solange ich die GTs betreiben kann ist das ok.

btw: gibt es irgendwas neues bzwgl. nvidia refresh-chip oder 9xxx serie in 80nm? Das dürfte sich ja auch positiv aud die wärmeentwicklung und stromverbrauch auswirken.
 
Neuigkeiten gibts leider nicht wirklich, nur eben dass die 8900 wohl direkt übersprungen wird und nicht auf den Markt kommt. Wann eine potenzielle 9800GTX/GTS kommt, weiss wohl noch keiner außer nvidia vielleicht (wenn diese dann überhaupt so heisst, siehe die Verwechselungsgefahr des Namens mit ATI-Modellen :lol: ).

Mfg
 
@Schwabi

Willst du damit sagen das die Computerbase-Redaktion zu blöd ist Werte von nem Verbrauchs-Monitor abzulesen?

Wenn wir schon dabei sind, Tomshardware Guide sind scheinbar auch zu blöd denn die kommen ca. auf die selben Werte wie Computerbase.
http://hardware.thgweb.de/2007/04/30/grafikkarten-tuning-nvidia-gtx-gts/page17.html

Schwabi ich will dir ja nicht zu nahe treten aber wieso solltest du das besser können wie die beiden?
 
Ich weiß nich!:D is halt so!

Und glaubst du dass die X1900 die 2x 75 Watt völlig ausreizt, bis an die grenze?

Ich behaupte einfach mal, dass die X1900 nicht soviel braucht^^

und wo in dem link is ne X1900? xD
 
Zuletzt bearbeitet:
Naja ich weiß net ob die beide Anschlüsse voll ausgereitzt werden oder nicht aber ich gehe davon aus das die gemessenen Werte echt sind.

Es könnte aber auch sein das Computerbase und THG sich zu einer großen Verschwörung zusammen geschlossen haben um ATI einen überhöhten Stromverbrauch unterzuschieben:freaky:

Da ist keine X1900 XT im THG Test aber das Verhältnis zur X1950 XTX ist ca. das selbe wie im CB Test.
 
Hier hat der Vergleich zwischen ATI X1900 XTX und der nVidia Geforce 8800 GTX noch gestimmt:

https://www.computerbase.de/artikel...tx-test.614/seite-31#abschnitt_stromverbrauch

Es kann verschieden Gründe geben, warum es bei dem anderen Test so ganz anders gelaufen ist. Ich nehme an, dass es an verschiedener Stromzuführung zu der Grafikkarte und gleichzeitiger Übertaktung liegt.

Während die Geforce 8800 GTX ihren Strom über 2 zusätzliche Stromadapter direkt vom Netzteil bezieht, muss die 1900 XTX sehr viel Strom über das Board ziehen. Wegen der Übertaktung des Prozessors sind dort die Spannungswandler schon gut ausgelastet und laufen dann auf Vollast mit 1900 XTX mit einem schlechten Wirkungsgrad, was dann schon mal so ein Ergebnis verfälschen kann. Da ich das System nicht habe, kann ich diese These nicht beweisen/bestätigen.

Ein weiterer Grund für die Abweichungen ist, dass die Karten nicht am selben Tag gebencht werden und sich wegen der Temperaturschwankungen wiederum Wirkungsgradschwankungen des Netzteils ergeben.

https://www.computerbase.de/artikel...ra-test.656/seite-27#abschnitt_stromverbrauch
 
Zuletzt bearbeitet:
Könnte es nicht auch sein das nVidia mit nem Treiber Trick die Karte stromsparender unter Last gemacht hat?
 
VAP7985 schrieb:
Naja ich weiß net ob die beide Anschlüsse voll ausgereitzt werden oder nicht aber ich gehe davon aus das die gemessenen Werte echt sind.

Es könnte aber auch sein das Computerbase und THG sich zu einer großen Verschwörung zusammen geschlossen haben um ATI einen überhöhten Stromverbrauch unterzuschieben:freaky:

Da ist keine X1900 XT im THG Test aber das Verhältnis zur X1950 XTX ist ca. das selbe wie im CB Test.


Wenn du mich verarschen willst dann komm wenigstens zu mir nach hause!

Es ist einfach nicht der fall, und aus!

Sonst könnte man die X1900 ja garnicht mehr übertakten, oder bist du anderer meinung?

Der link von xp_home scheint mir eher richitg!

Ausserdem gug dir mal die komischen werte von deinem link an...sind die alle verschieden übertaktet oder wie lässt sich da der unterschied zwischen den GTXen erklären?

Könnte es nicht auch sein das nVidia mit nem Treiber Trick die Karte stromsparender unter Last gemacht hat?

Wie soll denn das gehen? kann ich mir elektrotechnisch net vorstellen, Takt is gleich, Spannung is gleich, und ich wüsste net wie man den strom der karte per treiber ändern kann! ... hm
 
Zuletzt bearbeitet:
1. Ich denke das man auch mehr als 75Watt aus ner Leitung saugen kann natürlich außerhalb der Spezifikation.
2. Habe ich nie behauptet das die ATI Karte an der "150W Grenze" hängt.
 
Also der verbrauch von der 8800 gtx und einer 1950 xtx liegt garnicht so weit auseinander und der 2 Anschluss an der 8800 gtx ist nur zur absichernug der karte falls sie mehr braucht das sie es auch hat.Ich denke auch das es eine rolle spielt was mann für eine Prozzesor drine hat.
 
naja ne GTX zieht schon ihr 140 Watt unter last, und wenn die X1900 mehr saugt, ist sie ander grenze, also eigentlich hast du das ausgesagt! ;)
 
Er hatt gefragt ob die 8800 GTS weniger braucht wie die X1900 XT und dazu habe ich mich geäußert nicht zur GTX.

Die GTX scheint ca. auf dem selben level sein wie die X1900 XT/XTX
 
Genau also so weit ich weiss 75watt über pci-x und 75 watt über 6pin sind zusammen 150watt .Ob sie dann auch mehr ziehen kann oder möglich ist kann ich nicht sagen .Das weiss nur der hersteller oder der es testet und ich denke 150watt ist grenze.
 
Dann les nochmal nach! ;) und les ein bisschen zwischen den zeilen! ;)

Ich glaub nich das die GTX und die X1900 gleichauf liegen! ;)
 
zitat Er hatt gefragt ob die 8800 GTS weniger braucht wie die X1900 XT und dazu habe ich mich geäußert nicht zur GTX.

Die GTX scheint ca. auf dem selben level sein wie die X1900 XT/XTX[/QUOTE]

Ich denke beide werden gleich sein das sie nur ein 6pin anschluss haben .
 
schwabi schrieb:
Wie soll denn das gehen? kann ich mir elektrotechnisch net vorstellen, Takt is gleich, Spannung is gleich, und ich wüsste net wie man den strom der karte per treiber ändern kann! ... hm

Na-ja, den Peakverbrauch kann man schon mit dem Treiber eventuell senken. Wie macht CB ihr Stromtest? Sie lasten die Karte aus und lesen dann den höchsten Wert ab und nicht etwa den durchschnittlichen Maximalverbrauch. Durchschnittlicher Maximalverbrauch klingt zwar doof, aber eigentlich sagt dieser mehr aus, als ein Peakwert. Den durchschnittlichen Maximalverbrauch wird man per Treiber nicht senken können ohne dabei die Leistung der Karte einzuschränken. Die Spitzen (Peaks) des Verbrauchs kann man dagegen mit Hilfe des Treibers absägen ohne die Leistung der Karte merklich zu senken. Deswegen wäre es auch besser, wenn CB nicht die Peaks abließt, sondern einen durchschnittlichen Maximalverbrauch ermittelt. Also den durchschnittlichen Verbrauch bei Vollauslastung.
 

Ähnliche Themen

Zurück
Oben