Bericht Bericht: Stromverbrauch aktueller Grafikkarten

@ #17 "Cerberus"
Leider nicht, zumindest nicht, dass mir bekannt wäre. Die hüten mittlerweile alle Interna ihrer Chips besser als Bill Gates den Quellcode von Windows.
 
Hi

der vergleich zwischen mehr dem auto und die mehr leistung finde ich putzig :) was hast du für einen schulabschluss BodyLove?
ist schon sehr eigenartig.

nun mal mein problem bei dem vergleich, ein auto nimmt enegie auf in form von chemischer enegie ab, und wandelt einen teil davon in mechanische um. der rest ist verlust (wärme, "licht" und lärm)

Grafikkarten nehmen energie in form von elektischer energie auf. und welche energie geben sie ab? nur krach und wärme :( alles verlust.
man darf doch keine rechenleistung gleich sätzen mit verlustleistung. habt ihr mal was vom einheiten mitrechnen gehört?

@SystemLord
weiss nicht ist es egal? vieleicht haben die ja mal 1KW wenn alle so denken wie du, dann brauchst du noch eine klimaanlage weil 1KW nicht so einfach zu kühlen sind, deinen rechner kannst du nur anschalten wenn winter ist, weil sonst die temeratur zu stark ansteigt. deine eltern können sich den strom nicht mehr leisten weil die AKW´s abgeschalten wurden und öl/kohle zu teuer geworden ist. zugegeben unwahrscheinlich, aber wenn alle so denken wie SystemLord.

carsten:
der artikel ist wirklich gut. :)
 
Leider keine Xabre-GPUs von SIS dabei, die ja auch hochmodern gefertigt werden, aber nicht der High-End-Klasse angehören.
Ein Vergleich mit Gf4MX wäre wünschenswert :-)
 
Oha, das ja Hammer was aktuelle Grakas an Strom fressen, hätte ich nicht gedacht, dachte immer Monitor verbraucht am meisten aber das schaffen Grakas ja auch mittlerweile.
 
@ #22 "Schuggy"
Ja, die Xabre ist für Version 2.0 des Artikels in Planung. :-)
 
Ich finde den Stromverbrauch der Grakas relativ egal. Wir reden hier ja nur ueber ein paar Watt unterschied! Es ist ja nicht so, dass die Graka die 200W allein verbraucht.
Viel wichtiger finde ich die Stromsparmodi der Karten. z.B. waer es doch wirklich mal ne Idee, wenn man die graka komplett ausschalten koennte. Wenn der Rechner eh nur am ziehen ist oder als Server laeuft, dann brauch man ja eigentlich auch keine Graka...
Wenn ich ein aktuelles Spiel zocke, dann ist es auch nicht so schlimm, wenn das Teil ordentlich Leistung zieht.
 
was sind das denn für angaben....... fast 200 w nur für die Grafikkarte...... da muß computerbase wohl was daneben gegangen sein..... das ich nicht lache:)

mit 200 w kommt man schon mit einem kompletten high - end system inkl. monitor aus.......

wie bitte schön kommt ihr auf ca. 200 w?

mfg
 
Tut mir leid, Pidel, aber du solltest schon die Erklärung im Text lesen, anstatt nur die bunten Grafiken anzugucken....

Die Leistungsaufnahme bezieht sich natürlich auf das Gesamtsystem.

Und ein High-End System inklusive anständigem Röhrenmonitor wirst du unter Last nicht unter 300W sehen...
 
naja meins ist nicht mehr absolut high end, aber immer noch im mittleren sektor..... kurz xp2600, a7v266e, 3x 256mb ram, ti4600, pinnacle pctv pro, soundblaster live 5.1, avm fritz, 2 x hdd (wd+maxtor), 1 x dvd + 1 x cdrw, 1x scanner, 1x drucker, 1 x 5.1 soundsystem, 1 x 17" röhrenmonitor+ 1 x 20 w schreibtischlampe.........

so ich glaub das wäre alles

das ganze gibt sich unter vollast, damit meine ich auch scanner+ drucker + lampe , mit 0.8 a zufrieden......

unter leerlauf habe ich leider noch nicht gemessen......

mfg
 
spitzenartikel, so etwas ähnliches sollte es im grösseren Rahmen (wieviel Strom verbrauchen eigtl. aktuelle Mainboards zb) noch einmal geben.

ich würde mir mal gerne ausrechnen können, was mein Turion@DFi 250gb, geforce440mx rig ca. zieht. Ich hoffe mal wenig :)
 
Hallo,

130 ~ 200 Watt nur für die Grafikkarte? Das kann nicht sein, wohl eher für das ganze System oder vielleicht ein Umrechnungsfehler Watt@230V vs Watt@12V oder ... ?

ATI gibt doch für die X1300/X1600 gerade mal 25 ~ 36 Watt an, siehe Geizhals.

MfG
 
chris-22 schrieb:
Hallo,

130 ~ 200 Watt nur für die Grafikkarte? Das kann nicht sein, wohl eher für das ganze System oder vielleicht ein Umrechnungsfehler Watt@230V vs Watt@12V oder ... ?

ATI gibt doch für die X1300/X1600 gerade mal 25 ~ 36 Watt an, siehe Geizhals.

MfG

Lies dir den Test genau durch!
Das waren ja auch Grakas vor ein paar Jahren ;)
 
Genau. Die Angaben beziehen sich, wie auch deutlich vermerkt, auf den Verbrauch des Gesamtsystems, da sich ohne aufwändigen Testaufbau wie bei den Xbit-Labs bsw. die Leistung der Grafikkarte nicht per Differenz-Methode herausrechnen läßt.
Eine stärkere Grafikkarte beansprucht auch Teile des Restsystems stärker, da sie höhere FPS-Zahlen liefert.
 
Löl ein 4 jahre alter artikel wird wieder ins leben gerufen :D

aber wäre schon nett wenn man das mit aktuellen graka machen würden. am besten gleich noch die neuen p35 boards noch dazu.
 
Wenn ich mir die Verbrauchswerte heutiger Grafikkarte ansehe bin ich echt froh das die Hersteller nach Jahrelanger fehlentwicklung endlich mal geschaft haben den Idle und Volllastverbrauch radikal zu senken. Jahrelang ging der Verbrauch immer nach oben zusammen mit stärkeren Kühlern und häufig auch mehr Lautstärke.

Bin gespannt wie es weiter geht.

CB könnte ruhig mal ne neuauflage des Test machen, jetzt nach 10 Jahren gibts auch Sparsame Karten.

P.S: Ich bin kein Leichenschänder.
 
Zurück
Oben