GeForce 4 und GeForce 6 - Stromverbrauch und Signifikanz

  • Ersteller Ersteller Telespieler
  • Erstellt am Erstellt am
T

Telespieler

Gast
Hallo,

wie ich einem CB-Artikel (https://www.computerbase.de/artikel...e-und-geforce-6800-gt-ultra-test.342/seite-19) entnommen habe, verbraucht eine 4800er GeForce sogar mehr Strom als eine 6800 GT.

Derzeit werkelt bei mir eine Ti4200 im Rechner und ich plane, in diesem Jahr eine 6600GT oder eine 6800 zu kaufen.

Nun frage ich mich, ob der Stromverbrauch der beiden 6er-Karten im Vergleich zur 4200 höher liegt, beziehungsweise, ob ein etwaiger Mehrverbrauch im Jahr signifikante Mehrkosten verursacht.
Ich frage das deshalb, da ich auch vorhabe, meinen 19''-CRT durch einen 15''- oder 17''-TFT zu ersetzen, da hierbei doch eine erhebliche Stromersparnis zu erwarten ist. Ich möchte vermeiden, daß diese Sersparnis durch die Anschaffung einer leistungsstärkeren Grafikkarte wieder zunichte gemacht wird.

Ich danke für Eure Hilfe. :)
 
Dann wäre in erster Linie interessant zu wissen, wie lang dein Rechner am Tag in Betrieb ist und wieviel davon tatsächlich unter Last. Denn dem Link nach entnehme ich, das sich das Bild umkehrt, sobald die Grafikkarte richtig arbeiten muss. Dann ziehen nämlich die GeForce6-Karten an den GeFroce4-Karten in Sachen Stromverbrauch vorbei.
 
die Karten der 6er Reihe verbrauchen doch sicher mehr Strom. alleine durch den zusätzlichen stromanschluss
 
BulletProofED schrieb:
die Karten der 6er Reihe verbrauchen doch sicher mehr Strom. alleine durch den zusätzlichen stromanschluss

ja, aber im idle brauchen sie auch nicht allzuviel strom.
zum monitor: habe vor nem guten halben jahr meine 17" Röhre in Rente geschickt und mir dafür nen 17" TFT geholt. Unterm Strich verbraucht der TFT signifikant weniger Strom (~30 Watt) als die Röhre (~95 Watt)
 
Hallo,

ich denke, ich kann Dir da ganz gut weiterhelfen, da ich letzten Winter auch eine Ti4200 durch eine 6800nonGT ersetzt habe und mich da auch informiert habe und immer noch gern in die Thematik einlese.

Die Ti4200 verbraucht 22 Watt - die 6800 nonGT verbraucht 39 Watt (6800GT 55W, 6800 Ultra 72W).

Die 6800 ist eine sehr interessante Karte, da sie mit 3.43 FPS/Watt einen der besten Leistungskoeffizienten hat. Die 6600GT ist da weniger zu empfehlen, da sie etwas langsamer als die 6800 ist und auch noch mehr verbraucht (damit einhergehend auch wärmer wird).

Z.Zt. ist es so, dass die 6800 von GigaByte mit 149 € versandkostenfrei bei amazon auch noch günstiger als die eine oder andere 6600GT ist und auch noch passiv gekühlt wird!
 
Zuletzt bearbeitet:
Hallo zusammen,

erstmal danke für die Antworten. :)

@ Toxid
Nun, die Lastverteilung ist unterschiedlich. Ich würde sagen, unter der Woche läuft der Rechner schon 3 bis 4 Stunden pro Tag, allerdings hat die Grafikkarte dabei meist nur Windows darzustellen, seltener mal ein Spiel, was sich aber logischerweise beim Kauf einer neuen GraKa und ein oder zwei gscheiten Spielen zumindest kurzfristig ändern kann.
Der Monitor läuft zu 90% durch in dieser Zeit, also kein Stand-By.

@ wayne
Weiß ich. Deshalb will ich nen TFT. ;)

@ sebbekk
Danke schön für den Tip. Das hört sich doch ganz gut an. An die Non-GT dachte ich auch schon, und wenn Du sagst, die 6600er GT verbaucht sogar mehr, ist die 6800er natürlich die Wahl, zumal die 10 bis 15 Watt mehr nicht sooo arg ins Gewicht fallen im Vergleich zur Verbrauchsersparnis CRT vs. TFT. :)
 
Servus alle zusammen
die Daten können doch nie Stimmen. Ich vergleich jetzt mal ne 9800XT -20Watt mit ner 9800Pro
hab ne 9800er pro und en netzteil mit 10Watt auf 12 Volt, dazu nen 2600+€ 2,4GHz.
laut der Tabelle würde dann ne 9800er pro etwa 12-15A, auf jeden Fall mehr als 10A auf der 12 Volt schiene brauchen. Das kann irgendwie net gehen

edit: afaik halte ich auch nix von der Geforce Reihe ab FX... holt euch lieber ne x800XL ;)
 
Du darfst gern mal einen Blick auf die AGP3.0-Spezifikationen werfen und erspar uns bitte weitere Meinungen à la "GeForce böse, nehmt ATI" :rolleyes:
 
Inwieweit hilft mir das weiter? Könnte das bitte einer mal übersetzen?
 
das ist ganz einfach:die fx karten sind für aktuelle direct x9 spiele infach zu langsam und das ist auch kein geheimniss mehr.diese karten sind einfach nicht mehr zu empfehlen.kaufe dir lieber eine aktuelle midrange karte ala 6600 oder 6800 da haste viel mehr von;)
 
Ich meinte eigentlich die Geschichte mit Volt und Ampere etc pp, und was das jetzt über den Stromverbrauch aussagt.
 
die Angaben bei dem dir genannten Artikel sind in Watt. Grakas "brauchen" Strom auf der 12 Volt Leitung. Sprich zb. 120Watt währen 10A auf 12 Volt da 12V*10A=120W

edit: und wenn dein nezteil nur 10A auf der 12 Volt Schiene hat kann ja nix mehr für alles andre bleiben
 
Wie ich sehe, bist Du meiner Empfehlung allem Anschein nicht nachgekommen, sonst wäre Dir inzwischen bewusst, dass Du komische Sachen redest.

Laut den AGP3.0-Spezifikationen sind maximal 1A über 12V bereitzustellen. Die restliche Leistung wird über andere Spannungen zur Verfügung gestellt, nicht nur über 12V.
 
sebbekk schrieb:
Laut den AGP3.0-Spezifikationen sind maximal 1A über 12V bereitzustellen. Die restliche Leistung wird über andere Spannungen zur Verfügung gestellt, nicht nur über 12V.

Nein, der Artikel von Computerbase ist hier fehlerhaft. Diese Angaben beziehen sich nur auf den Strom, der ueber den AGP Slot bezogen werden darf. Externe Stromanschluesse der Karten sind hier nicht beruecksichtigt.
 
Eine 9800Pro hat aber keinen extra Anschluss oder?
MHumann schrieb:
Servus alle zusammen
die Daten können doch nie Stimmen. Ich vergleich jetzt mal ne 9800XT -20Watt mit ner 9800Pro
hab ne 9800er pro und en netzteil mit 10Watt auf 12 Volt, dazu nen 2600+€ 2,4GHz.
laut der Tabelle würde dann ne 9800er pro etwa 12-15A, auf jeden Fall mehr als 10A auf der 12 Volt schiene brauchen. Das kann irgendwie net gehen
Jedenfalls bin ich mir bei der 6800 ziemlich sicher, dass die 39 Watt stimmen. Es wäre auch ein bisschen komisch, wenn der Verbrauch über die 12V Leitung nur durch den externen Anschluss von 1A auf 10A steigen würde.

120W verbrauchen jedenfalls die aller wenigsten Karten - ich kenn keine.

P.S.: Der Bericht ist nicht fehlerhaft - es sind die APG3.0-Specs. Aber als der Bericht verfasst wurde, gab es noch keine Karten mit extra Stromanschluss.
 
Zuletzt bearbeitet:
sebbekk schrieb:
P.S.: Der Bericht ist nicht fehlerhaft - es sind die APG3.0-Specs. Aber als der Bericht verfasst wurde, gab es noch keine Karten mit extra Stromanschluss.

Dieser Satz ist fehlerhaft, egal ob es schon Grakas mit externem Anschluss gab oder nicht:


Die AGP3.0-Spezifikation sieht in ihrer uns vorliegenden finalen Fassung auf Seite 95 vor, dass sich eine AGP-Karte aus folgenden Schienen des Netzteils in bestimmten Spannungsbereichen bedienen darf:


Es sind die entsprechende Spannungsschienen des AGP aber nicht die Netzteilschienen.
 
Ja, aber auf eine 9800Pro treffen doch genau diese Spezifikationen zu, oder hat sie einen externen Stromanschluss? Wenn nicht, dann wird sie doch ausschließlich im Rahmen der genannten Spezifikationen gespeist, da sie dann ihre Leistung nur über den AGP-Port beziehen kann.

Und zu den APG-Schienen, die bekommen doch lezten Endes über das Mainboard auch den Strom vom Netzteil.
 
Die Radeon 9800Pro hat einen externen Stromanschluss.

Die AGP Schienen muessen nicht direkt aus dem Netzteil versorgt werden, da koennen auch noch irgendwelche Spannungswandler davor sitzen, wenn ein Boardhersteller will kann er die 3,3V AGP auch aus den 12V des Netzteils erzeugen, wird nur heute keiner machen da unnoetig.

Anders sieht es bei aelteren AGP Board nach BAT Standard aus. BAT Netzteile haben keine 3,3V Schiene, die 3,3V fuer den AGP muessen hier also zwangsweise aus den 5V oder 12V des Netzteils erzeugt werden.
 
Allerdings wird im ersten CB Artikel der Verbrauch des gesamten Rechners gemessen, und nicht nur der, der Grafikkarte. Von daher ist der Gedanke, die GraKa würde 10 Ampere benötigen auch schwachsinn, das gesamten System würde diese Leistung benötigen, wenn es nur über 12 Volt gespeist würde.
 
@ kisser:

OK, dann lässt sich daraus natürlich nicht eindeutig was aus dem Verbrauch einer 9800Pro gewinnen.

Aber wie Du selbst sagst, macht es wenig Sinn, sämtliche Spannungen, die für den AGP-Port nötig sind, aus der 12V Schiene zu generieren. Also wird diese auch nicht alleine benötigt und belastet - schon gar nicht mit 10A. Wie MHumann es auch schon fesstellte, da kann was nicht stimmen und ich glaube nicht, dass sämltiche Leistungstabellen im Netz falsch sind, sondern die Annahme, dass die Grafikkarte ausschließlich über 12 V gespeist wird.
 
Zurück
Oben