News Im Test vor 15 Jahren: Die GeForce GTX 280 als schnelle Enttäuschung

Amiga500 schrieb:
Die IDLE Leistungsaufnahme...sowas würde man sich heut nicht mehr trauen zu verbauen..
-> Aus dem originalen Beitrag
Intel Core 2 Extreme QX9770 (übertaktet per Multiplikator auf 4 GHz, Quad-Core)
Der wird einiges dazu beisteuern.
Normal kamen die Systeme auf 120-130Wh im Idle runter. Typisch für damalige Systeme bei eingeschaltetem Monitor. Selbst mein letztes AM3 System mit GTX 670 hatte noch um die 100-110Wh im Idle. Und mein aktuelles AM4 mit 3060 V2 ist gerademal auf um die 90Wh runter.

Allerdings hat man damals auch nur um 12ct/kWh gezahlt, da war das noch relativ wumpe. Entsprechend hat es damals auch viele noch nicht so sehr gestört, wenn einige Geräte, bspw. Lautsprechersysteme, noch keinen guten Standby Verbrauch hatten und sich mit ihren Trafonetzteilen im ausgeschalteten Zustand noch weiterhin gut 20-30Wh gegönnt haben.

Bei den heutigen kWh Preisen von 40-50ct/kWh sollte man meinen das mehr auf den Verbrauch bei Idle geachtet wird. Ein System mit 13900k und 4090 zieht im Idle um die 130-150Wh und beim anschauen von AV Streams geht das hoch in Richtung 200W. Keine Ahnung wieso Nvidia bei ihren High End Karten im Idle immer noch solche Probleme hat.
Die RX 6000 von AMD gehen im Idle schön runter auf eine handvoll Wh, wie bei iGPUs. Die 4090 schafft mit ach und krach vielleicht knapp unter 25Wh (ohne Anpassung bzw. UV).
 
  • Gefällt mir
Reaktionen: Piecemaker
Hexxxer76 schrieb:
Das war die Grafikkarte von Nvidia, die jeder haben wollte! Von der Leitung her nicht schlecht, aber der Föhn! Schönen Samstag 🫶🏻🙋🏻‍♂️
"Der Fön" war die FX5800 - Die brachte außer heißer Luft nicht viel Leistung. Das war bei der gtx280 anders. 😎
Ergänzung ()

Gorasuhl schrieb:
Normal kamen die Systeme auf 120-130Wh im Idle runter.
Ich nehme mal an du meinst die elektrische "Leistung" (W) nicht die "Arbeit" (Wh).

Gorasuhl schrieb:
Die RX 6000 von AMD gehen im Idle schön runter auf eine handvoll Wh, wie bei iGPUs. Die 4090 schafft mit ach und krach vielleicht knapp unter 25Wh (ohne Anpassung bzw. UV).
Hmm 🤔 Du vergleichst also pauschal eine Generation von AMD mit einer einzelnen Karte aus der folgenden Generation...

Wenn schon, dann müsstest du die 7900 XTX mit der RTX 4080 vergleichen. Die 4090 hat keinen Gegenspieler von AMD.
Und dann passt deine Aussage auch nicht, weil die 7900 XTX ein großes Idle-Problem haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pisaro und Galatian
SubiEJ20 schrieb:
Hab mir damals die GTX280 kurz vor Release der 285.
Preis lag glaub ich bei 300 €.
Der Frosch ist geil🤣🤣🤣

Mal eine ernsthafte Frage damals hatten die meisten nen Tower ohne Fenster oder sonstigen Optik kram heutzutage ist der Rechner am besten möglichst aus Glas... Soooo warum sahen dann früher die Karten gut aus mit Bildern etc und heute zu 98% wie leuchtende Geschwüre?
 
  • Gefällt mir
Reaktionen: Aquilid
@Munkman weil die Hersteller einfach nur einen Aufkleber auf die immer gleichen Referenzdesigns gepappt haben? Als einzigen Unterschied ;)
 
Robo32 schrieb:
Von dieser Gen hatte ich eine GTX 260.
Lies sich unter Wakü auch gut übertakten und ersetzt wurde sie (natürlich^^) wegen VRAM Mangel.
Der Nachfolger war dann bei mir die GTX 570 welche (natürlich^2) wegen VRAM Mangel ersetzt wurde.

Kumpel ist damals von der 275 auf die 570 gewechselt aber die 570 mit über 2gb Vram.
 
Das war meine erste PCIe Grafikkarte! Zuvor hatte ich eine GTX 7900 GS mit AGP! War schon ne geile Karte 🚀 Danach kam die Radeon HD 6950 rein! Das war meine letzte ATI/AMD Karte. Momentan nutze ich eine RTX 4090 ROG von ASUS 😁
 
Zuletzt bearbeitet:
mr_clark schrieb:
einfach nur einen Aufkleber auf die immer gleichen Referenzdesigns gepappt haben
Jaein
Gab auch immer wieder Ausreißer, wie diese GeForce 7600 GT zeigen
 

Anhänge

  • IMG20220209203954.jpg
    IMG20220209203954.jpg
    2,9 MB · Aufrufe: 95
  • IMG20220212233435.jpg
    IMG20220212233435.jpg
    1,3 MB · Aufrufe: 97
  • Gefällt mir
Reaktionen: mr_clark, Hardy_1916, LETNI77 und 2 andere
CM286 schrieb:
Ich nehme mal an du meinst die elektrische "Leistung" (W) nicht die "Arbeit" (Wh).
Nein die Arbeit ist schon richtig.
Die Leistung ist eigentlich nur ein Augenblickswert. Die Arbeit ist die Aufsummierung dieser Momentanwerte über die Zeit, bzw. das Integral, und stellt den tatsächlichen Energiebedarf dar.
Da die Leistung nicht konstant ist, macht es keinen Sinn nur Augenblickswerte zu vergleichen. Man zeichnet die Arbeit auf und rechnet den Wert dann z.B. auf eine Stunde um. Damit kann man dann verschiedene Systeme vergleichen.
Man kann natürlich die durchschnittliche Leistungsaufnahme angeben, allerdings entspricht der Wert in dem Fall auch der der elektrischen Arbeit für eine Stunde. In dem Fall macht es keinen Unterschied ob man den Wert als W oder Wh angibt.
Die einfache Umrechnung kann man allerdings nur mit dem Durchschnittswert oder einer konstanten Leistung machen, ansonsten kommt dabei nur Unfug raus.

Als Beispiel, um bei Grafikkarten zu bleiben. Ich messe den momentanen Wert in Diablo 4 während einer vorgerenderten Videosequenz, dann ist der Wert deutlich niedriger als während eines Legion-Events, bei dem viele Spieler mit dabei sind und sehr viele Partikel/Objekte gerendert werden müssen. Wenn man den Wert dann auf die Stunde hochrechnet kommt dabei nichts brauchbares raus.

CM286 schrieb:
Hmm 🤔 Du vergleichst also pauschal eine Generation von AMD mit einer einzelnen Karte aus der folgenden Generation...
Von der 7000er gibt es bisher nur die 7900 und bei der ist die Leistungsaufnahme im Idle etwas höher, weil AMD da wohl ein paar Probleme hat, welche über neuere Treiber schon deutlich verbessert wurden. Deswegen wollte ich nicht die 7000er Vergleichen, die halt mal ein Problem hat. Kann mich an sowas ähnliches bei Nvidias 400er Serie errinern. Da hatten die Karten auch Probleme mit hoher Leistungsaufnahme im Idle mit >40W statt um die 15.
Seit der HD 7000 oder R200 bekommt AMD die Leistungsaufnahme in Idle runter bis auf um die 10W oder weniger.
Nvidia schiebt das Problem mit der vergleichsweise hohen Leistungsaufnahme im Idle inzwischen schon Ewigkeiten vor sich her.
Außgenommen einiger Custom Modelle der 3000er mit einer höheren Leistungsaufnahme von um die 20-25W, liegt die Leistungsaufnahme bei AMD bei bis zu der Hälfte.

Beide Hersteller haben jedoch Probleme bei Multimonitor Setups mit hohen Auflösungen und gleichzeitig hohen Bildraten. Wenn man das auf dem Desktop nicht Capt, kann die Leistungsaufnahme, nur der Karte, stellenweise mal schnell auf 50W-100W ansteigen, bei nur biserl AV Streams (YT, Twitch, Netflix und co.) schauen.
 
Nachdem damals meine 2900 XT abgeraucht ist und ich gleich zwei fehlerhafte PowerColor 4870 zurückschicken musste, bin ich letztlich bei einer Zotac GTX 260 AMP2 gelandet. Hab damals seeehr viel gezockt und die Karte hat bis zur Ablösung durch eine Gainward GTX 460 GLH einen super Job gemacht :)
 
Gorasuhl schrieb:
Bei den heutigen kWh Preisen von 40-50ct/kWh sollte man meinen das mehr auf den Verbrauch bei Idle geachtet wird.

Wenn du den Watt Verbrauch vergleichst, musst du bedenken was man damals dafür bekam.

Es ist was anderes ob ich am Full-ARGB beleuchteten unhörbaren Rechner 4k Videos schaue, nebenbei noch im Netz surfe, 2 Messenger geöffnet + Voice, im Vergleich zu dem was man damals für die gleichen Watt geboten bekommen hat. Es käme keiner auf die Idee zu sagen: "Wenn der Strom am PC nur 12 Cent kostet, dann nehm ich dafür die damalige Leistung in kauf. Inklusive der Lautstärke!".

Gorasuhl schrieb:
Ein System mit 13900k und 4090 zieht im Idle um die 130-150Wh und beim anschauen von AV Streams geht das hoch in Richtung 200W. Keine Ahnung wieso Nvidia bei ihren High End Karten im Idle immer noch solche Probleme hat.
Die RX 6000 von AMD gehen im Idle schön runter auf eine handvoll Wh, wie bei iGPUs. Die 4090 schafft mit ach und krach vielleicht knapp unter 25Wh (ohne Anpassung bzw. UV).
Du vergleichst hier zwei unterschiedliche Generationen und Referenz mit Low-End.

Wie kommen 13900k + 4090 bei AV Streams auf 200 Watt zu stande?

  • 6700 XT Youtube 4k Video = 18 Watt
  • 7900 XTX Youtube 4k Video = 80 Watt
  • RTX 3070 Youtube 4k Video = 19 Watt
  • RTX 4080 Youtube 4k Video = 30 Watt
  • RTX 4090 Youtube 4k Video = 32 Watt + 13900k 16 Watt = 50 Watt.

Egal.

Mein Punkt ist eher, das selbst bei gleichem Verbrauch das aktuell Gebotene, das Vergangene um Welten aussticht. Auch wenn man damals dachte das war toll, so toll wie heute war das alles nicht. Datei kopieren = Spiel ruckelt. HDD goes brrrrt.

Mit RTX 4090 + 13900k + Full-ARGB + 4k Oled 144Hz + BT Headset + M/T/Pad in die Zeit Maschine setzen, zu deinem Ich vor 15 Jahren porten, und ihm "The Last of Us - Part 1" anmachen. 100 FPS Ultra Max.

Aber das verbraucht 600 Watt! Dein damaliges Ich wird bestimmt entgegnen: "Laber nicht. Nur 600 Watt?". Sein Blick fällt auf die Glasscheibe an der Seitenwand des Gehäuses. ARGB so hell wie die Sonne leuchtet strahlt ihn an. Er sieht die dicken AIO Kühlschläuche, bunten RAM, bunte GPU, OLED am Netzteil und auf der Pumpe und die Monster Lüfter von denen man nur ein seichtes Rauschen hört. Sein Blick fällt wieder auf die Grafik, die Schärfe des Monitors und die FPS. "Nur 600 Watt?".
 
  • Gefällt mir
Reaktionen: CM286
Ich bin von einer 8800 Ultra zur RTX 6600 gesprungen. Brauchte keine intensiven Anforderungen mehr an die Hardware, weil es kaum gute Spiele für mich gab. Die RTX war mehr ein Notkauf, weil die Ultra den Geist aufgab. Treue Dienste hat sie mir auf jeden Fall geliefert. Wenn man die alten Preise mit den neuen vergleicht, kann einen echt übel werden, obwohl ich die damaligen Preise schon recht hoch fand. Für 1-2 Top Titel (Spiele) im Jahr, immer den PC aufrüsten und mehrere 100€ investieren, dafür bin ich zu alt geworden. Vielleicht habe ich ja mal Glück und Gewinne hier einen PC bei einer Verlosung. :D
 
  • Gefällt mir
Reaktionen: -=[CrysiS]=-
Die gute alte GTX 280.
Man konnte die GTX 280 per Firmwareudate auf eine GTX 285 flashen :cool_alt:
 
Vergesst die GTX 280, die wahren Karten heißen GTX 285 und GTX 295! :D:D:D
 

Anhänge

  • IMG_8655.jpeg
    IMG_8655.jpeg
    1,8 MB · Aufrufe: 82
  • IMG_8656.jpeg
    IMG_8656.jpeg
    1,7 MB · Aufrufe: 86
  • IMG_8657.jpeg
    IMG_8657.jpeg
    1,9 MB · Aufrufe: 86
  • Gefällt mir
Reaktionen: 1994, -=[CrysiS]=-, Aladin86 und eine weitere Person
Das waren Zeiten, hatte mir für gut 1000 € nen Gaming-PC zusammengestellt mit ner 8800 GTX,
glaube die war gute Mittel- bis Oberklasse (weiß nimmer genau).

Screen002.jpg
 
  • Gefällt mir
Reaktionen: 1994 und LETNI77
Leistungsaufnahme im IDLE 158 Watt?? Gesamtsystem?
 
Wollte damals endlich Gothic 3 richtig spielen (ohne Ruckler) und wechselte schließlich auf eine gtx285 und zwar eine von edelgrafikkarten - was ein Name aber die hießen glaube ich wirklich so- welche Karten mit garantierter Übertaktbarkeit verkauften. Hatte viel Spaß mit der Karte. Und mit Gothic auch ... ;)
 
Hatte damals eine GTX275, habe von einer 8800GT 640MB aufgerüstet.
Die 275 wurde ihrerseits wieder von einer GTX570 ersetzt.
 
Ich weiß schon gar nicht mehr wie viele Grafikkarten ich in meinem Leben hatte. Damals hab ich die gefühlt noch öfter gewechselt als meine Unterhosen... und das war (leider) auch nötig, da die Performance schnell nicht mehr ausreichte.

Also man kann zu den heutigen Preisen sagen was man will. Aber heutzutage halten die Grafikkarten (leistungsmäßig) auch einfach länger vor. Wenn ich alleine daran denke wie lange ich meine 7950XTX (Lightning Edition) oder danach irgendwann die 1080 Ti jeweils hatte... die Spiele liefen einfach. Und auch heute noch könnte man die 1080 Ti mit ein paar Abstrichen gut nutzen.
 
Zurück
Oben