News Im Test vor 15 Jahren: Die Nvidia GeForce GTX 580 war die bessere GTX 480

Marflowah schrieb:
Nicht so wie heute, einfach mehr Leistung bei mehr Energiehunger. Ist doch behindert.
Kommt drauf an. Wenn ich 50% Mehrleistung für 25% mehr Stromverbrauch bekomme, ist das gut und eine Steigerung der Effizienz. Mehr Stromverbrauch ist nicht gleich schlecht, kommt auf die Mehrleistung drauf an.
 
Insgesamt war die GeForce GTX 580 eine hervorragende Grafikkarte. Anders als bei der GeForce GTX 480 konnte sie bedenkenlos empfohlen werden, falls maximale Leistung im Fokus stand.
Das versuchen uns die Hersteller auch jedes Jahr aufs neue weis zu machen, um ihre Neuen Grafikkarten wieder unter die Leute bringen, darf es ein bisschen schneller oder der Leistungsverbrauch höher sein?
 
Bei der Karte dachte ich das erste Mal "Kaufst mal zwei und holst alles aus dem Dingern"...... und bei einem Kollegen sah ich dann bei einer 470, dass Mikroruckler krasser waren als mir lieb war.....
Danach wurde es dann wieder eine Karte, bis zur 1080 Ti, weil es angeblich nicht mehr so krass gewesen sein sollte. Trotzdem nervig...... aber SLI ist ja nun Geschichte xD
 
Mit meiner Gainward GTX 580 Phantom war ich damals sehr zufrieden und habe sie satte 37 Monate genutzt. Die erste GPU, die ich nicht nach spätestens 24 Monaten ersetzt habe.
 
Ach waren das noch Zeiten. Und SLI gabs auch noch… :D
 

Anhänge

  • IMG_6514.jpeg
    IMG_6514.jpeg
    106,1 KB · Aufrufe: 64
  • Gefällt mir
Reaktionen: EntelodonX, karl_laschnikow und Anoubis
Ich hatte damals eine GTX 470 von Edelgrafikkarten.de :D

Die lief verdammt gut und war mit einem riesenkühler bestückt, ich meine sogar dass ich den Kühler auf meine GTX670 übernommen habe. Die 5er Reihe hatte ich ausgelassen...
 
Mein 1. Gehalt als Azubi (FiSi) ging für die 580 drauf, aber wars wert.
Schöne Zeit :)
 
  • Gefällt mir
Reaktionen: GT200b
Wäre es nicht sinnvoller gewesen die HD6970 statt der HD6870 in die Vergleiche zu nehmen? Die kam zwar erst einen Monat später raus, in etwa gleich mit der GTX 570, die auch deren eigentlicher Konkurrent war, aber eine Mittelklasse-Karte wie die HD6870 bedient ja eine ganz andere Zielgruppe.
 
  • Gefällt mir
Reaktionen: Anoubis
Die GTX 480 war die einzige Graka in meinem Leben, die ich jemals im Laden gekauft hatte und es kam mir teuer vor, dort ~480€ auf den Tisch zu legen 😅

Danach kam die GTX 580 im SLI, welche stabil 990MHz auf dem Core liefen.
Diese wiederum wurden später durch eine einzelne GTX 580 Lightning mit 3GB ersetzt. Diese lief stabile 1015MHz und in Benchs 1080+Mhz auf dem Core.
Zu der Lightning gab es anfangs keinen Fullcover Wasserkühler, weshalb ich sie zunächst mit einem GPU-Only-Kühler betrieben hatte. Später gab es dann von LiquidExtasy einen Fullcover Wasserkühler, aber bevor ich den montiert hatte, sind dann schon die GTX 680er eingezogen 😅

IMG_0877.JPG
IMG_0878.JPG
IMG_0887.JPG
IMG_0987.JPG
IMG_1003.JPG
SLI@990.jpg
XE@1015.jpg
XE@1080.JPG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dideldei, ruthi91, Wanderwisser und eine weitere Person
2008-2014 hatte ich eine PC-Pause... das ging irgendwie an mir vorbei.
Danach gings aber wieder weiter mit GTX 750 Ti ;)
 
Pisaro schrieb:
Kommt drauf an. Wenn ich 50% Mehrleistung für 25% mehr Stromverbrauch bekomme, ist das gut und eine Steigerung der Effizienz. Mehr Stromverbrauch ist nicht gleich schlecht, kommt auf die Mehrleistung drauf an.
Ich verstehe das Argument durchaus. Betrachtet man diese Entwicklung aber über mehrere Generationen hinweg, sollte man sich schon fragen, wo das hinführt. Zum Beispiel, dass der Witz vom benötigten eigenen Kraftwerk in 20 Jahren zur Realität wird?

Außerdem gab es ja nun wirklich Zeiten, in denen neue CPUs und GPUs trotz gestiegener Leistung jeweils weniger verbraucht haben als der direkte Vorgänger, selbst wenn nur ganz knapp - was zeigt: es ist machbar! Ja dann tut es doch auch!

Die aktuelle Verbrauchsentwicklung läuft ja auch dem Upscaling-Trend zuwider: Da müssen die GPUs nicht einmal mehr die volle Auflösung selbst renden und fressen trotzdem immer mehr Strom? Was soll das?
 
  • Gefällt mir
Reaktionen: BlackVally und NOX84
xdevilx schrieb:

Da isse!
Hatte ein Kumpel aus der Abendschule.
Selbst das Luftleit-"Gehäuse" war aus Alu.

Auf dem VRAM war dafür gar nichts drauf.
Ist damals auch wegen VRAM Problemen zu mir gekommen.

Also einfach nur als Staubfänger ... jetzt hab ich zum ersten mal selbst eine Karte die vorne 3 Slots benötigt.

Wenn auch aus Team Rot - RX 9070 Pure von Sapphire.
Ich finde die "Ziegel" immer noch am geilsten. So muss das ;)
 
Windell schrieb:
Wow 479€....heute kostet soviel nur noch die Mittelklasse.
Ich glaube aber, die Mittelklasse leistet heut mehr und säuft auch nicht so aus der Steckdose.
Wenn ich mir so anschaue, was die Karten damals schongezogen haben..
 
Was ist Mittelklasse? Vor 15 Jahren war es der zweitschnellste chip heute ist es der Viertschnellste chip
ne rtx5060ti ist eher entry und ne rtx5080 die mid class
nvidia Fokus liegt auf Ai und die gamer bekommen die Reste davon. Und zukünftig nur noch apu als Beifang weil man dies für ai Pc designt.
Demzufolge muss man derzeit glücklich sein das noch dgpu gibt.
Das gute daran es wird der Fokus auf Effizienz gelegt der Nachteil man kauft quasi intel nvidia apu oder amd apu als komplettes system

Ein retro vergleich der entry gpu seit 2009 wäre mal gut von gtx260 216 zur rtx5060ti
 
Ich hatte erst die 5870 und war enttäuscht. Wieder zurückgeschickt und die 580 geholt.
War ne richtig gute Karte! Die wurde später erst durch die 970 ersetzt. Das war dann wieder ein Griff ins Klo.
 
Drummermatze schrieb:
Ich hatte erst die 5870 und war enttäuscht. Wieder zurückgeschickt und die 580 geholt.

Die ist ja auch eine Generation älter, und noch vor der 480 erschienen.

Die 5850 war zu ihrer Zeit ziemlich überzeugend, besonders zu dem Schnäppchenpreis der ersten Serie.

Das 120 Hz-Problem, weswegen ich sie zurückschicken musste, betraf vermutlich nur eine kleine Minderheit, die den Samsung 2233RZ nicht als Zubehör für die 3D Vision gekauft hatten.

Das Thema 120 Hz wurde damals totgeschwiegen. Mich würde wirklich interessieren, ob es da eine "Order von oben" gab, um 60 Hz-Flachbildschirme nicht so schlecht gegen 120 Hz-Röhren aussehen zu lassen, wie sie es sind.
 
Zuletzt bearbeitet:
Marflowah schrieb:
Die aktuelle Verbrauchsentwicklung läuft ja auch dem Upscaling-Trend zuwider: Da müssen die GPUs nicht einmal mehr die volle Auflösung selbst renden und fressen trotzdem immer mehr Strom? Was soll das?
Bei der 5090 musste es halt sein. Man musste was neues haben, es gab aber weder einen bezahlbaren Ferrigungsshrink noch großartig Architekturverbesserungen. Also rein mit dem Strom.
 
Wenn die 580 jetzt schon „Retro“ ist, müsste ja auch bald der Test über die 560 Ti kommen.
Da hab ich tatsächlich noch eine da
 
Ich hatte auch zwei 580 laufen, leider beide mit kalten Lötstelen defekt. Ergo wollte ich sie für 30 Min bei 120 Grad im Ofen Backen...

Habe leider ausversehen 360 Grad Umluft statt 120 Grad im Ofen gehabt... Und dann ist der Timer auch nicht mehr das was er einmal war, 30 minuten waren um und nix hat geklingelt... und dann wunderts einen noch das so schnell 15 Jahre wieder durch den Cache ziehen konnten...

12 Stunden bei 360 Grad später, waren es nicht mehr 2 sondern nur noch eine Karte.
Dank der Kernschmelze hab ich jetzt mein persönliches Custom Design:


--> Limited Edition: - Graphique del'a Brickette GTX 590....

:mussweg:


IMG_20251102_112757.jpg



IMG_20251102_113216.jpg


IMG_20251102_114135_1.jpg
 
  • Gefällt mir
Reaktionen: Boimler
Zurück
Oben