News Im Test vor 15 Jahren: HD 2000 mit RV610 & RV630 überzeugte mehr als mit R600

Robert

Redakteur
Teammitglied
Registriert
Feb. 2009
Beiträge
1.661
  • Gefällt mir
Reaktionen: flo.murr, ro///M3o, andi_sco und 9 andere
Hatte damals eine HD 2600 Pro und war mit der lange Zeit sehr zufrieden. Die wurde dann erst Jahre später durch eine gebrauchte HD 4850 abgelöst.
Immer wieder witzig zu sehen, wir spartanisch die Kühler damals noch waren.
Heute muss man nach möglichst kleinen Kühlern ja mit der Lupe suchen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vasilev, Mcr-King und Butterhützchen
Neodar schrieb:
Immer wieder witzig zu sehen, wir spartanisch die Kühler damals noch waren.

Die Teile waren ja aber auch extrem sparsam, wenn man es mit heutigen Karten vergleicht.

Die 2400er hat unter 25 Watt verbraucht und die 2600er war trotz DDR4 immer noch bei round about 60 Watt.

Da lohnte es nicht einmal, sinnvolle Stromspartechniken zu verbauen, was man schön an den Diagrammen zur Leistungsaufnahme sieht, die das gesamte System im Idle und unter Last zeigen.

Wirklich viel ändert sich nicht.

Nicht einmal die CPU Hersteller, machten sich damals viel Mühe, mit dynamischen Taktraten oder Dingen wie dem HALT Befehl (Athlon XP User können sich erinnern) , Strom zu sparen.

Das musste der User mit 3rd Party Tools selber erledigen.

mfg
 
  • Gefällt mir
Reaktionen: PeriQue1337, Vasilev, NMA und 3 andere
Die 2600 musste letztes Jahr nochmal herhalten, als die R9 Ausfallerscheinungen hatte.
Für den Desktop Betrieb ging es noch ;) IMG_20211217_204953.jpg
 
  • Gefällt mir
Reaktionen: Poulton, Sascha631, roaddog1337 und 7 andere
[wege]mini schrieb:
Die Teile waren ja aber auch extrem sparsam, wenn man es mit heutigen Karten vergleicht.
Genau das meine ich ja. War super.
Da konnte man öfter sogar passiv gekühlte Karten finden bzw. sich selbst mit Alternativkühler basteln.
Heute klatschen die Hersteller ja selbst auf Einsteigerkarten wie die RX 6400 nen Dualslot Kühler, obwohl die kaum mehr als 50W verbrät.
 
  • Gefällt mir
Reaktionen: andi_sco, crogge und [wege]mini
Neodar schrieb:
obwohl die kaum mehr als 50W verbrät.

So ist es halt. Irgend wie soll der Preis gerechtfertigt werden und ich kann mich immer noch erinnern, wie ich laut lachen musste, als ich im Mädchenmarkt an einem Opa, im Verkaufsgespräch vertieft mit dem Verkäufer, vorbeigegangen bin.

Er wollte etwas "schnelles, gutes" für seinen Enkel und der "Fachverkäufer" sagte, kaufen sie das größte Produkt, welches ihrem gewünschten Preis entspricht.

Großer Kühler, große Leistung. Kennt man doch. Größer ist immer besser.

Im Zweifel länger. :heilig:

mfg
 
  • Gefällt mir
Reaktionen: PeriQue1337, andi_sco und NMA
Ich vermisse diese bunten Plastikbomber irgendwie ein bisschen. Allein die Bildchen auf den Kühlern.
Kann mich noch erinnern das ich damals wie verrückt nach Karten mit möglichst dicken Kühlern war.
Hachjaaa tolle Zeit war das.
 
  • Gefällt mir
Reaktionen: Poulton, grind507, andi_sco und eine weitere Person
Was hab ich damals lange sparen müssen für die 2900XT und dann war die nicht so gut wie gedacht, obwohl ich damals von einer ganz kleinen Karte auf diese umgestiegen bin und das waren Welten für mich.

Würde mich mal Interessieren wie sich so ein Monster mit 512Bit Speicherinterface heute schlagen würde mit der aktuellen Technik, wäre bestimmt Super.
 
@Daggy820
Meine Vega hat 2048 Bit und ist trotzdem nur auf dem Niveau einer GTX1080.
 
  • Gefällt mir
Reaktionen: derSafran und NMA
Wenn ich mich recht erinnere war die HD 2600 XT meine erste eigene Grafikkarte - hielt damals dann immerhin 9 jahre bis 2016.
Meine war die mit dem Referenzkühler, aus irgendnem Grund in der Apple Variante spezifisch für Mac Pros. Ging aber auch in normalen Rechnern :D
 
vielleicht etwas OT
[wege]mini schrieb:
Das musste der User mit 3rd Party Tools selber erledigen.
aber weiß jemand, wie man so eine GeForce mit G71 oder ne Radeon RV570 idle runtergetaktet bekommt? gab es kein 2D Profil damals?
 
oh, meine zweite neu gekaufte Grafikkarte nach der Radeon 9500. also die 2600 xt und natürlich mit ddr3 ram, die war preislich super.
es fehlte eine Karte zwischen dem hd2900 monster und der 2600, die sollte dann als 3000 serie debütieren, und da wars dann auch richtig gut. eine schöne zeit...
 
Ich hatte damals eine 8600gt zur Überbrückung bis die 8800gt verfügbar war. War in meinen Augen damals ne low buget lösung.
Die hatte nicht mal ne eigene stromversorgung.

Hab die hier immer noch rumliegen.

ATi/AMD hatte ich zu der Zeit gar nicht auf dem Schirm. Hatte davor aber eine 9800XT.
 
Die 2400er hatte ich auch, in einem low-entry PC. War 2 Jahre später, 2009,
da wollte meine Schwester einen günstigen Rechner. Ich habe das Teil für 200 Euro hinbekommen.
Verbaut wurde ein LE-1600 AMD mit 1 GB Ram, 240 GB HDD, mit Win XP, in einem günstigen
Gehäuse mit Netzteil. Das Board hatte, ich glaube VIA Chipsatz für AM2, einen VGA Ausgang.
Da war ich erst bei 170 Euros :-)
Die 2400er kostete zu dem Zeitpunkt ca. 25 Euro. Dafür war sie nicht schlecht.
Lego Star Wars z.B lief richtig flüssig und auch der erste Witcher war kein Problem.
GTA 4 auch aber dann musste man runter auf 720p und low-settings.
 
  • Gefällt mir
Reaktionen: andi_sco
Das interessante an dem Artikel ist doch: Es gab eine Mittelklasse GPU für 100 €. Laut Inflationsrechner entspricht das heute 125 €....
 
  • Gefällt mir
Reaktionen: Naff, mae, andi_sco und 2 andere
Verglichen mit der 8800 GTX, GTS und GT war die gesamte Serie der HD 2000 leider ein Griff ins Klo und selbst die 8600 GTS machte eine bessere Figur.

Auf meine 1950 Pro folgten erst einmal ausschließlich GPUs aus dem grünen Lage: 8800 GTX, 2x 8800 GTX, 2x 8800 Ultra, 2x GTX 285…

2x HD 4870 markierten dann das Ende meiner SLI-/Crossfire-Phase. Würde ich heute nie wieder machen. :D
 
  • Gefällt mir
Reaktionen: Naff, NMA, andi_sco und 3 andere
Bagama schrieb:
@Daggy820
Meine Vega hat 2048 Bit und ist trotzdem nur auf dem Niveau einer GTX1080.
das sind Äpfel und Birnen, weil der HBM ja niedriger taktet usw. Eine GTX 1080 mit 512 Bit hätte wesentlich mehr Speicherbandbreite ( ist damit aber natürlich nicht automatisch deutlich schneller)
Ergänzung ()

xJanx schrieb:
Das interessante an dem Artikel ist doch: Es gab eine Mittelklasse GPU für 100 €. Laut Inflationsrechner entspricht das heute 125 €....
nur wenige Jahre später gabs auch die 5850 unter 200 Euro. Das war zu Felease die zweitschnellste GPU
 
Zuletzt bearbeitet:
SVΞN schrieb:
Verglichen mit der 8800 GTX, GTS und GT war die gesamte Serie der HD 2000 leider ein Griff ins Klo und selbst die 8600 GTS machte eine bessere Figur.
Nvidia hätte eine weitere AGP-Generation bringen können. AMD blieb noch weitere zwei Generationen die erste Wahl für Ich-bleibe-bei-AGP-weil.
 
  • Gefällt mir
Reaktionen: NMA
Zurück
Oben