News Im Test vor 15 Jahren: 249 Euro waren zu viel für die Radeon HD 2600 XT X2

Habe null Erinnerung an die Karte! Aber jetzt weiß ich auch, warum 🤪
 
  • Gefällt mir
Reaktionen: MasterAK und Tzk
Chilisidian schrieb:
Außerdem sind die Zeiten, in denen man jedes Jahr aufrüsten muss, um ordentliche Grafik zu haben, längst vorbei.

Ich würde also sagen, heute ist es deutlich besser.
Hm, ich sehe das anders: Der Spiele-Markt ist mittlerweile (zumindest bei AAA-Titeln) weitgehend innovationsfrei. Da kommt noch FIFA 2097 und CoD MW IV Remastered, aber ansonsten war es das.

Ich wünschte, wir hätten aufgrund der veröffentlichten Titel nach wie vor den Bedarf, jedes Jahr aufrüsten zu müssen!
 
Im Test vor 15 Jahren stand die ATi Radeon HD 2600 XT X2, die mit zwei GPUs teurer, lauter und langsamer als eine GeForce 8800 GTS 320 war.

mit anderen Worten: sie wurde weg gebutzt.
 
  • Gefällt mir
Reaktionen: Tzk
Corpus Delicti schrieb:
Man stelle sich das mal heute vor:

2 x RTX-4090 bei bis zu 1200W Verbrauch, 6-Slot-Kühlung für 6000,-€ für den betuchten 4k-144Hz-Raytracing Gamer. (und dann immer noch zu schwach für zB Cyberpunk) Und gekauft würde es trotzdem. ;-)
Ich denke Captains Workspace wird bald ein passendes Video zu einer ähnlichen "leistungsfähigen Karte" veröffentlichen. :daumen:
 
  • Gefällt mir
Reaktionen: Elverado
Erhält den Preis für die dämlichste Dual-GPU-Karte der beiden großen Hersteller. Es nicht das bescheuerste DualGPU-Setup, denn es gab manche Notebooks mit zwei Mittelklasse-GPUs. :freak:
Lumiel schrieb:
249 Euro und dann redete man noch von zu teuer.
Realtiv gesehen zu teuer kann alles sein, die 6500 XT ist mit ihren 209€ ja auch zu teuer.
 
  • Gefällt mir
Reaktionen: [F]L4SH und Coeckchen
Hahaha, 249€. Dafür bekommt man heute allenfalls den Kühler.
 
  • Gefällt mir
Reaktionen: Piranha771 und Ganjafield
heute würden wir uns über solch günstige grafikkarten freuen :D
lieber schlechter leistung und bezahlbar, statt monster leistung für 2000€ und im jahr darauf wieder 2000€ etc.
 
  • Gefällt mir
Reaktionen: Fyrex
leckerbier1 schrieb:
Die ist damals glatt an mir vorbei gegangen. Kann mich nicht an das Modell erinnern. Zu der Zeit war eine 8800GT bei mir verbaut.
Ich musste mich echt am Kopf kratzen... Hatte auch eine 8800GTS und hab keine Erinnerung an eine 2600XT
 
Idle Stromverbrauch > 200 Watt? Auch wenn der komplette PC gemeint wäre, wäre das immer noch ganz schön hoch.
 
Eigentlich echt human ... also alles.
@Ayo34 - damals gab es kein Idle. Also von wegen Kerne legen sich schlafen und Karte taktet unendlich runter. Eher so ON oder eben nit ;)

Nuja, das toppen wir ja locker flockig mit den heutigen System.
Manche Leute sind auch zu blöd den Rechner richtig zu konfigurieren.

Hab ein Stream geschaut bei dem ein PC aufgebaut wurde. Der zog im IDLE auch ~170W .... wurde dann abgetan und gut. Man merkte sofort das da mehr das "Zusammenstecken" faszinieren sollte und mehr nicht. Bissi traurig.

Verbrauch ist ja glaube gesamtes System, richtig?

Kenn die Karte aber auch gar nicht. Verrückt.
Hatte vor kurzem noch eine 2600 XT AGP die ein 6pin hatte.
Hab ich vercheckt.

Bin dann doch lieber in anderen Regionen daheim was AGP angeht. (Geforce 4 / Radeon 9600/9700)
 
Da sind die neuen 4000er Karten richtig dünn im Vergleich. Wer kommt auf die Idee sowas zu kreieren? Die Karte ging an mir vorbei. Ich hatte eh nur eine Karte von ATI in meinem leben. Weiß leider nicht mehr welche. Zu lange her.
 
RaptorTP schrieb:
Eigentlich echt human ... also alles.

Verbrauch ist ja glaube gesamtes System, richtig?

Trotzdem irgendwie interessant. Heute brauchen Rechner 50-60 Watt Idle und das finde ich eigentlich noch zuviel, wenn man Smartphone und Notebook betrachtet. Früher sind die PCs einfach den ganzen Tag mit 200 Watt+ im Idle durchgelaufen.
 
Ayo34 schrieb:
Heute brauchen Rechner 50-60 Watt Idle

Wenn es eine Gaming Maschine ist, ja :)

Aber unter Last haben wir heute ganz andere Hausnummern. Leider.
Generell ist die Entwicklung erschreckend. 1000W Netzteil wird bald zu Standard ... :/

Wenn der Gaming PC 4h am Tag läuft und davon 3h unter Last, ballert der PC heutzutage auf jeden Fall mehr Strom im Schnitt durch die Leitung ;)

@PusteBlume0815 - 4000er und dünn war aber Ironie, richtig ? .... Vielleicht hab ich sie einfach nicht verstanden. Die 4000er werden ja bis zu 3,65 Slots dick sein.
 
Wobei man das auch immer schauen muss was man mitmacht. Aktuell verbrauche ich noch unter Vollast mit 5800x und GTX1070 um die 200 Watt in Spielen. Das finde ich vollkommen okay für die Leistung. Wenn man sich jetzt eine aktuelle Karte kauft und z.B. die 3070 betrachtet, dann kann diese bei deutlich mehr Leistung als die 1070 mit um die 200 Watt laufen. Also auch nur 50 Watt mehr. Wären wir insgesamt bei etwas über 250 Watt für Gaming.
 
Köstlich, wie einige Leute hier feiern dass es heute weniger Fortschritt gibt (die Hardware hält ja länger) zu dreimal höheren Preisen. Genau mein Humor!
 
  • Gefällt mir
Reaktionen: Piranha771, Fyrex und andi_sco
Chesterfield schrieb:
Heute würde ich diese Karte definitiv einfach behalten und im Regal lassen
Ja finde die optisch richtig gut. Technisch war die aber richtig schlecht. Wobei damals der Verbrauch kaum eine Rolle gespielt hat. Ja man schaute auch da drauf was eine GPU oder CPU zieht. Aber an erster Stelle stand ob man das leise gekühlt bekommt. Der Stromverbrauch ist doch erst seit knapp 10 Jahren wichtig.
Und jetzt haben wir wieder das Problem mit dem Verbrauch der immer weiter steigt. Dann gibt es den Einwand "die Karten sind pro Watt effizienter", nur was bringt mir das wenn ich alle 2 Jahre 50-100W mehr brauche.
 
  • Gefällt mir
Reaktionen: Wowka_24
@Robert danke für den Artikel. Und richtig gut geschrieben finde ich den auch. Vor allem das mit den "Nachteilen aufwarten"

Ich hatte damals die 2900xt im Abverkauf für ich glaube 120 Dollar gekauft. Der Stock Kühler war das schlimmste was ich je hatte.
 
Zurück
Oben