News Im Test vor 15 Jahren: 249 Euro waren zu viel für die Radeon HD 2600 XT X2

Lumiel schrieb:
Schaut man sich heute die Preise an, muss man über 249 Euro fast schon schmunzeln. ;)
Vor vier Jahren gab es noch ne (10)70er über Wochen für den Preis, Spielecode(s) INKLUSIVE.
Heute eher das Doppelte (3070) und die rtx 40xx lass ich preismäßig mal als Satz mit X stehen.
 
  • Gefällt mir
Reaktionen: PeriQue1337
itsommer schrieb:
Heute wären das ca. 450 - 500€, wenn man die Inflation miteinberechnet, also auch relativ teuer. ;)
Die historische inflation von 2007 bis (anfang) 2022 beträgt 24,5% - demnach wären die 250 euro von damals heute 311€.
fairerweise muss man sagen dass die Inflation für dieses jahr da noch nicht in die historischen werte einfließt - aber gehen wir mal großzügig von weiteren 10% aus, landen wir bei 336€.

außerdem muss man berücksichtigen dass wafer für den 65nm prozess und die fertigungskosten selbst wesentlich günstiger waren und die heutigen fertigungsprozesse sicherlich überproportional stark preissteigernd wirken.

nachtrag:
die 390mio transistoren auf damals 150mm² (und das mal 2) wären heute monolithisch auf lächerlichen 15-18mm² unterzubringen (zum vergleich..die kleine navi24 hat 5,4mrd transistoren auf 107mm² in tsmc's n6 prozess)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FR3DI, lubi7, Pamoli und eine weitere Person
Ach, solche ulkigen GPUs haben trotzdem einen gewissen Charme. Einfach weil sie speziell sind.

Für ein daily System nicht geeignet, aber einfach mal zum basteln und probieren.

Da gibts ja noch viel mehr Kandidaten, die eher interessante Studien sind statt gute Produkte.
Ich denke da an so Zeug wie die 6870X2, die Asus Mars 760x2, die inoffiziellen 7970X2, oder die (nie erschienenen?) Normal+PhysX dual GPUs (mit zB GTX 280 + GTS 250 auf einer Platine).
 
  • Gefällt mir
Reaktionen: FR3DI und NMA
JoeDante schrieb:
Hahaha, 249€. Dafür bekommt man heute allenfalls den Kühler.
Stimmt, manche Kühler kosten heute wirklich 250,- Eur Aufpreis. Schon verrückt
 
  • Gefällt mir
Reaktionen: Coeckchen
2 GPUs für 240€ (wenn auch Mittelklasse) und Topmodelle im Vollausbau für etwa 600€. Das waren damals definitiv bessere Zeiten (von den anderen Problemen und Krisen ganz zu schweigen)

Anmerkung: Der Euro-Dollar-Kurs lag 2007 über 1,3 zu 1 und stieg bis Mitte 2008 auf knapp 1,6 zu 1.... Allein das wäre im Moment schon eine große Hilfe. Leider möchte die FED demnächst wieder erhöhen (bis etwa 4% Leitzins Anfang 2023) während unsere EZB zögert.
 
  • Gefällt mir
Reaktionen: FR3DI und konkretor
Bei den Preisen sollte man nicht vergessen, dass es auch eine andere Nachfrage und eine weitere Zielgruppe gibt, wenn man bspw Miner so nennen möchte. Gaming und kreatives Design sind seit 15 Jahren ein weit größerer Markt geworden. Dass die Preise da anziehen, wundert wenig, wenn es nur zwei große Firmen in dem Bereich gibt. Ich behaupte mal, dass die Preise schon früher eine große Gewinnmarge beinhaltet haben.
Der Einstieg Intels wird ja allgemein umstritten gesehen, aber sie würden es wohl nicht tun, wenn es sich nicht lohnen würde. Wenn Ati damals solche Karten absetzen konnte, kann Intel es heute bestimmt auch noch. Siehe nur das neue Medion Notebook.
 
Ich entsinne mich, das ich die ATI 1950xt hatte und die 2k Serie ausließ, um mit der 3k Serie wieder einzusteigen.
Soweit ich das noch im Kopf habe, war die 2000er Serie heiß, laut, lahm und keine Kaufempfehlung.

Ich hab seit ich von Nvidia GeForce 2 auf ATI umgestiegen bin nur noch ATI/AMD gehabt.
In der ganzen Zeit hab ich zwei Treiberbugs erlebt, einmal lief ein Spiel erst, nachdem ATI Wochen später einen Treiber dafür releaste, den Namen des Spiels hab ich nicht mehr im Kopf.
Das war noch in den frühen 2000er Jahren.

Und nachdem ich mit Cyberpunk 2077 schon durch war, gab es einige Zeit den Dark-Avatar-Bug, wo der eigene Avatar ein dunkler Schemen war, auf einigen GPU-Modellen, der nachlässig spät behoben wurde, mich mangels Spielinteresse, da ich schon durchgespielt hatte, aber nicht betraf.

Ansonsten hat ATI/AMD mich immer zufriedengestellt und ich belohne sowas mit positivem Anschaffungswillen, wenn es wieder soweit ist.
 
  • Gefällt mir
Reaktionen: Hardy_1916, konkretor, NMA und eine weitere Person
GeleeBlau schrieb:
Während man eine 6800 schon für 550€ (inkl Steuern) in den USA kriegen kann, muss man hier noch immer 700€+ hinblättern
599€ auf MIndfactory...so groß ist der Unterschied also nicht.
andi_sco schrieb:
Ja, der eine Golem Redakteur braucht im Leerlauf auch 160W
Das ist schon ganz ordentlich - Aber gut.. wenn ich bei mir schau 3900x is im Idle nicht sehr sparsam und die 6800 auch nicht.
Mein Setup braucht auf dem Desktop, inkl diverser offener Programme etwa 220W.

Das sind dann PC, 2 Monitore, Soundbar + Audio-Interface.
 
  • Gefällt mir
Reaktionen: NMA und PeriQue1337
Ist zwar ein extrem kleiner Chip, aber selbst bei 4K in YouTube sind es im Maximum 11W für die GPU und aktuell 5W für die 4-Kern CPU. Pumpe, Lüfter, RAM etc. werden jetzt auch keine 50W extra durchziehen.
Da frage ich mich schon, wo der Redakteur wirklich im Leerlauf ist und was da schief läuft.
LS520 letzte Einstellung Youtube 4K 60 FPS.png



Zurück zum Thema: kann sich bei Crossfire eigentlich eine GPU abschalten?
 
  • Gefällt mir
Reaktionen: FR3DI
Die 7970x2 gab es so wie die EVGA GTX 275+Physx Beschleuniger auf einem PCB.

Hab die 2600xt x2 nie in live gesehen. Wäre ein Traum für mich dies Karte.
 
GeleeBlau schrieb:
@ssh
Nvidia hat halt ein fast Monopol. Wenn man sich alle Hardwarestatistiken ansieht die es so gibt, dann kratzt AMD ja nichtmal an deren Monopol. Bei Steam kommen auf 100 Nvidia Karten zwei bzw. drei AMD Kart

Nvidia hat aktuell so hohe Marktanteile weil beim Mining kein Weg an Nvidia vorbeiging.
 
andi_sco schrieb:
Zurück zum Thema: kann sich bei Crossfire eigentlich eine GPU abschalten?

Ja, in der Regel fährt sich die 2. GPU im Leerlauf fast vollständig herunter. In Tools wie GPU-Z sieht man dann 0 MHz GPU-Takt und 0 MHz Speichertakt.
 
  • Gefällt mir
Reaktionen: NMA, FR3DI und andi_sco
War zu der Zeit noch mit SLi aus 2 EVGA 8800GTX zufrieden, der 22" iiyama Vision Master Pro 514 wollte aber auch befeuert werden. Ich trauere der Bildqualität dieses CRT immer noch nach.
 
Die 2600 XT X2 von ATI waren Schrott.
Und der Witz: wenige Wochen später kam ja die HD 3870 heraus, die die 2600 XT X2 leistungsmäßig quasi pulverisiert hat - für Schlappe 230 Euro UVP.

Damals waren ATI-Grafikkarten extrem billig - die etwas langsamere HD2900 XT kostete 6 Monate zuvor noch 400 Euro (UVP).
Die direkte Konkurrenz von Nvidia (8800er Modelle) war deutlich teurer.
 
RaptorTP schrieb:
Wenn es eine Gaming Maschine ist, ja :)

Aber unter Last haben wir heute ganz andere Hausnummern. Leider.
Generell ist die Entwicklung erschreckend. 1000W Netzteil wird bald zu Standard ... :/

Wenn der Gaming PC 4h am Tag läuft und davon 3h unter Last, ballert der PC heutzutage auf jeden Fall mehr Strom im Schnitt durch die Leitung ;)
Also ich würde dir zustimmend widersprechen ;)
Es gibt solche und solche. Nimmt man jetzt einen PC mit einer Stock Highendamperekarte. Du kannst aber mittels undervolting und powerlimit auch sehr effiziente Hardware zusammenstellen.
Ich spiele z.B. mit einer auf Effizienz getrimmten 6600 XT und 3700X mit package power limit und UV.
Mein PC verbrqucht unter Last meinst unter 300 Watt und ich limitiere in jedem Spiel die FPS auf 142. daher zieht mein PC bei den Spielen die ich spiele gerne auf mal 150-200 Watt.
Wenn man will kann man also auch heute effizient spielen. Damals gabe es aber noch nicht teure und effektive Kühllösungen wie heute, weshalb im allgemeinen die Hardware sparsamer designt wurde.

Zum Artikel: schon amüsant, was man damals als teuer empfunden hat. Heute wartet man ja Jahre, dass man überhaupt einmal Karten in der Preisregion ~250€ bekommt, welche nicht auf 5 Jahre alter Technik basieren.
 
  • Gefällt mir
Reaktionen: RaptorTP
@Shy Bell - ja gut. 6600 XT ist ja jetzt keine High End Karte.
Das dann noch getrimmt usw. bringt natürlich einiges.

Wir haben es ja hier von einer Dual GPU ;) also schon Thema Unvernunft.
Von daher würde ich schon eine "dicke" Single GPU zum Vergleich ziehen ;)

Ich bin da auch hinterher die Hardware möglichst effizient laufen zu lassen.
und begrenze auf 75fps an 3440x1440 .... gut, der Moni macht auch nur 75Hz
 
@RaptorTP Ja. Was ich damit viel mehr ausdrücken wollte, dass man nicht so stromhungrige Karten für einen Gamingpc kaufen muss, sie stellen viel mehr eine Option dar, welche es damals aus genannten Gründen nicht gab.
Davon ab, kann man auch Highendamperekarten effizient betreiben. Man muss diese nur per Konfiguration in die Schranken weisen. Auch hier kann ein FPS Limiter viel bringen. Natürlich nicht, wenn ich 4K ultrasettings + Raytracing und ohne Upscaling spiele. :)
 
  • Gefällt mir
Reaktionen: RaptorTP
Fuchiii schrieb:
599€ auf MIndfactory...so groß ist der Unterschied also nicht.
Ich spreche natürlich vom selben Modell in beiden Ländern und nicht zufällig irgendeine
 
Zurück
Oben