News Im Test vor 15 Jahren: AMDs Radeon HD 6950 mit 1 GByte war 20 Euro günstiger

Ruff_Ryders88 schrieb:
Ich hatte mal ne HD6950 von Powercolor die man schön via Bios auf eine HD6970 flashen konnte. War aber - soweit ich mich erinnere - kein 1 GB Modell sondern 2GB.
Stimmt, dies hatte ich auch. Habe ich total vergessen.... krass, ist doch noch gar nicht so lange her.
 
Taxxor schrieb:
sondern weil du 3 Desktops hast^^
Von meinen 4 Laptops (CPU/GPU : INTEL/INTEL, INTEL/nVidia, AMD/nVidia, AMD/AMD) mal abgesehen ...

p.s. in meinem "Spielzimmer" steht auch noch ein ZX 81, C64, Amiga funktionsfähig/spielbereit so rum.
Sowie ein Retro PC mit Athlon 2400 und 9800XT (256 MB) GPU.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Muntermacher und GOOFY71
Dito schrieb:
20.- Unterschied bei doppeltem Speicher...
Hätte ich heute auch gerne. Jedes GB kostet 10.- mehr.
Das war wohl auch der letzte Test, bei dem der halbe Speicher nicht negativ ausgelegt wurde?
Hm damals hat ein gb 20 Euro mehr gekostet 😜
 
  • Gefällt mir
Reaktionen: SweetOhm
ElliotAlderson schrieb:
Damals durftest du jedes bzw. jedes 2 Jahr aufrüsten. Heute hält die Hardware 10 Jahre.
Das ist doch kompletter Blödsinn, damals wie heute musste man einfach Regler Bedienen wenn man alte Karten weiter verwenden will und manchmal hilft auch das nichts mehr.

Beim Indiana Jones Benchmark war noch eine damals 4 Jahre alte 3080 dabei, die lieferte bei WQHD 24FPS AVG und 18FPS bei 1% Perzentil.

Was willst du in modernen Spielen heute noch mit einer GTX 1070 oder Radeon 5700 anfangen?

Selbst als der Wechsel von DX9 auf 10 kam boten in der Übergangsphase die meisten Spiele beide Optionen an, sodass man alte Karten weiter verwenden konnte, ähnlich wie heute mit Raytracing.
 
  • Gefällt mir
Reaktionen: SweetOhm, Krazee und ThePlayer
Hab meine noch in nem Kraton im Schrank. War die Referenz, die aber mittels bios update auf 6970 geflashed ist und auch gut mit den std Takraten läuft. War echt lange mein ´Begleiter, läuft immer noch wie am ersten Tag, auch mit der brutalen Geräuschkulisse ^^
 
  • Gefällt mir
Reaktionen: SweetOhm und wagga
joel schrieb:
Ich war ATI / AMD Kunde bis RX480.
Dann kam Nvidia 1060 und dann die 2070 Super.
Wieso bist du auf die 1060 von der 480 umgestiegen? Die 480 war in den Tests immer paar % schneller und dazu hatte die 480 auch noch 8gb VRAM. Die 1060 hatte maximal 6GB.
 
  • Gefällt mir
Reaktionen: SweetOhm
WinstonSmith101 schrieb:
Die Preise von damals wirken heute surreal günstig. Es ist unglaublich, wie sehr wir heute ausgequetscht werden.
Was heute 2000-3000 Euro sind waren damals 350-400 Euro zu mindestens bei AMD.
Die R9 390 damals glaub 350 Euro je nach Modell nicht mehr als 400 Euro.
Was dann teuer wurde so 600 Euro ca. waren dann diese X2 Grafikkarten 2 in 1.
Ergänzung ()

CDLABSRadonP... schrieb:
Naja, da waren halt viele nur noch die Hälfte wert, weil die neue Mittelklassegraka halt dank Effizienzverdoppelung nun gleich viel leistete. Das System war eigentlich recht simpel, auch wenn diverse User lange gebraucht haben, um es zu verstehen.
Inzwischen kaufe ich nur noch Einstiegs - bis Mittelklasse und wechseln notfalls öfters als Highend oder Oberklasse zu kaufen.
conf_t schrieb:
Dein Fall würde ich mal nicht als Standard klassifizieren. Ein Gamer, der seine GPU 10 Jahre behält ist definitiv die Ausnahme und nicht die Regel.
Die R9 390 hätte ich wahrscheinlich auch immer noch die RX 6600 wurde nur gekauft weil die R9 390 nach 5 Jahren defekt war.
SweetOhm schrieb:
ut, dann bin ich halt (wie so oft) die Ausnahme ... :freaky:
In meinem Desktop 3 werkelt eine R9 390X, in 2 eine Vega 56 und in 1 eine Radeon VII.
Die R9 390 hätte ich heute noch die RX 6600 wurde nur gekauft weil die R9 390 im Dezember 2020 starb und wegen Chipkrise ich 2 Jahre lang mit HD4600 und ATI 5750 spielte von 2009.
 
  • Gefällt mir
Reaktionen: SweetOhm, Krazee und metoer
Was mir beim lesen dieses Tests auch noch aufgefallen ist, die Render-Auflösung von 2560x1200 ist ungefähr die gleiche die man heute bei 4k mit Quality Upscaling verwendet, schon schräg irgendwie.
 
Ich kann mich noch daran erinnern, dass ich eine HD 6950 zu einer HD 6970 geflasht habe. Die Karte lief mit den erhöhten Taktraten der HD 6970 nicht stabil, so dass ich bei der Karte nur die Shader freigeschaltet habe
 
  • Gefällt mir
Reaktionen: SweetOhm
metoer schrieb:
Das ist doch kompletter Blödsinn, damals wie heute musste man einfach Regler Bedienen wenn man alte Karten weiter verwenden will und manchmal hilft auch das nichts mehr.

Beim Indiana Jones Benchmark war noch eine damals 4 Jahre alte 3080 dabei, die lieferte bei WQHD 24FPS AVG und 18FPS bei 1% Perzentil.
Ich meine nicht die Zeit zwischen GTX 9xx und heute, sondern eher die Windows 95, 98 und XP Zeit.
Auf der ATI Rage 128 konnte ich nach 2 Jahren keine aktuellen AAA Spiele mehr spielen und F.E.A.R. lief selbst auf niedrigen Einstellungen auf meiner Radeon 9600 XT wie ein Sack Schrauben und Doom 3 lief gar nicht. Da war die Karte gerade mal 1 Jahre alt. Die Konsolen haben irgendwann ne Zeit lang dafür gesorgt, dass Spiele die Hardware nicht mehr ausreizten, aber das war ne Ausnahme. Scheinen viele hier zu vergessen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hardy_1916
@ElliotAlderson
Max. Details with TAA + FFX Sharpening 20 % (no Upsampling/VRS/Reflex/FG) – rBAR/SAM/HAGS on
Man kann die Einstellungen tatsächlich runterstellen, hab ich bei mir auch gemacht.
 
  • Gefällt mir
Reaktionen: SweetOhm
@ElliotAlderson
Ich hatte damals nur eine Radeon 9200 im Familien-PC, Morrowind, FarCry, Half-Life 2 und vieles andere habe ich damals damit gespielt, klar lief es bescheiden, aber das war eben so. Das selbe hast du heute mit jedem UE5 Spiel und einer 3-4 Jahre alten Low/Mid-End Karte, mit Raytracing sieht es dann noch düsterer aus.
 
  • Gefällt mir
Reaktionen: SweetOhm
@ElliotAlderson 3x 1920x1200. War gar kein Problem mit F1 24. Wobei mir 30FPS auch entspannt reichen, hatte meistens aber mehr.
 
  • Gefällt mir
Reaktionen: SweetOhm
Wer da um 20€ zu sparen die 1GB statt der 2GB genommen hat hat aber auch sonst den Schuss nicht gehört. :evillol:
 
pseudopseudonym schrieb:
Was soll mir 3x sagen? Und 30 FPS sind alles andere als Astrein. Das ist das absolute Minimum.

metoer schrieb:
@ElliotAlderson
Ich hatte damals nur eine Radeon 9200 im Familien-PC, Morrowind, FarCry, Half-Life 2 und vieles andere habe ich damals damit gespielt, klar lief es bescheiden, aber das war eben so.
Cool und ein Jahr später? Wie liefen die Spiele da so?
Zu der Zeit hat sich die Performance der Karten jedes Jahr verdoppelt. Wenn du mir also erzählen willst, dass du selbst nach 2 Jahren noch mit einer Entrylevel Karte flüssig spielen konntest, müssen die Highend Karten damals ja 300+ FPS rausgeballert haben. Blöd nur, dass das nicht der Wahrheit entspricht:
https://www.computerbase.de/forum/t...-mfg-und-mfg-6x.2265129/page-10#post-31299654

Ich habe diese Gespräche hier regelmäßig mit irgendwelchen Usern, die scheinbar an Amnesie leiden.

Edit:
Zwischen dem Release deiner 9200 und Far Cry lagen 10 Monate und du musst selbst zugeben, dass die Spiele bescheiden liefen. Damit bestätigst du quasi meine Aussage. Wenn die Spiele bereits 10 Monate später bescheiden liefen, wie war es dann 24 Monate später?
Morrowind kam 1 Jahr vor deiner 9200 raus. Was sind das bitte für Argumente? :D
 
Zuletzt bearbeitet:
@ElliotAlderson Dass ich über drei Monitore gezockt hab (schön mit Lenkrad). Und wieso? Viele Konsolen machen auch nicht mehr. Passt schon.
 
pseudopseudonym schrieb:
@ElliotAlderson Dass ich über drei Monitore gezockt hab (schön mit Lenkrad).
GENAU :D
Eine 50% schnellere Karte erreichte in 1080p knapp 30 FPS und du willst mit einer RX480 auf 3 Monitoren gespielt haben? Astrein? Bullshit, sorry.

Edit:
Deine Sig sagt du hast 2 davon. Hast du damals auch mit zweien gespielt oder nur einer? ;)
 
Zurück
Oben