Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIm Test vor 15 Jahren: AMDs Radeon HD 6950 mit 1 GByte war 20 Euro günstiger
Ich hatte mal ne HD6950 von Powercolor die man schön via Bios auf eine HD6970 flashen konnte. War aber - soweit ich mich erinnere - kein 1 GB Modell sondern 2GB.
Von meinen 4 Laptops (CPU/GPU : INTEL/INTEL, INTEL/nVidia, AMD/nVidia, AMD/AMD) mal abgesehen ...
p.s. in meinem "Spielzimmer" steht auch noch ein ZX 81, C64, Amiga funktionsfähig/spielbereit so rum.
Sowie ein Retro PC mit Athlon 2400 und 9800XT (256 MB) GPU.
20.- Unterschied bei doppeltem Speicher...
Hätte ich heute auch gerne. Jedes GB kostet 10.- mehr.
Das war wohl auch der letzte Test, bei dem der halbe Speicher nicht negativ ausgelegt wurde?
Das ist doch kompletter Blödsinn, damals wie heute musste man einfach Regler Bedienen wenn man alte Karten weiter verwenden will und manchmal hilft auch das nichts mehr.
Beim Indiana Jones Benchmark war noch eine damals 4 Jahre alte 3080 dabei, die lieferte bei WQHD 24FPS AVG und 18FPS bei 1% Perzentil.
Was willst du in modernen Spielen heute noch mit einer GTX 1070 oder Radeon 5700 anfangen?
Selbst als der Wechsel von DX9 auf 10 kam boten in der Übergangsphase die meisten Spiele beide Optionen an, sodass man alte Karten weiter verwenden konnte, ähnlich wie heute mit Raytracing.
Hab meine noch in nem Kraton im Schrank. War die Referenz, die aber mittels bios update auf 6970 geflashed ist und auch gut mit den std Takraten läuft. War echt lange mein ´Begleiter, läuft immer noch wie am ersten Tag, auch mit der brutalen Geräuschkulisse ^^
Wieso bist du auf die 1060 von der 480 umgestiegen? Die 480 war in den Tests immer paar % schneller und dazu hatte die 480 auch noch 8gb VRAM. Die 1060 hatte maximal 6GB.
Was heute 2000-3000 Euro sind waren damals 350-400 Euro zu mindestens bei AMD.
Die R9 390 damals glaub 350 Euro je nach Modell nicht mehr als 400 Euro.
Was dann teuer wurde so 600 Euro ca. waren dann diese X2 Grafikkarten 2 in 1.
Ergänzung ()
CDLABSRadonP... schrieb:
Naja, da waren halt viele nur noch die Hälfte wert, weil die neue Mittelklassegraka halt dank Effizienzverdoppelung nun gleich viel leistete. Das System war eigentlich recht simpel, auch wenn diverse User lange gebraucht haben, um es zu verstehen.
Die R9 390 hätte ich heute noch die RX 6600 wurde nur gekauft weil die R9 390 im Dezember 2020 starb und wegen Chipkrise ich 2 Jahre lang mit HD4600 und ATI 5750 spielte von 2009.
Was mir beim lesen dieses Tests auch noch aufgefallen ist, die Render-Auflösung von 2560x1200 ist ungefähr die gleiche die man heute bei 4k mit Quality Upscaling verwendet, schon schräg irgendwie.
Ich kann mich noch daran erinnern, dass ich eine HD 6950 zu einer HD 6970 geflasht habe. Die Karte lief mit den erhöhten Taktraten der HD 6970 nicht stabil, so dass ich bei der Karte nur die Shader freigeschaltet habe
Das ist doch kompletter Blödsinn, damals wie heute musste man einfach Regler Bedienen wenn man alte Karten weiter verwenden will und manchmal hilft auch das nichts mehr.
Beim Indiana Jones Benchmark war noch eine damals 4 Jahre alte 3080 dabei, die lieferte bei WQHD 24FPS AVG und 18FPS bei 1% Perzentil.
Ich meine nicht die Zeit zwischen GTX 9xx und heute, sondern eher die Windows 95, 98 und XP Zeit.
Auf der ATI Rage 128 konnte ich nach 2 Jahren keine aktuellen AAA Spiele mehr spielen und F.E.A.R. lief selbst auf niedrigen Einstellungen auf meiner Radeon 9600 XT wie ein Sack Schrauben und Doom 3 lief gar nicht. Da war die Karte gerade mal 1 Jahre alt. Die Konsolen haben irgendwann ne Zeit lang dafür gesorgt, dass Spiele die Hardware nicht mehr ausreizten, aber das war ne Ausnahme. Scheinen viele hier zu vergessen.
@ElliotAlderson
Ich hatte damals nur eine Radeon 9200 im Familien-PC, Morrowind, FarCry, Half-Life 2 und vieles andere habe ich damals damit gespielt, klar lief es bescheiden, aber das war eben so. Das selbe hast du heute mit jedem UE5 Spiel und einer 3-4 Jahre alten Low/Mid-End Karte, mit Raytracing sieht es dann noch düsterer aus.
Was soll mir 3x sagen? Und 30 FPS sind alles andere als Astrein. Das ist das absolute Minimum.
metoer schrieb:
@ElliotAlderson
Ich hatte damals nur eine Radeon 9200 im Familien-PC, Morrowind, FarCry, Half-Life 2 und vieles andere habe ich damals damit gespielt, klar lief es bescheiden, aber das war eben so.
Cool und ein Jahr später? Wie liefen die Spiele da so?
Zu der Zeit hat sich die Performance der Karten jedes Jahr verdoppelt. Wenn du mir also erzählen willst, dass du selbst nach 2 Jahren noch mit einer Entrylevel Karte flüssig spielen konntest, müssen die Highend Karten damals ja 300+ FPS rausgeballert haben. Blöd nur, dass das nicht der Wahrheit entspricht: https://www.computerbase.de/forum/t...-mfg-und-mfg-6x.2265129/page-10#post-31299654
Ich habe diese Gespräche hier regelmäßig mit irgendwelchen Usern, die scheinbar an Amnesie leiden.
Edit:
Zwischen dem Release deiner 9200 und Far Cry lagen 10 Monate und du musst selbst zugeben, dass die Spiele bescheiden liefen. Damit bestätigst du quasi meine Aussage. Wenn die Spiele bereits 10 Monate später bescheiden liefen, wie war es dann 24 Monate später?
Morrowind kam 1 Jahr vor deiner 9200 raus. Was sind das bitte für Argumente?
GENAU
Eine 50% schnellere Karte erreichte in 1080p knapp 30 FPS und du willst mit einer RX480 auf 3 Monitoren gespielt haben? Astrein? Bullshit, sorry.
Edit:
Deine Sig sagt du hast 2 davon. Hast du damals auch mit zweien gespielt oder nur einer?