News Im Test vor 15 Jahren: AMDs Radeon HD 6950 mit 1 GByte war 20 Euro günstiger

@ElliotAlderson Mit einer. Die eine hing über PCIe-Passthrough in ner Windows-VM, die andere in ner Linux-VM.
Und wie gesagt, mit weniger Details war das kein Thema. Mir doch egal, ob die Zuschauer beste Texturen und Schatten haben. Der von dir verlinkte Artikel hat alles schön hoch gedreht.
 
  • Gefällt mir
Reaktionen: NMA
metoer schrieb:
Beim Indiana Jones Benchmark war noch eine damals 4 Jahre alte 3080 dabei, die lieferte bei WQHD 24FPS AVG und 18FPS bei 1% Perzentil.


Ja. Weil entweder:

- Computerbase stur auch auf den Karten mit dem kleineren Speicher ihre Textpuroolgrößen durchziehen müssen, weil Benchmark (obwohl das kein Textureregler, sondern ein Streamingcache ist, dessen Auswirkung auf die Bildqualität oft überschaubar ist)

- Oder weil Machine Games wie im ollen Wolf Younblood mal wieder völlig unnütz Cachegrößen zuließen, die auch potentere Hardware abkotzen lässt.


Könnte auch eine Mischung daraus sein. Jedenfalls: Auf ner sieben Jahre ollen 2060 Super läuft Indiana Jones besser als damals Crysis auf manch aktuellem PC -- via DLSS sogar in mehr als der niedrigsten "aktuell verwendeten" Auflösung. ALLERDINGS war Crysis seit jeher als PC-Showcase konzipiert. Indiana Jones ist wie 99,9% aller modernen Grafikblockbuster ein Multiplattformtitel, dessen Target-Hardware bald sechs Jahre alte Konsolen sind...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: da_exe und ElliotAlderson
metoer schrieb:
Beim Indiana Jones Benchmark war noch eine damals 4 Jahre alte 3080 dabei, die lieferte bei WQHD 24FPS AVG und 18FPS bei 1% Perzentil.
Und eine 4090 (OC) in AW 2 lediglich 20/19 FPS (ohne Fake Gedöns) ... :daumen:
Ergänzung ()

Svennc schrieb:
- Oder weil Machine Games wie im ollen Wolf Younblood mal wieder völlig unnütz Cachegrößen zuließen, die auch potentere Hardware abkotzen lässt.
Aber genau dafür gibt man doch gerne 2500 - 3500 € aus ... :D
 

Anhänge

  • 20 FPS 4090.jpg
    20 FPS 4090.jpg
    272,8 KB · Aufrufe: 17
  • 575 Watt.jpg
    575 Watt.jpg
    455,3 KB · Aufrufe: 16
  • Gefällt mir
Reaktionen: madmax2010 und Svennc
Ich nannte eine Radeon HD6850 mein Eigen. 😎😁. Tolle Grafikkarte, ich hatte sie lange in Gebrauch.
 
Wie die Zeit vergeht...
Mein alter PC lief 2010-2019. Die Leistung war nicht mehr gut genug für die Spiele ab 2019.
Mich schockiert so derartig dass mein aktueller PC schon 7 Jahre alt ist.
 
  • Gefällt mir
Reaktionen: da_exe
ElliotAlderson schrieb:
Ich habe diese Gespräche hier regelmäßig mit irgendwelchen Usern, die scheinbar an Amnesie leiden.
Wer leidet hier unter Amnesie? Deine Behauptung war das man heute mit 10 Jahre alten Karten alles flüssig spielen kann, was einfach nicht stimmt.

Du tust so als ob man vor 25 Jahren ohne die aktuellste High-End GPU nichts zocken konnte, was ich mit meinem Beispiel widerlegen wollte. Doom 3 lief sehr wohl auf deiner 9600XT wenn auch nicht in höchsten Settings. https://www.tweakpc.de/hardware/tests/graka/doom3_performance/s05.php

Mit einer 3060 wirst du in Cyberpunk mit Pathtracing auch nur eine Diashow sehen.
 
  • Gefällt mir
Reaktionen: SweetOhm
metoer schrieb:
Wer leidet hier unter Amnesie? Deine Behauptung war das man heute mit 10 Jahre alten Karten alles flüssig spielen kann, was einfach nicht stimmt.
Nein, nicht mit 10 Jahre alten Karten. Ich behaupte, dass ne 4090/5090 10 Jahre durchhält, bis nichts mehr geht.

metoer schrieb:
Doom 3 lief sehr wohl auf deiner 9600XT wenn auch nicht in höchsten Settings. https://www.tweakpc.de/hardware/tests/graka/doom3_performance/s05.php
Hast du mal geguckt, was du da gepostet hast? In 640x480 wollte ich das selbst damals nicht spielen, obwohl ich schon sehr viel mitgemacht habe. In der damals gängigen Auflösung von 1024x768 lief das Spiel mit ganzen 22 FPS. In low warens dann ganze 27 FPS (avg. in der Demo, je nach Szene auch gern mal weniger). Ich weiß noch, dass ich das damals beim Kollegen auf der X800 XT gezockt habe, weil mein Rechner dazu nicht fähig war.
Zu dem Zeitpunkt war meine Karte genau 1 Jahr alt und nicht mehr in der Lage Doom auf niedrigen Settings flüssig darzustellen, wenn ich nicht in einer Gameboyauflösung spielen wollte. Du durftest zu der Zeit jedes Jahr bzw. jedes 2. aufrüsten. Heute halten die Karten ganz locker mehrere Jahre durch.

metoer schrieb:
Mit einer 3060 wirst du in Cyberpunk mit Pathtracing auch nur eine Diashow sehen.
Niemand spricht hier von max Settings, aber in 1080p war mit der 3060 bis auf RT alles drin in CP:
https://www.computerbase.de/artikel...nchmarks_in_full_hd_wqhd_und_ultra_hd_ohne_rt

Mit der 3060 kannst du heute noch sämtliche Spiele in hohen Einstellungen in 1080p spielen. Erst recht mit DLSS und FG und das ist ne 5 Jahre alte Gaming-Entrylevel Karte.
Davon konnte ich damals mit meiner 9600 XT nur träumen.
 
Zuletzt bearbeitet:
Entspricht ja den GB Preisen von heute :/
metoer schrieb:
Mit einer 3060 wirst du in Cyberpunk mit Pathtracing auch nur eine Diashow sehen.
tbh habe ich Cyberpunk mit einer 3060 in 4K gespielt
ein paar Einstellungen mussten schon auf Mittel, aber in meiner Kindheit waren wir sehr Happy wenn der Familien PC 20FPS schaffte. Mir reichen stabile 40
 
ElliotAlderson schrieb:
@SweetOhm Das ist mal wieder typisch für dich. Der zitierte Sprach von WQHD und du kommst mit UHD/4K bzw. meckerst dass eine Spiel in 8K nicht flüssig läuft, aber dann einen Post liken der 30 FPS mit min. settings als astreines Erlebnis bezeichnet. Genau mein Humor :D
Und @SweetOhm und @pseudopseudonym kann mir mal einer von euch erklären wie wir von der 6970 nach mal einen Sprung 10 Jahre zurück machen???
Irgendwo seit ihr glaube ich in der Diskussion falsch abgebogen.
Ich glaube so bis 2006/7 brauchte es wirklich alle 12 Monate eine neue Karte.
Aber danach entspannte sich die Situation auch immer mehr.
Ich weiß das ich mit der 5870 damals 2,5 Jahre durchgehalten haben bei FullHD. Und diese durch eine 7970 ersetzt habe weil ich 2GB RAM brauchte. Klar mehr Performance hatte die auch. Aber beim RAM drückte der Schuh mehr.
 
  • Gefällt mir
Reaktionen: ElliotAlderson und NMA
CDLABSRadonP... schrieb:
Videocardz und macht ihnen klar, dass ihr die Karte nicht neu getestet habt
Videocardz: Wie weit bist du mit dem Artikel?
Redakteur: Öh... (fuck, das WE ist schon rum?!) habs gleich Chef!
Hey, Grok - übersetz mal den neuesten CB artikel und fasse ihn zusammen!
Cheeef, bin fertig! 🤣
 
CastorTransport schrieb:
Ich hatte nach der 8800er Nvidia keine "Grüne" mehr. Nur noch Rot, durch Dick und Dünn mit AMD ^^
Lustig, ich hatte nach der 8800 auch keine grüne mehr. Die aktuelle hat dann aber meine R9 290 ersetzt, aber auch nur, weil mein Bruder die nicht mehr benötigt. Nur deswegen wieder Nvidia. Ich habe denen den damaligen RAM-Scam nie verziehen.
 
  • Gefällt mir
Reaktionen: CastorTransport
Vulture schrieb:
Richtig, Selbst wenn man eine recht großzügige Inflationsrate von 50% einrechnet, sind die Preise von heute absoluter Wucher.
Das ist aber auch die einfache Rechnung. Eine Mitteklasse-GPU von vor 20 Jahren ist eben nicht das gleiche wie eine Mitteklasse-GPU von heute. Das kann man nicht vergleichen wie einen Apfel im Supermarkt vor 20 Jahren zu einem den man aktuell im Supermarkt kaufen kann - wenn man mal davon ausgeht es handelt sich um die gleiche Sorte mit ähnlichem Gewicht und Zustand.
 
WinstonSmith101 schrieb:
Die Preise von damals wirken heute surreal günstig. Es ist unglaublich, wie sehr wir heute ausgequetscht werden.
Ja, und immer wieder derselbe Kommentar unter jeeeeeeeeeeeeeeeeeeeeeeeeder GPU News, wirklich einfach JEDER. Ich kann's nicht mehr hören.

Natürlich sind GPUs teurer, ja na und? Was will man machen?

Dafür haben die GPUs damals auch nicht so lange gehalten! Jedes Jahr, oder spätestens nach 2 Jahren zu upgraden war quasi Pflicht, um die neuesten Spiele spielen zu können. Auch wenn du ne High-End Karte gekauft hast.

Und wie viele Spiele kannst du auch heute noch mit ner RTX 3090 (6 Jahre alt !!!!) zocken? Wie lange konntest du mit ner FX 5800 / FX 5900(5950), GTX 6800, 7900XTX, 6800XT(X) etc.pp zocken? Und wenn du noch weiter in der Vergangenheit gehst, dann war deine Grafikkarte manchmal nach 6 Monaten schon komplett veraltet......

....was haste dann gemacht, gezwungenermaßen? Richtig, neu gekauft. Und das war auch nicht billig in Summe. Nicht zu vergessen, dass Prozessoren, RAM etc. häufig eine ebenso kurze Lebensdauer hatten und nachgekauft werden mussten. Das hat sich erst ab Intel Core geändert, weil die Dinger einfach ein absolutes Brett waren.

Wenn ich daran denke wie extrem viele GPUs ich schon in meinem Leben hatte, bzw. wie viele GPUs ich in den letzten 20-25 Jahren gekauft habe... heute kaufst du dir ne 5090 und kannst in 3-4 Jahren unter Garantie immernoch perfekt damit zocken. Mit ner RTX 6090 dann 5-6 Jahre ab Release... das ging mit den Generationen vor der RTX 1000 Serie nie ohne Abstriche! Mit der RTX 1080 (Ti) ging es nämlich los, dass die GPUs massiv teurer wurden, aber auch viel länger gehalten haben.
 
  • Gefällt mir
Reaktionen: EadZ und Hardy_1916
Was würden die Konzerne nur ohne die tapferen Recken machen die bei der kleinsten Kritik an der Preispolitik in die Bresche springen um sie zu verteidigen.

Die 3000€ der 5090 sind inflationsbereinigt ca. 8 Stk. der HD 6950 die hier getestet wurde...
 
  • Gefällt mir
Reaktionen: WinstonSmith101
Das Ding hatte ich auch mal.

Man könnte fast schon wieder den Preisen nachweinen.
Schon krass, was es damals fürs Geld gab.

Ich hab grad mal nachgesehen, das Ding hat etwas mehr Chipfläche als eine RTX5080, auch ein 256Bit SI und auch 8 Speicherchips verlötet.
Nicht schlecht für 230€.

Damit kommt man heute nicht mehr weit.
 
  • Gefällt mir
Reaktionen: metoer
20€ sind heute die stündliche Preis-Varianz von Grafikkarten,
weil Onkel Manfred wieder die KI fragt, ob es heute noch regnet.
 
  • Gefällt mir
Reaktionen: Plonktroll
metoer schrieb:
Die 3000€ der 5090 sind inflationsbereinigt ca. 8 Stk. der HD 6950 die hier getestet wurde...


Einerseits. Andererseits: Glaube nicht, dass sich ne 6950 damals gebraucht noch mal mit nem Übergewinn weiterverkaufen ließ. :D Selbst ohne die Krise: Beim derzeitigen Fortschrittstempo dürfte generell eine 5090 noch für viele Jahre Bedarf existieren...

Habe mal durchgerechnet: Die 60er-Mainstream-Modelle für ALLE und die Steam-Top-1 (AMDs Äquivalente inklusive) würden erst in den 2030er Jahren überhaupt an das Niveau einer 3090/Ti rankommen. Wenn das Tempo so bliebe, wohlgemerkt. :D Da der traditionelle Shrink-Trick der Branche nicht mehr so funzt wie vorher über Jahrzehnte, ist zumindest von einem plötzlichen Turboboost nicht auszugehen. Selbst der Konsolenmarkt ist ja längst betroffen: https://arstechnica.com/gadgets/202...d-to-and-its-killing-game-console-price-cuts/
 
Zuletzt bearbeitet:
Zurück
Oben