Leserartikel Die Geforce FX5200 Freakshow

IMG_20220404_171807113.jpg


Einleitung / Vorgeschichte

Weihnachten 2003 - der kleine chiller (grade 13 Jahre alt geworden) hat endlich seinen ersten neuen Gaming-PC geschenkt bekommen! Vorbei sind die Zeiten in denen die gebrauchten PCs der Eltern genutzt werden mussten, nun steht endlich ein neues Gerät unter dem Schreibtisch :p

Die Daten des PCs waren auf dem ersten Blick ansehnlich: Athlon XP 2800+, 512MB RAM, 80GB HDD, verpackt in einem schicken blau-weißen Gehäuse. Nach kurzer Nutzungsdauer fiel allerdings ein Bauteil eher negativ auf und nach genauem Hinsehen entpuppte sich dieses Bauteil als Geforce FX5200 ...mit 64Bit Speicherinterface :(

Mit dieser Gurke von Grafikkarte musste ich das gesamte Spiele-Jahr 2004 durchhalten - also dem Jahr in dem unter anderem Far Cry, Half Life 2 und Doom 3 launchten. Erst zum darauf folgenden Weihnachten wurde ich endlich mit einer Geforce 6800 erlöst.

Im Nachhinein betrachtet ist es ein Wunder, dass ich trotz dieser Karte seit 8 Jahren beruflich in der Hardware-Branche arbeite und mir kein anderes Hobby gesucht habe ^^ Mit diesem Artikel arbeite ich somit mein Hardware-Kindheits-Trauma auf, also schnallt euch an und begebt euch mit mir auf die wilde Reise durch den tiefen FX5200-Sumpf!​

Inhaltsverzeichnis:
  • Die Testkandidaten
  • Pleiten, Pech und Pannen
  • Testsystem
  • Testergebnisse
  • Fazit


Die Testkandidaten

IMG_20220404_1719494342.jpg


Wenn man nicht so genau hinschaut, fällt einem eine beliebige Geforce FX5200 schon für unter 10€ in die Hände. Bis 20€ bekommt man dann eigentlich schon fast sämtliche Varianten mit diversen Kühlern, Taktraten, Speichergrößen und Speicheranbindungen angeboten. Einzig die PCI-Variante ist seltener und teurer - von der FX 5200 Ultra ganz zu schweigen.​

Zuerst einmal die obligatorische Übersicht an Daten und Fakten:

AGPDirectXChipFertigungsprozessROP/TMUPixel-/VertexshaderChiptaktSpeichertaktInterface
Geforce FX52008x9.0NV34150nm4 / 44 / 2250 MHz200 MHz128 Bit


Und das habe ich so alles bei ebay und einem Sammler gefunden:

ModellMarkeChiptaktSpeicherSpeichertaktInterfaceBandbreite
FX5200 PCIZotac250 MHz128MB DDR166 MHz64 Bit2,7GB/s
FX5200MSI (OEM)250 MHz64MB DDR203 MHz64 Bit3,2GB/s
FX5200Albatron255 MHz128MB DDR166 MHz64 Bit2,7GB/s
FX5200MSI (OEM)250 MHz128MB DDR200 MHz64 Bit3,2GB/s
FX5200MSI (OEM)250 MHz64MB DDR200 MHz128 Bit6,5GB/s
FX5200XFX250 MHz128MB DDR166 MHz128 Bit5,3GB/s
FX5200MSI (OEM)250 MHz128MB DDR200 MHz128 Bit6,5GB/s
FX5500Manli270 MHz256MB DDR200 MHz128 Bit6,5GB/s

Wie Overclocking, nur anders rum! - So könnte man die Auswahl zusammen fassen, die ich gefunden und getestet habe. Denn die meisten FX5200 hatten nämlich nur ein 64 Bit breites Speicherinterface. Viel schlimmer noch: Fast alle Karten von Marken wie Gainward, MSI, Albatron, XFX und co. drehten an den Speicher-Taktraten - allerdings in die falsche Richtung! So werden oft Modelle mit 166, 150, 140, 133 und sogar 125 MHz Speichertakt angeboten, sodass es fast unmöglich ist überhaupt eine Karte mit Referenz-Taktraten zu finden.

Einzig die OEM-Karten von MSI hielten sich an die Regeln, sowie die FX5500 von Manli - letztere ist im Prinzip nur ein Refresh der FX5200 mit erhöhten Taktraten und kam etwa ein Jahr nach dem Release der FX5200 auf den Markt. Die FX5500 ist insgesamt deutlich weniger verbreitet als die FX5200, auch wenn es keine Kunst sein dürfte eine günstige FX5500 zu erwischen.

Mit der Albatron FX5200 ist übrigens auch exakt die gleiche Karte im Roundup dabei, die vor knapp 20 Jahren in meinem PC werkelte. Mal schauen wie schlecht dieses Modell gegenüber dem Rest abschneidet, denn natürlich wurde auch hier an der Speicher-Taktrate gedreht.​


Pleiten, Pech und Pannen

Das ist mein erster Artikel seit Ende 2015, daher ging natürlich nicht alles glatt. Aber schaut selbst:

Eine FX5200 Ultra, die keine ist

Auf den Bildern weiter oben ist eine ASUS-Karte mit grünem PCB und goldenem Kühler zu sehen, welche als "FX 5200 Ultra" verkauft wurde. In Realität stellte sich dann Ernüchterung ein, denn es handelte sich nur um eine reguläre FX5200 :( Immerhin, der Verkäufer hat sich kulant gezeigt und die Karte wieder zurück genommen.

Eine zerbröselte FX5500


IMG_20220404_1816096622.jpg

Tja, ärgerlich: Die FX5500 wollte erst nicht in den AGP-Slot rein - nach kurzer Durchsicht fand ich den Übeltäter, denn einer der Widerstände auf dem PCB hatte sich gelöst und den Slot blockiert. Erstaunlicher Weise funktioniert die Karte noch, allerdings fällt die Performance ein paar Prozent schlechter aus als sie eigentlich sein müsste - ich vermute mal das Speicherinterface hat etwas ab bekommen. Die FX5500 wird daher nicht im Test auftauchen, da ich die Ergebnisse nicht verfälschen möchte.

Bugs!
Ich hab noch ein paar andere Karten zum Vergleich in die Tests reingenommen, allerdings kam es hier und da zu Abstürzen und Grafikfehlern. Gothic 1 hatte keine Lust mit älteren DX7-Karten zu starten, und Radeons mochte das Spiel ebenfalls nicht. Jedi Knight 3 produziert auf DX7-Karten Grafikfehler, allerdings nur unter 1024x768x16 - mit 1280x1024 sieht das Spiel einwandfrei aus (klicken zum Vergrößern der Screenshots):​
Gothic Fehler.JPGjasp 2008-03-06 20-53-25-93.jpgjasp 2008-03-06 20-57-26-20.jpg


Testsystem

Getestet wurde mit folgenden Komponenten:
CPUIntel C2D E6600 @ 2,6GHz (FSB auf 290 MHz erhöht)
RAM2x 1GB DDR-434 CL2-3-2-5 (G.Skill)
MainboardASRock 775Dual-VSTA
SD-Karte128GB Samsung (per IDE-Adapter)
PSUCorsair TX750M
Monitor24" ASUS Full HD

Als Betriebssystem kam Windows XP Service Pack 3 in der x86-Version zum Einsatz.

Weitere Grafikkarten, die zum Vergleich heran gezogen wurden:
  • Radeon 9200SE (128MB DDR, 64Bit, 200/166 MHz)
  • Radeon 9250 (128MB DDR, 64Bit, 240/200 MHz)
  • Geforce 4 MX-440 (64MB DDR, 128Bit, 275/200 MHz)
  • Geforce 6200 (256MB DDR2, 64Bit, 350/266 MHz)
Ich habe zwei ATI-Karten aus der gleichen Klasse und dem gleichen Zeitraum heran gezogen, um zu schauen wie sich die FX5200 hier einordnet. Mit der MX-440 und der 6200 habe ich den jeweiligen Vorgänger und Nachfolger gewählt, um eine gute Einordnung zu ermöglichen.

Treiberversionen:
Geforce 6200: 307.83
Geforce 4 und FX: 93.71
Radeons: Catalyst 6.11


Testergebnisse
Zuerst habe ich mit ein paar Benchmarks gestartet:

3DMark 2000.jpg

3DMark 01.jpg

3DMark 03.jpg

Aquamark3.jpg


Ich fand es erstaunlich, wie gut die alte Geforce 4 MX-440 mithalten konnte und die FX5200-Garde oft auf die hinteren Plätze schicken konnte. Einzig im 3DMark 03 liegen die Radeons und die Geforce 4 hinten, da diese keine DirectX 9-Tests darstellen können.

Dramatisch finde ich, dass 128MB Speicher bei der FX5200 überhaupt nichts bringen, denn die 64MB-Karten sind im Prinzip genau so schnell. Allerdings wurden meines Wissens nach keine 64MB-Versionen der Karte, abgesehen von den OEM-Varianten angeboten. Ich möchte mir besser nicht vorstellen, wie viel ungenutzten Speicher es auf FX5200-Karten insgesamt auf der Welt gegeben hat :freak: Daher ist der Ausfall der FX5500 mit 256MB auch zu verschmerzen, denn das hätte sowieso keinen Unterschied gemacht.


Nach den Benchmarks kamen auch echte Spiele zum Einsatz. Ich habe mich auf Spiele beschränkt, welche in etwa zu der Zeit rausgekommen sind, außerdem habe ich auf eine bunte Auswahl von OpenGL- und DirectX-Spielen geachtet. Es handelt sich durchgehend um GOG-Versionen der Spiele.

(Anklicken zum Vergrößern)
Elite Force.jpgGothic.jpgGothic 2.jpg

Unreal 2.jpgJedi Knight 3.jpgSpellforce.jpg

Elite Force: Hier laufen viele Karten in das 90fps-Limit des Spiels. Insgesamt gibt es in der Reihenfolge viel Durcheinander, zum Beispiel kommt die Geforce 6200 nicht zur Geltung.

Gothic 1: Wie oben bereits geschrieben, wollte das Spiel nicht mit einigen Karten zusammen arbeiten. Ansonsten ist es erstaunlich, wie stark die FX5200-Riege von der 6200er deklassiert wird - so deutlich wie hier wird das in keinem anderen Spiel. Im Gegenzug dazu sind aus irgend einem Grund die 64MB-Versionen der FX5200 reproduzierbar etwas schneller unterwegs, als die Pendants mit 128MB.

Gothic 2: Hier ist die Auswahl an möglichen Auflösungen im Spiel eher schlecht. Außerdem unterstützen die Radeon-Karten einige der Auflösungen nicht. Erstaunlich finde ich wieder einmal das Abschneiden der Geforce 4 MX-440, welche aber wahrscheinlich von einem verringertem Feature-Set aufgrund ihrer DX7-Kompatibilität profitiert.

Unreal 2: Nichts spannendes zu vermelden, abgesehen von kleineren Messungenauheiten - durch eine Ruckelorgie zu navigieren ist halt nicht einfach :p

Jedi Knight 3: Warum die Geforce 6200 hier nicht so recht zündet, kann ich mir nicht erklären. Es handelt sich allerdings um die gleiche Grafik-Engine wie bei Elite Force, sofern mir das bekannt ist. Auch dort hat die Karte nicht gut performt. Auffällig ist zudem das besonders schlechte Abschneiden der PCI-Grafikkarte, die hier besonders lahm unterwegs ist.

Spellforce: Zum Abschluss hab ich nochmal einen richtigen Kracher organisiert, denn das Spiel war auf damaligen PCs kaum ruckelfrei spielbar und blieb mir mit seinen heftigen Hardware-Anforderungen in Erinnerung. Kein Wunder also, dass wir hier viele einstellige FPS-Zahlen sehen.


Fazit:

Nun was soll ich sagen, aus persönlicher Sicht hatte ich damals nicht nur eine der Grafikkarten mit dem schlechtesten Grafikchip den man damals für Geld kaufen konnte, sondern auch innerhalb des FX5200-Kosmos eine der langsamsten Varianten im PC stecken :freak:

Auch sonst waren die Leistungsunterschiede innerhalb des FX5200-Angebots gigantisch, zum Teil habe ich Performance-Unterschiede von 50% und mehr gemessen. Selbst die alte Geforce 4 MX-440 kann einen Großteil der getesteten Karten in den meisten Benchmarks und Spielen hinter sich lassen - das reduzierte DX7-Featureset mal außen vor gelassen. Auch im ATI-Lager sah es damals nicht besser aus, die getesteten Radeon-Karten mischen sich meistens unauffällig unter die FX5200-Karten.

Der FX5200 sind damals ein paar Eigenschaften zum Verhängnis geworden:​
  • Die unglückliche FX-Architektur, die sich durch das gesamte Lineup bis zur 5800er gezogen hat und von ATI Radeon 9500/9700 deklassiert wurde​
  • Die volle DX9-Unterstützung, bei der NVIDIA wohl nicht den gleichen Fehler wie beim Vorgänger machen wollte und für die Einsteiger-Karten Geforce 4 MX damals Kritik einstecken musste​
  • Die Boardpartner, die ohne große Kennzeichnung an Speicherbandbreite und Taktraten rumgeschnippelt haben und die bereits mäßige Performance komplett erwürgt haben​
  • Das offensive Marketing, denn die Karten wurden insbesondere in Komplett-PCs mit DirectX 9-Support und 128MB Speicher beworben. Klang toll, war es aber nicht​
  • Damit ichs mal erwähnt habe: Auch das OC-Potential der FX5200 war nicht toll. Der Chiptakt lässt sich meist nur auf knapp über 300 MHz erhöhen und auch dem Speicher geht schnell die Puste aus, da meistens der billigste Schrott verbaut wurde, der irgendwo vom Band gefallen ist.​

Zum Abschluss:

Ich hoffe euch hat mein erster Artikel gefallen - gebt mir bitte gerne Kritik und Verbesserungsvorschläge :) Ich habe noch zwei, drei Artikel-Ideen die ich in den nächsten Wochen umsetzen möchte, allesamt im Entry-Bereich der Grafikkarten aus den Jahren 1999-2005. Falls ihr einen Artikel zu einem bestimmten Thema oder zu einer bestimmten Grafikkarte(n-Generation) sehen wollt, schaue ich gerne was machbar ist!
 

Anhänge

  • IMG_20220404_1719494342.jpg
    IMG_20220404_1719494342.jpg
    1,6 MB · Aufrufe: 676
  • Gefällt mir
Reaktionen: soggi, ShmaZen, MarcelGX und 86 andere
andi_sco schrieb:
Immer noch eine wahnsinnig gute Story, aber gerade die Figuren sind schlecht gealtert.
Das mit der aufpolierten Grafik des zweiten Teiles 😍
Ja das Spiel war großartig, allerdings wie viele ältere Spiele mit 3D-Grafik rein optisch eher gruselig. Wobei ich z.B. das erste Empire Earth noch schlimmer finde von der Optik ^^
 
  • Gefällt mir
Reaktionen: DaBo87 und andi_sco
Ja, aber die gute Story entschädigt für vieles.

Hatte gerade mal wieder Brothers in Arm: Road to Hill 30 ausgepackt und bin begeistert von dem Non-Anti-Aliasing Bild 😅
 
  • Gefällt mir
Reaktionen: _chiller_
Toller Artikel der einen mitfühlen lässt.

Bei mir fing es mit einem ähnlichen System an. Anstatt einer Fx 5200 war aber eine 4400Ti verbaut. Das Leid blieb mir also erspart 😁.

VG 🙋‍♂️
 
  • Gefällt mir
Reaktionen: _chiller_
Insgesamt schöner Artikel, aber ich hätte mir da noch eine Radeon 9250 mit 128bit gewünscht, oder sogar die 9550, die immerhin als direkte Konkurrenz zur 5200 und 5500 eingeführt wurde.
Dann wäre auch wieder ein bisschen verständlicher, warum die 5200 so ein Debakel war, denn die 9550 hat zum Preis einer 5200 auch mit der 5500 den Boden gewischt, und ließ sich mit einem winzigen BIOS-Tweak mindestens zur 9600 freischalten.
Ich hatte damals das Glück, eine mit DDR2-Speicherchips zu erwischen um 60€ Neupreis.
Noch für 10€ nen Revoltec-80mm-Gehäuselüfter gekauft, mit Gummibändern aus Mamas Haushaltsschublade auf den Passivkühler geschnallt, und die Karte zum 9600-Pro-Äquivalent getaktet.
Herrlich war das.
 
  • Gefällt mir
Reaktionen: <NeoN>
@andi_sco fehlende 8Bit Palettized Textures kam mir nur in FFVIII vor die Nase, als ich von der 440MX auf die 6800 gewechselt bin , was es genau war kann ich im Moment nicht sagen, habs dann aber auch nicht mehr gespielt.
 
  • Gefällt mir
Reaktionen: andi_sco
Feiner Lesestoff, das schau ich mir nachher an!
IMG_20220413_205240.jpg

Damit ging's los. Wenn man bedenkt, dass diese Karte Crysis (Low Detail) rendern kann... ATIs Meisterstück!
 
  • Gefällt mir
Reaktionen: konkretor und andi_sco
RaptorTP schrieb:
War eine richtig klasse Karte.
Meine war golden und die lief stabil auf Takt der GF3 Ti500.
Eine schöne Zeit damals.
Ergänzung ()

BlastFromPast schrieb:
Feiner Lesestoff, das schau ich mir nachher an!
Anhang anzeigen 1207835
Damit ging's los. Wenn man bedenkt, dass diese Karte Crysis (Low Detail) rendern kann... ATIs Meisterstück!
Erkenne tatsächlich nicht welche Karte dass war.
Hatte als Nachfolger für meine GF3 Ti200 glaube ne 9500@9700Pro.
 
  • Gefällt mir
Reaktionen: RaptorTP und BlastFromPast
Das ist eine ATi Fire GL X1, ne 9700Pro mit Dual DVI.
 
  • Gefällt mir
Reaktionen: andi_sco
Sehr geil geschrieben, toller Artikel ;)
Ich war direkt in die Zeit versetzt, zu meinem Glück mit einer etwas besseren Ausgangslage.
Ich habe mir damals Ende 2003, nach langem Sparen und Arbeit während der Sommerferien, meine ATI 9700 Pro Ultimate von Sapphire holen können.
Mit im Bundle war ein Steam Code für Half Life 2, ich glaube ich musste noch geschlagene 7 Monate bis zum Release warten ;D.
Dieses Erlebnis, die Karte damals endlich mit meinem Ahtlon 2800 zu vermählen und drauf los zu SABBERN. das war wirklich auch eine kleine Sternstunde meiner Gamingzeit ;)
 
  • Gefällt mir
Reaktionen: DaBo87, <NeoN>, _chiller_ und eine weitere Person
Hatte zu der Zeit damals noch eine Geforce 3Ti 500 die (warum auch immer) gegen eine 9200SE ausgetauscht wurde. Ich fühle den Schmerz :daumen:
 
  • Gefällt mir
Reaktionen: _chiller_ und BlastFromPast
Ich bin in Gedanken bei dir.
 
Ne 5200 Ultra, du Glücklicher ^^
 
  • Gefällt mir
Reaktionen: wickedgonewild, andi_sco, konkretor und eine weitere Person
Habe durch Zufall die gleiche FX 5200 gefunden, die ich damals in meinem eigenen System hatte:
P1010378.JPG

Den gleichen Karton hatte ich damals auch :)

P1010380.JPG

Die Sache stellt sich allerdings noch dramatischer dar, als im Artikel dargestellt. Die Albatron FX 5200 aus dem Test war eine V2.0, welche erst ab 2004 produziert wurde. Die Karte die ich eigentlich im PC hatte, war die V1.0, die auf den Bildern zu sehen ist - mit 7,5ns- statt 6,0ns-Speicher, was glaube ich 133 MHz Spezifikation bedeuten müssten. Damit wäre die Karte ja noch viel langsamer als befürchtet :freak:

Das schreit nach einem weiteren Artikel, was meint ihr?
 
  • Gefällt mir
Reaktionen: konkretor, Tzk, andi_sco und eine weitere Person
_chiller_ schrieb:
Das schreit nach einem weiteren Artikel, was meint ihr?
:volllol:


PS ich klaue mir morgen mal deine Ergebnisse für den Benchmark Thread, wenn es ok ist
 
  • Gefällt mir
Reaktionen: _chiller_
_chiller_ schrieb:
Das schreit nach einem weiteren Artikel, was meint ihr?
Du scheinst sehr leidensfähig zu sein, wenn du dein Kindheitstrauma nochmal durchleben willst…:volllol:

Eine Erweiterung des Artikels klingt doch super, auch wenn die Balken mit der Albatron wohl eher (noch) kürzer werden.

In der retroperspektive kann ich mich wohl glücklich schätzen, das ich damals mit deiner GF4 Ti 4200 unterwegs war. Die Karte hat mich Jahre begleitet, bis BF2 Shadermodel 2.x haben wollte und die GF4 somit einer 9800 Pro weichen musste…
 
  • Gefällt mir
Reaktionen: _chiller_
Zurück
Oben