Leserartikel Die Geforce FX5200 Freakshow

IMG_20220404_171807113.jpg


Einleitung / Vorgeschichte

Weihnachten 2003 - der kleine chiller (grade 13 Jahre alt geworden) hat endlich seinen ersten neuen Gaming-PC geschenkt bekommen! Vorbei sind die Zeiten in denen die gebrauchten PCs der Eltern genutzt werden mussten, nun steht endlich ein neues Gerät unter dem Schreibtisch :p

Die Daten des PCs waren auf dem ersten Blick ansehnlich: Athlon XP 2800+, 512MB RAM, 80GB HDD, verpackt in einem schicken blau-weißen Gehäuse. Nach kurzer Nutzungsdauer fiel allerdings ein Bauteil eher negativ auf und nach genauem Hinsehen entpuppte sich dieses Bauteil als Geforce FX5200 ...mit 64Bit Speicherinterface :(

Mit dieser Gurke von Grafikkarte musste ich das gesamte Spiele-Jahr 2004 durchhalten - also dem Jahr in dem unter anderem Far Cry, Half Life 2 und Doom 3 launchten. Erst zum darauf folgenden Weihnachten wurde ich endlich mit einer Geforce 6800 erlöst.

Im Nachhinein betrachtet ist es ein Wunder, dass ich trotz dieser Karte seit 8 Jahren beruflich in der Hardware-Branche arbeite und mir kein anderes Hobby gesucht habe ^^ Mit diesem Artikel arbeite ich somit mein Hardware-Kindheits-Trauma auf, also schnallt euch an und begebt euch mit mir auf die wilde Reise durch den tiefen FX5200-Sumpf!​

Inhaltsverzeichnis:
  • Die Testkandidaten
  • Pleiten, Pech und Pannen
  • Testsystem
  • Testergebnisse
  • Fazit


Die Testkandidaten

IMG_20220404_1719494342.jpg


Wenn man nicht so genau hinschaut, fällt einem eine beliebige Geforce FX5200 schon für unter 10€ in die Hände. Bis 20€ bekommt man dann eigentlich schon fast sämtliche Varianten mit diversen Kühlern, Taktraten, Speichergrößen und Speicheranbindungen angeboten. Einzig die PCI-Variante ist seltener und teurer - von der FX 5200 Ultra ganz zu schweigen.​

Zuerst einmal die obligatorische Übersicht an Daten und Fakten:

AGPDirectXChipFertigungsprozessROP/TMUPixel-/VertexshaderChiptaktSpeichertaktInterface
Geforce FX52008x9.0NV34150nm4 / 44 / 2250 MHz200 MHz128 Bit


Und das habe ich so alles bei ebay und einem Sammler gefunden:

ModellMarkeChiptaktSpeicherSpeichertaktInterfaceBandbreite
FX5200 PCIZotac250 MHz128MB DDR166 MHz64 Bit2,7GB/s
FX5200MSI (OEM)250 MHz64MB DDR203 MHz64 Bit3,2GB/s
FX5200Albatron255 MHz128MB DDR166 MHz64 Bit2,7GB/s
FX5200MSI (OEM)250 MHz128MB DDR200 MHz64 Bit3,2GB/s
FX5200MSI (OEM)250 MHz64MB DDR200 MHz128 Bit6,5GB/s
FX5200XFX250 MHz128MB DDR166 MHz128 Bit5,3GB/s
FX5200MSI (OEM)250 MHz128MB DDR200 MHz128 Bit6,5GB/s
FX5500Manli270 MHz256MB DDR200 MHz128 Bit6,5GB/s

Wie Overclocking, nur anders rum! - So könnte man die Auswahl zusammen fassen, die ich gefunden und getestet habe. Denn die meisten FX5200 hatten nämlich nur ein 64 Bit breites Speicherinterface. Viel schlimmer noch: Fast alle Karten von Marken wie Gainward, MSI, Albatron, XFX und co. drehten an den Speicher-Taktraten - allerdings in die falsche Richtung! So werden oft Modelle mit 166, 150, 140, 133 und sogar 125 MHz Speichertakt angeboten, sodass es fast unmöglich ist überhaupt eine Karte mit Referenz-Taktraten zu finden.

Einzig die OEM-Karten von MSI hielten sich an die Regeln, sowie die FX5500 von Manli - letztere ist im Prinzip nur ein Refresh der FX5200 mit erhöhten Taktraten und kam etwa ein Jahr nach dem Release der FX5200 auf den Markt. Die FX5500 ist insgesamt deutlich weniger verbreitet als die FX5200, auch wenn es keine Kunst sein dürfte eine günstige FX5500 zu erwischen.

Mit der Albatron FX5200 ist übrigens auch exakt die gleiche Karte im Roundup dabei, die vor knapp 20 Jahren in meinem PC werkelte. Mal schauen wie schlecht dieses Modell gegenüber dem Rest abschneidet, denn natürlich wurde auch hier an der Speicher-Taktrate gedreht.​


Pleiten, Pech und Pannen

Das ist mein erster Artikel seit Ende 2015, daher ging natürlich nicht alles glatt. Aber schaut selbst:

Eine FX5200 Ultra, die keine ist

Auf den Bildern weiter oben ist eine ASUS-Karte mit grünem PCB und goldenem Kühler zu sehen, welche als "FX 5200 Ultra" verkauft wurde. In Realität stellte sich dann Ernüchterung ein, denn es handelte sich nur um eine reguläre FX5200 :( Immerhin, der Verkäufer hat sich kulant gezeigt und die Karte wieder zurück genommen.

Eine zerbröselte FX5500


IMG_20220404_1816096622.jpg

Tja, ärgerlich: Die FX5500 wollte erst nicht in den AGP-Slot rein - nach kurzer Durchsicht fand ich den Übeltäter, denn einer der Widerstände auf dem PCB hatte sich gelöst und den Slot blockiert. Erstaunlicher Weise funktioniert die Karte noch, allerdings fällt die Performance ein paar Prozent schlechter aus als sie eigentlich sein müsste - ich vermute mal das Speicherinterface hat etwas ab bekommen. Die FX5500 wird daher nicht im Test auftauchen, da ich die Ergebnisse nicht verfälschen möchte.

Bugs!
Ich hab noch ein paar andere Karten zum Vergleich in die Tests reingenommen, allerdings kam es hier und da zu Abstürzen und Grafikfehlern. Gothic 1 hatte keine Lust mit älteren DX7-Karten zu starten, und Radeons mochte das Spiel ebenfalls nicht. Jedi Knight 3 produziert auf DX7-Karten Grafikfehler, allerdings nur unter 1024x768x16 - mit 1280x1024 sieht das Spiel einwandfrei aus (klicken zum Vergrößern der Screenshots):​
Gothic Fehler.JPGjasp 2008-03-06 20-53-25-93.jpgjasp 2008-03-06 20-57-26-20.jpg


Testsystem

Getestet wurde mit folgenden Komponenten:
CPUIntel C2D E6600 @ 2,6GHz (FSB auf 290 MHz erhöht)
RAM2x 1GB DDR-434 CL2-3-2-5 (G.Skill)
MainboardASRock 775Dual-VSTA
SD-Karte128GB Samsung (per IDE-Adapter)
PSUCorsair TX750M
Monitor24" ASUS Full HD

Als Betriebssystem kam Windows XP Service Pack 3 in der x86-Version zum Einsatz.

Weitere Grafikkarten, die zum Vergleich heran gezogen wurden:
  • Radeon 9200SE (128MB DDR, 64Bit, 200/166 MHz)
  • Radeon 9250 (128MB DDR, 64Bit, 240/200 MHz)
  • Geforce 4 MX-440 (64MB DDR, 128Bit, 275/200 MHz)
  • Geforce 6200 (256MB DDR2, 64Bit, 350/266 MHz)
Ich habe zwei ATI-Karten aus der gleichen Klasse und dem gleichen Zeitraum heran gezogen, um zu schauen wie sich die FX5200 hier einordnet. Mit der MX-440 und der 6200 habe ich den jeweiligen Vorgänger und Nachfolger gewählt, um eine gute Einordnung zu ermöglichen.

Treiberversionen:
Geforce 6200: 307.83
Geforce 4 und FX: 93.71
Radeons: Catalyst 6.11


Testergebnisse
Zuerst habe ich mit ein paar Benchmarks gestartet:

3DMark 2000.jpg

3DMark 01.jpg

3DMark 03.jpg

Aquamark3.jpg


Ich fand es erstaunlich, wie gut die alte Geforce 4 MX-440 mithalten konnte und die FX5200-Garde oft auf die hinteren Plätze schicken konnte. Einzig im 3DMark 03 liegen die Radeons und die Geforce 4 hinten, da diese keine DirectX 9-Tests darstellen können.

Dramatisch finde ich, dass 128MB Speicher bei der FX5200 überhaupt nichts bringen, denn die 64MB-Karten sind im Prinzip genau so schnell. Allerdings wurden meines Wissens nach keine 64MB-Versionen der Karte, abgesehen von den OEM-Varianten angeboten. Ich möchte mir besser nicht vorstellen, wie viel ungenutzten Speicher es auf FX5200-Karten insgesamt auf der Welt gegeben hat :freak: Daher ist der Ausfall der FX5500 mit 256MB auch zu verschmerzen, denn das hätte sowieso keinen Unterschied gemacht.


Nach den Benchmarks kamen auch echte Spiele zum Einsatz. Ich habe mich auf Spiele beschränkt, welche in etwa zu der Zeit rausgekommen sind, außerdem habe ich auf eine bunte Auswahl von OpenGL- und DirectX-Spielen geachtet. Es handelt sich durchgehend um GOG-Versionen der Spiele.

(Anklicken zum Vergrößern)
Elite Force.jpgGothic.jpgGothic 2.jpg

Unreal 2.jpgJedi Knight 3.jpgSpellforce.jpg

Elite Force: Hier laufen viele Karten in das 90fps-Limit des Spiels. Insgesamt gibt es in der Reihenfolge viel Durcheinander, zum Beispiel kommt die Geforce 6200 nicht zur Geltung.

Gothic 1: Wie oben bereits geschrieben, wollte das Spiel nicht mit einigen Karten zusammen arbeiten. Ansonsten ist es erstaunlich, wie stark die FX5200-Riege von der 6200er deklassiert wird - so deutlich wie hier wird das in keinem anderen Spiel. Im Gegenzug dazu sind aus irgend einem Grund die 64MB-Versionen der FX5200 reproduzierbar etwas schneller unterwegs, als die Pendants mit 128MB.

Gothic 2: Hier ist die Auswahl an möglichen Auflösungen im Spiel eher schlecht. Außerdem unterstützen die Radeon-Karten einige der Auflösungen nicht. Erstaunlich finde ich wieder einmal das Abschneiden der Geforce 4 MX-440, welche aber wahrscheinlich von einem verringertem Feature-Set aufgrund ihrer DX7-Kompatibilität profitiert.

Unreal 2: Nichts spannendes zu vermelden, abgesehen von kleineren Messungenauheiten - durch eine Ruckelorgie zu navigieren ist halt nicht einfach :p

Jedi Knight 3: Warum die Geforce 6200 hier nicht so recht zündet, kann ich mir nicht erklären. Es handelt sich allerdings um die gleiche Grafik-Engine wie bei Elite Force, sofern mir das bekannt ist. Auch dort hat die Karte nicht gut performt. Auffällig ist zudem das besonders schlechte Abschneiden der PCI-Grafikkarte, die hier besonders lahm unterwegs ist.

Spellforce: Zum Abschluss hab ich nochmal einen richtigen Kracher organisiert, denn das Spiel war auf damaligen PCs kaum ruckelfrei spielbar und blieb mir mit seinen heftigen Hardware-Anforderungen in Erinnerung. Kein Wunder also, dass wir hier viele einstellige FPS-Zahlen sehen.


Fazit:

Nun was soll ich sagen, aus persönlicher Sicht hatte ich damals nicht nur eine der Grafikkarten mit dem schlechtesten Grafikchip den man damals für Geld kaufen konnte, sondern auch innerhalb des FX5200-Kosmos eine der langsamsten Varianten im PC stecken :freak:

Auch sonst waren die Leistungsunterschiede innerhalb des FX5200-Angebots gigantisch, zum Teil habe ich Performance-Unterschiede von 50% und mehr gemessen. Selbst die alte Geforce 4 MX-440 kann einen Großteil der getesteten Karten in den meisten Benchmarks und Spielen hinter sich lassen - das reduzierte DX7-Featureset mal außen vor gelassen. Auch im ATI-Lager sah es damals nicht besser aus, die getesteten Radeon-Karten mischen sich meistens unauffällig unter die FX5200-Karten.

Der FX5200 sind damals ein paar Eigenschaften zum Verhängnis geworden:​
  • Die unglückliche FX-Architektur, die sich durch das gesamte Lineup bis zur 5800er gezogen hat und von ATI Radeon 9500/9700 deklassiert wurde​
  • Die volle DX9-Unterstützung, bei der NVIDIA wohl nicht den gleichen Fehler wie beim Vorgänger machen wollte und für die Einsteiger-Karten Geforce 4 MX damals Kritik einstecken musste​
  • Die Boardpartner, die ohne große Kennzeichnung an Speicherbandbreite und Taktraten rumgeschnippelt haben und die bereits mäßige Performance komplett erwürgt haben​
  • Das offensive Marketing, denn die Karten wurden insbesondere in Komplett-PCs mit DirectX 9-Support und 128MB Speicher beworben. Klang toll, war es aber nicht​
  • Damit ichs mal erwähnt habe: Auch das OC-Potential der FX5200 war nicht toll. Der Chiptakt lässt sich meist nur auf knapp über 300 MHz erhöhen und auch dem Speicher geht schnell die Puste aus, da meistens der billigste Schrott verbaut wurde, der irgendwo vom Band gefallen ist.​

Zum Abschluss:

Ich hoffe euch hat mein erster Artikel gefallen - gebt mir bitte gerne Kritik und Verbesserungsvorschläge :) Ich habe noch zwei, drei Artikel-Ideen die ich in den nächsten Wochen umsetzen möchte, allesamt im Entry-Bereich der Grafikkarten aus den Jahren 1999-2005. Falls ihr einen Artikel zu einem bestimmten Thema oder zu einer bestimmten Grafikkarte(n-Generation) sehen wollt, schaue ich gerne was machbar ist!
 

Anhänge

  • IMG_20220404_1719494342.jpg
    IMG_20220404_1719494342.jpg
    1,6 MB · Aufrufe: 674
  • Gefällt mir
Reaktionen: soggi, ShmaZen, MarcelGX und 86 andere
Ein sehr schöner erster Artikel, Hut ab!
Dein Artikel hat mich gerade selbst in genau diese Zeit teleportiert und ich erinnere mich noch daran,
dass ich Far Cry spielen wollte, aber mein PC es nicht packte. Die genauen Hardwareinfos weiß ich leider nicht mehr. Ich ging dann immer zu meinem Kumpel, denn dieser hatte die Geforce 4 MX 440 drin und damit lief Far Cry, wenn auch nicht perfekt. Aber wir beide haben dieses Spiel damals geliebt und es war ja auch im Grunde ein Game, dass die Spieleszene zu dieser Zeit revolutioniert hat. Diese Grafikpracht, diese Spiellandschaft, die KI, war meiner Meinung nach schon ein Meilenstein zu dieser Zeit und hat Crytek ja auch gut Geld eingebracht.

Ich sollte dann aber endlich auch ein neuen PC bekommen, um FarCry auch zuhause spielen zu können, ich erinnere mich nur noch daran, dass die Grafikkarte eine Radeon 9800 Pro war und ich damit massiv Probleme hatte nach kurzer Zeit. Ständig gab es Grafikfehler, Treiber hat sich zurückgesetzt usw.
Im Computershop wo es gekauft wurde sagte man mir dann es ist ein Defekt an der Grafikkarte, wahrscheinlich wegen Hitze ausgelöst, sei wohl ein Problem dieser Reihe gewesen, belegen kann ich das nicht, ich war zu diesen Zeitpunkt ca. 16 Jahre alt und hatte noch nicht allzu viel Erfahrung im PC/Hardwaresektor.
Man nahm die Grafikkarte also wieder zurück und mit etwas Aufpreis wurde mir dann eine Nvidia Geforce 6600 GT verkauft. Mit dieser Karte sollte es dann endlich alles besser werden und ich konnte FarCry genießen, Maps bauen und später auch HL2 spielen.
Aber dieses Erlebnis in meiner "Teenagerzeit" hat mich geprägt und ich habe bis heute keine AMD Grafikkarte mehr angefasst und nur Nvidia Grafikkarten gekauft.
Wobei ich nun nach Jahren durchaus gewollt war meine (noch aktuell verbaute) GTX1060 gegen eine AMD RX5700 XT zu tauschen. Doch dann wurde die neue RX6700 XT angekündigt und ich wollte warten. Naja und was dann mit den Preisen passierte wissen wir ja alle, sodass ich es vorerst aufs Eis gelegt habe.
Vielleicht dann ja zur 7. Generation :D
 
  • Gefällt mir
Reaktionen: SVΞN und _chiller_
Ah das waren Zeiten. Mein ersten Computer zur Konfirmation hat mein großer Bruder zusammengestellt und aufgebaut. Da hatte ich wohl noch glück gehabt, meine erste GraKa war eine GeForce4 Ti 4200. Diese wurde später für HL2 durch eine 6800 LE ersetzt.
 
  • Gefällt mir
Reaktionen: SVΞN und _chiller_
Schöner Test, weiß noch genau wie ein Kumpel mit seinem PC und 5200 zu ner LAN erschien und sich über meine alte 4Ti 4200 lustig gemacht hatte. Als dann das erste SPiel gestartet wurde wars damit auch vorbei. wobei prizipiell die 9XXXer Reihe von ATi vorzuziehen war.
 
  • Gefällt mir
Reaktionen: SVΞN und _chiller_
Ein guter Freund hatte damals glaube ich die 5200 in genau dieser Packung.
Halo sah bei ihm etwas besser aus, auf dem PC meines Vaters (glaube das war auch diese MX440) lief es einfach flüssiger.
Später wurde sie in einen Schuhkarton verfrachtet der als zweit-PC für Freunde diente, man konnte UT04 drauf spielen... wenn man wollte. :D
 
  • Gefällt mir
Reaktionen: SVΞN und _chiller_
Sehr sehr cooler Test! Danke!

Erinnert mich an meinen zweiten Rechner mit 15 Jahren: Das gesparte Geld in einen Athlon 1400 samt 256 MB DDR-266 auf einem Gigabyte GA-7DXR nach PCGH-Empfehlung investiert - und dann war kein Geld mehr für eine Grafikkarte übrig. Also wurde es eine GeForce 2 MX200 mit 64 MB. Katastrophe.

Nach einem Jahr Ruckelorgien wurde ich dann zum Geburtstag mit einer GeForce 4 Ti-4200 erlöst.
 
  • Gefällt mir
Reaktionen: SVΞN und _chiller_
Schöner Artikel!
Ich war damals schon etwas fortgeschrittener und baute meine Kisten selbst.
Zu dem Zeitpunkt hatte ich noch eine Geforce 4200 wenig später wechselte ich ins andere Lager mit der 9800 Pro. Far Cry sah damit blendend aus.
Witzig dabei: Ein Kumpel von mir hatte auf einer LAN Party eine Nvidia Karte (Weiß nicht genau mehr welche). Wenn ich raus schwomm in Far Cry fing meine Spielfigur irgendwann an zu schreihen verlor Energie und starb.
Sehen konnte man (Radeon) dabei nichts. Bei meinem Kumpel (Nvidia) wurde jedoch ein Hai dargestellt.
Was haben wir gelacht....
 
  • Gefällt mir
Reaktionen: Kaulin, SVΞN und _chiller_
Throwback! Danke für den Artikel.
Ich glaube ich hatte damals einen Athlon XP 2200 mit einer Radeon 9250 auf der NFSU (2), Doom 3, Unreal 2 irgendwie liefen aber auch mehr schlecht als Recht.
 
  • Gefällt mir
Reaktionen: SVΞN und _chiller_
Das weckt in der Tat gemischte Erinnerungen. Einmal war ich damals froh weil die fx 5200 meine erste 'richtige' 3D Karte war. Vorher hatte ich glaube ich eine Geforce 2 mx 200, zusammen mit einem Athlon XP 1800+. HL2 lief damit nicht so wirklich, doch nach einigem gejammer fand sich bei meinem Vater dann besagte fx 5200. Damit lief HL2 zwar, aber wenn man den hübschen pixel shader 2 aktivierte war es eher nicht mehr spielbar. Doch einmal gesehen störte der Unterschied :/

Ich weiß das Modell nicht mehr, Grabbelkistenhardware eben. Wüsste jemand was genau die Karte im Foto direkt vor dem Karton, unter der Zotac ist? Mit dem länglichen schwarzen Kühler und den zwei silbernen Befestigungspins? Das könnte sie gewesen sein, wobei ich mir mit der Farbe der Pins nicht mehr sicher bin. Doch die längliche Form des schwarzen Kühlkörpers passt. Ich hatte am Ende versucht sie zu übertakten und mit einem zusatzlüfter zu kühlen, mit wenig Erfolg was die Spieleleistung angeht.
Ersetzt wurde sie dann erst von einer geforce 7950 gt für agp. Das war ein Sprung ... da habe ich einige alte Spiele noch mal gespielt um auch die Optik zu genießen.

Allerdings hat die fx 5200 auch positive Eindrücke hinterlassen. Sie kostete mich nichts, war passiv und, wenn auch etwas heiß, lief meine ohne Probleme. Es war gerade mit der passiven Kühlung eine funktionale low-end Karte mit der man eben auch mal etwas spielen konnte.
 
  • Gefällt mir
Reaktionen: SVΞN und _chiller_
Immer nett so eine Zeitreise. JDK3 basiert zwar wie EF auf der idtech3, aber beide haben diese hier und da modifiziert und vermutlich wurde da bei Jedi Knight mehr gedreht.

Respekt 👍 habe ich wenn man soviel Zeit in ein Projekt steckt. Erwarte hier beileibe keinen professionellen Test. Schade jedoch, dass dann aber oft und vorallem bei Tests über Generationen hinweg, das eine oder andere Ergebnis mehr oder weniger für die Tonne ist, weil bei nvidia Karten zu neue Treiber verwendet werden. Denn dies führt nicht selten zu weniger Leistung und je nach Spiel auch gerne mal zu Frameeinbrüchen, Bugs etc.
90er Treiber für die FX - Karten geht ja so, aber ein 300er für die 6200?🤨 Warum hier nicht wenigstens auch der 93.71 oder ist die 6200er so eine OEM Karte welche von den original Treibern nicht erkannt wird?
 
  • Gefällt mir
Reaktionen: SVΞN und _chiller_
Danke für diese Erinnerung.
Ich hatte nach einem Fertigen Office PC auch einen ähnlich aufgebauten ersten Gaming PC.
Athlon XP2400+, 512MB DDR333, 80GB HDD und eben die FX5200.
Auch ich musste erst dann feststellen, wie langsam das Teil ist. Ohne Vorkenntnisse wurde halt primär auf den Preis geschaut.
Aber ich bin auch eine Weile mit dem Teil klar gekommen, habe sogar Far Cry 1 damit angefangen.
Nach einem halben Jahr wanderte dann aber eine ATi 9600pro ins System, kurz gefolgt von einer 9800pro. Damit lief dann alles ganz angenehm.

Schöner Artikel.
 
  • Gefällt mir
Reaktionen: SVΞN und _chiller_
Hach, ich werde direkt nostalgisch. Danke!
 
  • Gefällt mir
Reaktionen: SVΞN und _chiller_
  • Gefällt mir
Reaktionen: SVΞN und _chiller_
Danke für die ganzen Kommentare, großartig die ganzen alten Geschichten zu lesen. Wenigstens bin ich mit meinem Schicksal nicht alleine gewesen :D

Bigeagle schrieb:
Ich weiß das Modell nicht mehr, Grabbelkistenhardware eben. Wüsste jemand was genau die Karte im Foto direkt vor dem Karton, unter der Zotac ist? Mit dem länglichen schwarzen Kühler und den zwei silbernen Befestigungspins? Das könnte sie gewesen sein, wobei ich mir mit der Farbe der Pins nicht mehr sicher bin. Doch die längliche Form des schwarzen Kühlkörpers passt.

Das ist die 64MB-Variante mit 64bit gewesen. Ich hab mir die Karte nochmal im Detail angeschaut, tatsächlich handelt es sich um eine Leadtek LR2960 und nicht wie irrtümlich im Test angegeben um eine MSI OEM Karte. Die Leadtek müsste aus einem Dell-PC stammen und hat 2x DVI-Ausgänge. Hier ein größeres Bild davon:
https://www.electromyne.de/Graphics...I-nVidia-Geforce-FX5200-S26361-D1910-V64.html

Retroscorp schrieb:
Schade jedoch, dass dann aber oft und vorallem bei Tests über Generationen hinweg, das eine oder andere Ergebnis mehr oder weniger für die Tonne ist, weil bei nvidia Karten zu neue Treiber verwendet werden. Denn dies führt nicht selten zu weniger Leistung und je nach Spiel auch gerne mal zu Frameeinbrüchen, Bugs etc.
90er Treiber für die FX - Karten geht ja so, aber ein 300er für die 6200?🤨 Warum hier nicht wenigstens auch der 93.71 oder ist die 6200er so eine OEM Karte welche von den original Treibern nicht erkannt wird?

Das ist ein hervorragender Hinweis! Tatsächlich wird ja oft der 43.45-Treiber gelobt, ich werde hierzu noch etwas experimentieren. Hatte irrtümlich die neuesten Treiber pro Generation genommen die ich noch in irgendwelchen Archiven gefunden habe, auch im Hinblick auf größtmögliche Kompatibilität.
 
  • Gefällt mir
Reaktionen: Bigeagle
_chiller_ schrieb:
Das ist die 64MB-Variante mit 64bit gewesen
Bei der Generation hat sich nVidia auch richtig ausgetobt, was Langsamkeit betrifft.

Sagt mal, sind ein Paar der Chips von Samsung gefertigt worden?
Auf der 5700 steht Taiwan, und auf der 5600 Korea
Ergänzung ()


PS von der 5700 gab es 7 Versionen - wtf
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BlastFromPast, SVΞN und _chiller_
Von einem Leidensgenossen zu einem anderen, DANKE!
Geteiltes Leid ist, wie bekannt, halbes Leid. Sehr schöner Leserartikel
Meine Traumabewältigung sieht wohl mittlerweile so aus, dass ich mir Hardware aus dem oberen Performance- bzw. High-End-Sektor kaufe bzw. kaufen kann. Zur damaligen Zeit war man ja eher von Geburtstagen und dem Weihnachtsmann abhängig 😅👌🏻
 
  • Gefällt mir
Reaktionen: SVΞN und _chiller_
Achja die 4mx440, 8 Bit palettized Textures , die den dx9 Karten gar gefehlt haben dürften9? , der mpeg2 decoder Support, schade nur dass ein Feature auf der ersten AsusnVerpackung damals dann doch nur den grossen dx8 Karten zugestanden wurde.
War jetzt ein Opengl Game bei den Benches bei?
 
  • Gefällt mir
Reaktionen: SVΞN und _chiller_
_chiller_ schrieb:
Immer noch eine wahnsinnig gute Story, aber gerade die Figuren sind schlecht gealtert.
Das mit der aufpolierten Grafik des zweiten Teiles 😍
 
  • Gefällt mir
Reaktionen: _chiller_ und SVΞN
Pitt_G. schrieb:
Achja die 4mx440, 8 Bit palettized Textures , die den dx9 Karten gar gefehlt haben dürften9?
Die GeForce 5 FX Serie konnte noch 8 Bit Palettized Texturen in Hardware darstellen. Ab der GeForce 6 Serie war dieses Feature dann Geschichte.
 
@Aslinger hatte nach der NV17 die NV40 und da war dann keins mehr vorhanden wie ich an FFVIII gemerkt hatte
 
Zurück
Oben