Bericht Das Ende von 3dfx: Rückblick zum 15. Todestag des 3D-Grafik-Pioniers

Ebenfalls sehr interessant ist dieser StackEchange Beitrag zum Thema OpenGL vs DirectX beim dem 3dfx auch eine erhebliche Rolle gespielt hat. Den kann ich jedem nur wärmsten an's Herz legen.

Ist eine wirklich interessante Story. NVidia liebte OpenGl, 3Dfx dagegen, Microsofts DirectX war der absolute Underdog und wie DirectX es letztendlich an die Spitze geschafft hat, obwohl OpenGL technologisch am Anfang sogar deutlich besser war wird dort alles recht gut erklärt.

https://softwareengineering.stackexchange.com/questions/60544/why-do-game-developers-prefer-windows

Das faszinierenste an der ganzen Sache ist, dass sich die Story mit Vulken nun zum vierten Mal zu wiederholen scheint.
Die lassen sich jetzt doch tatsächlich wieder von MS die Butter vom Brot nehmen, obwohl sie "theoretisch" vorher mit ihrer API fertig waren und sie technisch flexibler einsetzbar ist.
 
Cohen schrieb:
Also "chancenlos and die Wand gespielt" wurde die Riva 128 von der Voodoo 1 damals nicht. Je nach Spiel lag mal die eine und mal die andere vorne. Ich hatte beide parallel im Rechner. ;)

Anfangs waren die Quakeergebnisse der Riva 128 zwar enttäuschend: https://www.anandtech.com/show/11/3

Mit späteren Treiber und einer vernünftigen CPU hat sich das später aber deutlich gebessert: http://vintage3d.org/3dfx1.php#sthash.0r4DI481.dpbs

Anhang anzeigen 646896

Nun ja, der Voodoo Graphics kam schon 1996 raus, der Riva 128 erst 1997 (wie der Voodoo Rush).
1998 kamen bereits die Voodoo 2, Voodoo Banshee und Riva TNT Karten raus.

Wenn ich mich recht erinnere hatte ich damals für das erste Tomb Raider eine Matrox Mystique - Voodoo Graphics Kombi (damals echt eine geniale Kombi, vor allem wenn man auf das durchschleifen des VGA Signals verzichtete und die Mystique per BNC am einen und die Voodoo per VGA am anderen Eingang des Monitors hatte :o) und später noch eine Riva 128 in einem anderen Rechner. Später folgte dann eine Riva TNT - Voodoo2 SLI Kombi. Danach ging es glaube ich mit einer Geforce 2 GTS im einen und einer Voodoo 5 5500 im anderen Rechner weiter (obwohl ich mir jetzt nicht sicher bin ob nicht auch noch eine TNT2 im Spiel war), ging dann noch auf eine Geforce 3 und wechselte ab der Radeon 9700 zu den Radeons.
 
Sehr schöner Test CB. Danke. :)

Da kommen Erinnerung hoch ;) Wahnsinn. Kann mich noch gut daran erinnern, dass ich mir eine 3dfx Voodoo 1 damals kaufen wollte, aber aus Kostengründen davon abgesehen habe. Erst mit dem Job kam dann bei mir die Voodoo 2. Die zweite kam dann etwas später.

Bei der Voodoo 3 hab ich mir die 2000ter gekauft. :kuss:

In meinem heutigem Besitz befinden sich immer noch die Voodoo 3 2000 - 16 MB AGP und 2x Voodoo 2 - 8 MB. Laufen im SLI.
Laufen in Retro-Systemen ohne Probleme. Ich liebe diese Grafikkarten.

Grüße
 
Zuletzt bearbeitet: (angepasst*)
Pana schrieb:
Mir tun die jungen Gamer leid, die die goldene Ära des PC Gaming von 1995 bis 2001 nicht erlebt haben. So ein Gefühl, wenn man erstmals Unreal auf einer 3dfx startet, kam danach nie wieder.

Ja das war damals der Hammer! Du kannst das aber nachstellen, in dem du mehrere Jahre keine modernen Spielen anfässt. Als ich nach 5 Jahren ohne Zocken Witcher 2 und 3 sah, hatte ich ähnliche Momente wie damals mit 3dfx+Unreal. ;)
 
Die eBaypreise für die Karten gehen auch schon seit Jahren in die Höhe. Eine 5500er gibt es selten unter 200€, die sehr seltenen 6000er werden vierstellig gehandelt. Schon verrückt.
 
zentausend schrieb:
Das Ende war schon traurig, da die Voodoo 3 und auch Voodoo 5 zu ihrer Zeit den größten Mehrwert für Spieler boten. Nvidia war mit seinem Marketing für "T&L" und 32 Bit vs. 16 Bit leider sehr erfolgreich, vor allem, da sich dem auch die Presse angeschlossen hatte. In den Foren damals gab es auch genug Leute, die darauf rein fielen. Lustig war es, wenn Nvidia-Nutzer mit ihren Karten 16 und 32 Bit verglichen hatten und daraus schlussfolgerten, es müßte auf Voodoo Karten dann ja genau so mies aussehen wie bei ihnen. Tat es natürlich nicht.

Nun ja, der Mehrwert von 32 Bit hielt sich in Grenzen aber der von T&L war wegen dem CPU Flaschenhals enorm, zumindest wenn es genutzt wurde. Ich würde es heute mit der DX11 (OpenGL) vs. DX12 (Mantle/Vulkan) Situation in diversen Spielen vergleichen.
 
und wenn amd jetzt noch konkurs gehen würde, müssten wir für mid range garakas 1000eur hinlegen
 
Jaja die Voodoos, ich hatte erst 2x Diamond Monster II 12MB in meinem System ohne AGP und dann als ich den Celeron 300@450MHz kaufte habe ich mir eine Voodoo Banshee 16MB gekauft, dann aber nVidia und ich glaube erst als 3Dfx schon insolvenz angemeldet hatte die AGP Voodoo 5 5500 ziehmlich billig, die habe ich heute noch nur kein MoBo mit AGP 2x um sie zu testen, müsste aber noch laufen
 
noxon schrieb:
Ist eine wirklich interessante Story. NVidia liebte OpenGl, 3Dfx dagegen, Microsofts DirectX war der absolute Underdog und wie DirectX es letztendlich an die Spitze geschafft hat, obwohl OpenGL technologisch am Anfang sogar deutlich besser war wird dort alles recht gut erklärt.
...
Das faszinierenste an der ganzen Sache ist, dass sich die Story mit Vulken nun zum vierten Mal zu wiederholen scheint.
Die lassen sich jetzt doch tatsächlich wieder von MS die Butter vom Brot nehmen, obwohl sie "theoretisch" vorher mit ihrer API fertig waren und sie technisch flexibler einsetzbar ist.

Man braucht Expertenanalyse um zu erkennen, wieso sich das "Problem" mit DX und Vulkan zu wiederholen scheint. Hinter DX steckt ein gewinnorientiertes Unternehmen, der diese API ständig entwickelt und zusammen mit Herstellern und Spieleentwicklern anpasst.

Hinter Vulkan steht, wie damals hinter OpenGL, ein Konsortium von Herstellern, die dort nur rumsitzen und kein grosses Interesse haben dazu etwas beizutragen, oder nur ihre eigenen Interessen vertreten möchten. Das ist auch wunderbar mit der Entwicklung von Linux zu vergleichen. Es läuft auf Milliarden von Geräten und feiert Erfolge, zum Beispiel als Unterbau von Android. An der Verbreitung als Desktopsystem hat diese Entwicklung aber so gut wie keine Auswirkungen.

Das größte Problem dabei ist das "die". Es gibt sowas in einem Konsortium schlichtweg nicht. Das ist wie in der Politik, jeder will was anderes, bis man sich auf irgendwas einigt sind die "anderen" schon meilenweit entfernt.
 
Zuletzt bearbeitet:
Pana schrieb:
So ein Gefühl, wenn man erstmals Unreal auf einer 3dfx startet, kam danach nie wieder.

Das kam zuletzt mit dem Kauf des G-Sync-Monitors. Endlich ist die Flüssigkeit der C64-2D-Shooter in der 3D-Welt angekommen. Das nervte mich schon zu Voodoo-Zeiten, dass die Frameraten eigentlich schon erreicht (bei POD und Forsaken z.B.), aber nie dauerhaft gehalten wurden, so dass man entweder mit schmerzhaften Stotterern (bei Vsync und fps<Hz) oder Tearing leben musste.
 
floert schrieb:
....und dann als ich den Celeron 300@450MHz kaufte habe....

Den normalen ohne L2 Cache oder den Celeron A mit L2 Cache?
Letzterer war ne Granate! Der hatte zwar weniger L2 als die Pentium II Modelle aber da er auf dem Die war und mit vollem CPU Takt lief überholte er hin und wieder sogar seinen großen Bruder. Ich müsste hier immernoch ein Slot 1 Modell rumzuliegen haben. :D
 
Wadenbeisser schrieb:
Nun ja, der Mehrwert von 32 Bit hielt sich in Grenzen

Inwiefern? Da liegen doch Welten in der Bildqualität dazwischen!
3dfx ist einfach zu lange auf der Stelle getreten, ohne irgendeinen Fortschritt zu bringen.
Die Banshee ist im Grunde eine Voodoo1 mit 2D-Teil und die Voodoo3 eine Voodoo2 mit 2D-Teil.
Als man dann noch entschied, keine GPUs mehr an Kartenhersteller zu liefern war das Ende besiegelt.
 
Die Riva TNT war schlicht zu langsam. Für 32-Bit-Nebel ohne Treppenstufen nehme ich keine Drops von 50 auf 30 fps in Kauf.
 
@ Wadenbeisser
Das Hauptproblem der 6000er war allerdings der Brückenchip der wohl Anfällig für Defekte war.

Du hast Recht, die Brückenchips waren schon ein Problem.
Die Intel-Chips der ersten Karten liefen meistens gar nicht oder nur sehr instabil.
Die auf den letzten Reversionen der Prototypen verbauten HiNT Chips hingegen liefen verhältnismäßig problemlos. Allerdings waren die HiNT Chips bei der Auswahl der unterstützten Mainboards etwas wählerisch.

Die Defekte der Brückenchips lagen aber nicht an den Chips selbst, sondern daran, dass die Chips auf manchen Mainboards, fehlerhafterweise, eine zu hohe Spannung bekamen und dann innerhalb kürzester Zeit durch Überhitzung gestorben sind.

Es gibt Mainboardlisten der 3dfx Community für die V56k, damit das nicht passiert.
Wird der HiNT Brückenchips nicht zu heiß, laufen die Karten absolut problemlos.:)
 
Zuletzt bearbeitet:
@kisser
Der draufgeflanschte 24 Bit Filter machte seinen Job schon recht gut und zumindest bei der Riva TNT kosteten die 32 Bit Farbtiefe oftmals zu viel FPS. Bei der Geforce 2 GTS oder spätestens der Geforce 3 nutzte ich die Farbtiefe zwar durchgängig aber da war 3dfx mit der Voodoo 5 5500 dann auch so weit. Ich hätte ja liebend gern die 5500 nochmal mit einem Athlon64 wegen dem CPU Flaschenhals nachgetestet aber dessen Chipsätze kamen schon nicht mehr mit der AGP Spannung der Karte klar.
 
HaZweiOh schrieb:
Das geht so nicht, weil die Löhne genauso gestiegen sind.

Ich würde den 2. Preis im Artikel wieder entfernen, so ist die Aussage falsch.
das genau sollte ein inflationsrechner doch berücksichtigen?
 
@Agent500
Das war aber leider der Knackpunkt warum die nie wirklich marktreif wurden und einer der Sargnägel für 3dfx. Sie hatten zu viel in die Kartenentwicklung und zu wenig in die Chipentwicklung investiert.
Ihre SLI Technologie war wohl auch der Grund warum T&L nicht in den Chip integrierbar war weil es auf das Gesammtbild angewendet wurde, was nunmal nicht get wenn jeder Chip nur bestimmte Zeilen des Bildes berechnet. Das war wohl auch der Grund warum Rampage einen extra T&L Chip bekommen sollte.
Auf die Reihe hatte ich mich schon so sehr gefreut.... :(
 
Die GUTEN alten Zeiten ;) FJIMG_20171015_151641.jpg
 

Ähnliche Themen

Antworten
18
Aufrufe
15.557
Zurück
Oben