Meine GeForce 3 habe ich damals kurz nach Release gekauft, zusammen mit einer Athlon 1200 Kombo. Das war ne Höllenmaschine damals. Alleine die Grafikkarte hat stolze 1200 DM gekostet. Man muss allerdings dazu sagen, dass Shader erst in der 3.0 Version mit DX 9 zum Gamechanger wurden. DX 8 wurde relativ schnell weiterentwickelt und die GeForce 3 war ne ziemliche Zwischennummer. Hielt aber dafür locker drei Jahre und wurde dann erst durch die 9800 Pro ersetzt, nachdem die GeForce 5 ein Riesendesaster wurde.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Notiz DirectX 8.0: Vor 20 Jahren begann das Zeitalter der Shader
- Ersteller SVΞN
- Erstellt am
- Zur Notiz: DirectX 8.0: Vor 20 Jahren begann das Zeitalter der Shader
Riegelstriegel
Ensign Pro
- Registriert
- Juli 2019
- Beiträge
- 195
Ich weiß auch noch, wie ich mit meiner GeForce 2Ti nach dem ersten SplinterCell bedröppelt dastand, weil der zweite Teil auf einmal DX8 und Shader vorausgesetzt hat. 
T
Teralios
Gast
Wieso denn? Klar, heute sind die 15 Watt ein Witz, betrachtet man aber damals die PCs, dann sind die 15 Watt für eine »GPU«, die primär damals primär Polygone mit Texturen versah und das dann in ein 2D-Bild umwandelte, sehr wohl ein recht hoher Verbrauch gewesen.lejared schrieb:Ich lach mich kaputt, wenn ich da an die eben vorgestellte Geforce RTX 3700/3800/3900 denke.
Gut, die CPU war zu Zeiten der GeForce 3 auch immer noch primär dafür zuständig Objekte zu »verformen« und die Beleuchtung zu berechnen und war damals - verglichen mit der GPU - der primäre Stromfresser im PC. Pentium 3 war bis zu 40 Watt TDP ausgelegt, erst mit dem Pentium 4 ist dann die TDP »explodiert«.
Transform&Ligthning hat sich zu DX7-Zeiten nicht wirklich durchgesetzt, weil der Fallback die CPU war und erst mit DX8, wurde dann T&L stärker genutzt, da dann der Fallback eben DX7 war.
Ist man »böse«, dann hatte die GeForce 3, zu dem Zeitpunkt halt so einige Schaltkreise, die damals nicht wirklich genutzt wurden, aber befeuert werden mussten. Heute sind die GPUs wahre und auch »flexible« Numbercruncher, das benötigt halt auch mehr Energie.
Irgendwie will ich mir mein »Traumsystem« aus meiner Jugend mal zusammen bauen: Pentium 3 Tualatin mit 1,3GHz, 1GB SDRAM und einer Voodoo 3 oder 5 und dann mal messen, was das Ding beim zocken so braucht. XD
Nein, das ist so nicht richtig. Die Position als auch der Blickwinkel der Spielerkamera war auch bereits vorher verfügbar und sind auch nicht die wichtigen Punkte für das Wasser gewesen, viele der Techniken gab es bereits unter DX6 und DX7. Mit DX6 wurde »Bump Mapping« (Normalmaps) sowie Multitexture eingeführt, ich weiß nicht, wann »animierte« Texturen unterstützt wurden, ob das DX5 oder so war.mibbio schrieb:Oder halt auch das im Artikel erwähnte Wasser in Morrowind, weil man dazu Position & Blickwinkel der Spielerkamera braucht.
Bereits für Bump Mapping hat man jedoch die Position als auch den Winkel der Spielerkamera benötigt um den Effekt passend darzustellen. Das Problem damals war dann eher, alles sehr »unflexible« auf die Objekte angewendet wurde. Wasserspiegelungen findet man aber bereits in Unreal 1, die Grundlage hier ist eben die Funktion mehre Texturen auf einem Objekt anzuwenden.
Mit DX8 wurden die Funktionen von Bump Mapping massiv aus gebaut, dazu eben dann die Vertex-Shader mit denen man nun auch besser die Oberflächen verformen konnte und darauf bauen auch die Wassereffekte in Morrowind auf. Die Wasserberfläche wird hier mithilfe der Normalmap sowie eben den Vertexshadern verformt. Die Spiegelungen sind aber weiterhin nur eine Textur, die mithilfe des Alpha-Kanals auf die Wassertextur aufgebracht wird.
Ergänzung ()
Wobei man T&L eine Vorstufe der Shader war.andi_sco schrieb:Texturen und T&L
ArkhCthuul
Cadet 2nd Year
- Registriert
- Sep. 2020
- Beiträge
- 27
Ach ja, als ich Mitte 2000 meinen ersten duron PC zusammenbauen ließ, gleichzeitig den vorletzten bei dem ich das noch völlig selbst gemacht habe, war meine gforce 2 gts noch top.
Dann kamen morrowind, die Radeon 8500 und ein Upgrade auf einen athlon 1200 schnell hintereinander, da meine Übertaktung den duron geröstet hatte...
Die 8500 war aber leider auch die einzige Grafikkarte die mir je während der Garantie gestorben ist, dank miesem Kühler und wärmer dachwohnung.
Würde dann zuerst durch eine gforce 4 4200 ti ersetzt, die suoeeise aber nicht so schnell wie erwartet war, und dann 2006 durch den letzten semi komplett PC durch eine x1900xtx.
Die hielt bis sie 2010 starb.
Dann kamen morrowind, die Radeon 8500 und ein Upgrade auf einen athlon 1200 schnell hintereinander, da meine Übertaktung den duron geröstet hatte...
Die 8500 war aber leider auch die einzige Grafikkarte die mir je während der Garantie gestorben ist, dank miesem Kühler und wärmer dachwohnung.
Würde dann zuerst durch eine gforce 4 4200 ti ersetzt, die suoeeise aber nicht so schnell wie erwartet war, und dann 2006 durch den letzten semi komplett PC durch eine x1900xtx.
Die hielt bis sie 2010 starb.
- Registriert
- Mai 2008
- Beiträge
- 5.611
Danke für die gute Erklärungmibbio schrieb:Vorher haben die GPUs halt mit einem relativ festen "Regelwerk" die Berechnungen abgearbeitet.
- Registriert
- Jan. 2018
- Beiträge
- 20.455
lejared schrieb:da dieser mit 15W sehr hoch ist
Die Geforce 1 dürfte mehr verbraucht haben.
Erst bei der 2. Version wurde durch die bessere Fertigung der Verbrauch gezügelt und der doppelt so hohe Takt möglich.
Christi
Fleet Admiral
- Registriert
- Dez. 2001
- Beiträge
- 11.492
hatte damals die geforce 3 gekauft und war nicht ganz zufrieden mit der leistung. brüderchens 8500 ati performte in irgend einem jedi shooter schon zum teil deutlich besser. hatte dann mir gleich ne 4400 ti von leadtek gekauft. die war schon deutlich flotter. als dann 2004 shader 2.0 in farcry der grafische knaller war hatte ich schon längst keinen gfrosch mehr im pc. man war die 5er reihe mies von nvidia...
lang ist es her
lang ist es her
noxon
Admiral
- Registriert
- Sep. 2004
- Beiträge
- 7.570
Sehr interessant ist auch Jensens Talk zu dem Thema. Spiegelt für mich genau das wieder, was Nvidia jetzt wieder mit den RTX Karten getan hat.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Zuletzt bearbeitet:
3faltigkeit
Lieutenant
- Registriert
- Jan. 2017
- Beiträge
- 909
Ich hatte damals eine GForce 3 Ti200 128MB. Und man sah das Wasser danals genial aus in Mirrowind. Das hatte ich eigentlich nur deshalb angeschafft... Ich weiß... Banause. Oblivion hatte mir dann eher zugesagt, nicht nur wegen der Grafik.
fox40phil
Vice Admiral
- Registriert
- Okt. 2008
- Beiträge
- 6.399
Das war doch die typische Fertig-Familien-PC Karte oder? Die war wirklich ne Gurke :S...5clowne schrieb:Hatte damals glaube ne Geforce 4 440MX dann irgendwann, die hatte dann keinen Pixelshader 3.0 oder so und konnte manche Games nicht wiedergeben... das war echt ärgerlich damals. Bei nem Kumpel mit ner Geforce 4 Ti ging das...
Ich bin damals mit der GF3 ti 200 in meinen ersten selbst zusammengestellten PC eingestiegen
Ich habe das Benchmark 2001SE geliebt
R4ID
Commodore
- Registriert
- Jan. 2008
- Beiträge
- 4.795
Ich fand der Wechsel zu DX9 war noch ne ganze Ecke extremer was die Optik angeht.
Half Life 2 war damals z.B. der Grund meine PS2 zu verkaufen und das hart zusammengesparte Taschengeld in eine 9800 Pro zu investieren damit auch alles schön in höchsten Settings läuft......man war ich happy als kleiner Junge
Heutzutage kauft man sich ne dicke Grafikkarte und freut sich auch darüber aber nicht so wie es früher mal war, kennt ihr das ?
Vieles ist heute einfach Standard und nix besonderes mehr.
Half Life 2 war damals z.B. der Grund meine PS2 zu verkaufen und das hart zusammengesparte Taschengeld in eine 9800 Pro zu investieren damit auch alles schön in höchsten Settings läuft......man war ich happy als kleiner Junge
Heutzutage kauft man sich ne dicke Grafikkarte und freut sich auch darüber aber nicht so wie es früher mal war, kennt ihr das ?
Vieles ist heute einfach Standard und nix besonderes mehr.
Man war das ne Zeit. Bin zwar erst mit DX9 zum "richtiger Zocker" geworden (weil ich vorher nur so selten am PC durfte
), erinnere mich aber trotzdem gerne zurück.

Bei so etwas wäre ein Bildchen nicht schlecht gewesen. Da würde man noch besser "zurückgeholt werden".SV3N schrieb:bis dahin ungesehene Effekte in Spielen.
Piranha771
Lt. Junior Grade
- Registriert
- Mai 2015
- Beiträge
- 441
Redirion schrieb:ich war damals noch mit der Geforce2MX400 unterwegsStattliche 293MHz GPU-Takt hatte ich mit Übertaktung rausholen können.
Laut Wikipedia ist DX 8.0 allerdings erst am 12. November veröffentlicht worden. War das am 9. schon der richtige Termin oder ist CB 3 Tage zu früh mit der News dran?
Die hatte ich auch damals und irgend so ein Übertaktungstool. Ich hatte keine Ahnung was ich da tue und hab so ein Bratenthermometer von meiner Mutter genommen und an den Kühler gepackt, weil ich so Schiss hatte ihren PC zu schrotten
- Registriert
- Jan. 2018
- Beiträge
- 20.455
.Sentinel. schrieb:...und feste und unflexible getrennte Einheiten für Vertex und Pixel Shader .
Das war T&L
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.666
Ich meinte das Hardware bzw. die GPU Blöcke bezogen. Nicht auf das Feature an sich bzw. den Effekt der sich daraus ergibt..andi_sco schrieb:Das war T&L![]()
Denn grob gesehen machen jetzt einfach die universellen Shader das T&L. Aber stimmt- Ich seh grad.
Geht ja um das Thema DX.
Habe mich von den Vorgängerkommentaren ablenken lassen...
Zuletzt bearbeitet:
Hayda Ministral
Banned
- Registriert
- Nov. 2017
- Beiträge
- 7.835
Ich bin mir nicht mehr ganz sicher, glaube aber mich zu erinnern das mit DX8 auch die ersten zaghaften Experimente hin zur Beschleunigung von Effekten beim Videoschnitt aufkamen. Ich war da mit einer DV-Kamera und Firewire-Karte unterwegs, konnte aber von den Schnittprogrammen und der Hardware die sie zum Frühstück fraßen nur träumen.
UrlaubMitStalin
Lt. Commander
- Registriert
- März 2011
- Beiträge
- 2.002
Für mich war DX9 eigentlich ein viel größerer Meilenstein.... 5, 9, 11 und 12
T
Teralios
Gast
Was daran lag, dass die »Pipeline« unter DX8 noch relativ »unflexibel« war und man hier noch weitgehend in den Ausführungsschritten gefangen war.R4ID schrieb:Ich fand der Wechsel zu DX9 war noch ne ganze Ecke extremer was die Optik angeht.
Erst DX9 hat dann zum Beispiel »Multiple Render Targets« eingeführt, ebenso, dass man in den Vertex-Shadern auf Texturen zugreifen kann, was es dann ermögliche aus den bis dahin doch linearen Ablauf des Rendering auszubrechen.
UrlaubMitStalin
Lt. Commander
- Registriert
- März 2011
- Beiträge
- 2.002
Ja, ich erinnere mich dunkel... hab sogar mal nen Shader dafür geschrieben im StudiumTeralios schrieb:Was daran lag, dass die »Pipeline« unter DX8 noch relativ »unflexibel« war und man hier noch weitgehend in den Ausführungsschritten gefangen war.
Erst DX9 hat dann zum Beispiel »Multiple Render Targets« eingeführt, ebenso, dass man in den Vertex-Shadern auf Texturen zugreifen kann, was es dann ermögliche aus den bis dahin doch linearen Ablauf des Rendering auszubrechen.
(nix wildes, war nur ne Übungsaufgabe)