@carsten
"ohne TnL-Karte würde ich mal pauschal 300MHz extra für die CPU veranschlagen."
Wieviel Arbeit die CPU mehr machen muss hängt von sehr vielen Faktoren ab, so dass eine pauschale Angabe absolut unpassend ist. Wenn jemand mit Graka ohne T&L spielt und einen 300Mhz-Prozessor hat, heißt dass dann das man mit T&L-Graka und 0 MHz-Prozessor die gleiche Leistung erzielt ? Oder erzielt man die gleiche Leistungssteigerung, wenn man einen Athlon und einen P4 um 300Mhz beschleunigt ? Intel würde sich darüber wohl freuen, aber der Realität entspricht dass dann trotzdem nicht. Außerdem sind die Leistungsunterschiede bei bisher bekannten Benchmarks von UT2003 zwischen Kyro (ohne T&L) und GF4 fast ausschließlich auf die höhere Taktung zurückzuführen. Denn der Leistungsunterschied ist nicht größer als bei Spielen, die kaum/garkein T&L benutzen.
"Ich begrüße es ausdrücklich, daß UT2k3 kein 16Bit mehr unterstützt und hoffe, daß es ein großer Erfolg sein wird. Dadurch kauften sich endlich auch mal die Ewig-Gestrigen eine moderene Grafikkarte, so daß endlich auch anständige Effekte, wie z.B. Bump-Mapping in den Mainstream Einzug halten können und nicht mehr von der Rentabilitätsangst der Publisher gebremst werden!
Man stelle sich mal vor, wenn bei 95% der Gamer eine Karte der GF2-Klasse angenommen werden könnte, was da an Grafikpracht auf uns zukäme! "
Noch so ein schlaues Zitat. Ich würde gerne mal die Grafikpracht einer GF2-Karte bei 1024x768x32 sehen. Mehr als 20-30 frames wirst du da nicht bekommen. Bei 16Bit hättest du dagegen keine berauschende Framerate, aber wenigstens eine spielbare. Außerdem hat nicht jeder Lust sich alle 1,5 Jahre eine Grafikkarte für 500DM+ zu kaufen. Denn um UT2003 flüssig bei 1024x768x32 spielen zu können ist min. eine Radeon8500 / GF3 nötig, die kaum für weniger zu haben ist. Bei 16Bit würden auch GF2 / Radeon7500 reichen. Also warum lässt man den 16Bit-Mode weg ?