@John Williams:
bitte lies wirklich mal einiges nach und informier dich, bevor du hier so einen blödsinn postest...
CineFX beherrscht natürlich KEINE Shader 3.0, die 32bit waren auch kein Versuch, sondern schlicht und einfach nur eine taktische Fehlentscheidung, für die sich nVidia heute nur mehr in den Hintern beisst. 32bit ist auch wirklich der allerunwichtigste Teil der Shader 3.0 - lies dir bitte einmal die Spezifikationen durch (im Dx9.0 SDK, downzuloaden von
www.microsoft.com), von den wichtigen Veränderungen ist noch keine einzige implementiert. Ist auch kein Wunder, weil die 3.0-Shader-Spezifikation teilweise Dinge verlangt, die die Performance deutlich bremsen müssen (branching, texture access im VS etc.) - dementsprechend wurde auch schon von ATI wie auch von nVidia angekündigt, dass die angegebene Performance NICHT für 3.0-Shader gilt. Nützt man solche Features, wird alles deutlich langsamer. Was heissen wird, dass 3.0-Shader von Spielen sicher nicht vor der übernächsten Generation an Grafikkarten genützt werden. (Ähnliches hast du jetzt schon - wenn du z.B. den Depth Buffer beschreibst, was laut Spezifikationen möglich sein muss, dann sinkt die Framerate deutlich, da der Early-Z-Test einfach abgeschaltet wird. Geht ja auch nicht anders, man kann ja nicht einen wert testen, der noch nicht feststeht ....)
Alle OpenGL-Anwendungen laufen auf FX-Karten wesentlich besser? Glaub mir, ich entwickle unter OpenGL und die FX-Karten sind KEINESFALLS schneller - bin vor über einem halben Jahr endgültig auf ATI umgestiegen (hab mich zuerst vom grösseren Funktionsumfang der FX-Karten blenden lassen), weil die Performance bei der FX-Reihe einfach inakzeptabel ist. Und ich rede hier nicht von 5 oder 10%, sondern davon, dass die 9800Pro (die ganz normale!) der FX5950 in unseren speziellen Anwendungen teilweise um DAS DOPPELTE davonzieht.
Ach ja, und bei der Spezifikation von DirectX9 gab es keine langen Verhandlungen, sondern man hat damals schlicht und einfach bei den Herstellern angefragt, wer seine Shader schon spezifiziert hatte, und nachdem nVidia bei weitem noch nicht so weit war, hat man auf Basis der damaligen ATI-Architektur die ersten Shaderoptimierungen in DirectX9 vorgenommen. Das ist für den kleinen Vorteil unter DirectX verantwortlich, den ATI hat. nVidia war aber dementsprechend nicht vor ATI, sondern zu der Zeit schon um einiges hinterher, da man die 2.0er-Spezifikationen einfach nicht rechtzeitig für den Start von DirectX9 liefern konnte.