Ich denke, daß es in diesem Falle eindeutig mit der programmierung von 3dmark2001 zusammenhängt. ich hab folgendes auch schon in einer mail an madonion geschrieben, aber bis jetzt leider noch keine Antwort erhalten:
Auch bei mir ist es so, daß *nur* der Nature-Test im Software-Modus schneller läuft, als mit "pure HW". etwa 24 zu 32 fps.
so weit so gut. Es drängt sich hier aber die frage auf, inwieweit in diesem Falle der Software-Modus wirklich ein reiner Software-Modus ist. Wenn, wie der Name suggeriert, die Berechnungen sowohl der Pixel- als auch der Vertexshader-Effekte komplett von der CPU ausgeführt werden, müßte dieser Test doch auch auf anderen Grakas im software-modus anwählbar sein, da ja die Graka nur noch einen geringen einfluß auf das letztendliche Bild hat, oder?
Nun, dem ist bekanntlich nicht so.
Wer diese Effekte im Software-Modus sehen möchte, muß sich derzeit in Ermangelung einer GF3 auf die mitgelieferte Demo des 3DMark beschränken, in welchem es offensichtlich möglich ist, die Effekte der Nature-Sequenz zu simulieren. Diese Demosequenz ist mitnichten vorgerendert, sondern wird in echtzeit berechnet. Das ist einfach nachzuprüfen, indem man mal die geschätzten 10fps in 640x480x16bit mit den weitaus niedrigeren Werten in höheren Auflösungen und Farbtiefen vergleicht. Dies kann mittels Fraps, einem Framecounter für directX geschehen.
Es ist weiterhin so, daß unter Einsatz einer GF2 Graka der Nature-Test nicht absolviert werden kann, genausowenig, wie der Einzelfunktionstest "Pixel-Shader". Wohl aber wird der Einzelfunktionstest "Vertex-Shader" von der CPU emuliert, mit durchaus beachtlichen Resultaten.
Meine Folgerung daraus:
1.) Kann die CPU Pixel-Shader gar nicht, oder zumindest nicht so simulieren, daß es sinnvoll wäre, diesen Wert mit in den Benchmark zu integrieren.
2.) Da optisch kein Unterschied zwischen der GF3 pure HW und dem Software-modus zu bestehen scheint, werden gewisse Effekte wohl dennoch eingesetzt.
3.) Im Software-Modus wird der Vertex-Shader von der CPU simuliert, mit beträchtlichem Erfolg. Der Pixelshader hingegen wird weiterhin von der GF3 berechnet. Da die sog. Nfinfite FX Engine nun nicht mehr voll ausgelastet ist, ist mehr Rechenzeit und/oder Bandbreite für den Pixelshader freigeworden.
Zusammen mit den CPU-emulierten Vertex-Shadern ergibt das eine sehr brauchbare Kombination und ist offenbar leistungsfähiger, als nur die GF3 alleine. Es findet offenbar eine Art Load-Balancing statt, wie es auch einige professionelle OpenGL-Karten bieten. Prinziepiell eine gute sache, oder?
jeder macht das, was er am besten kann und hilft dem anderen..
Leider kann ich das ganze nicht belegen, aber ich bin der festen Überzeugung, daß es so oder ähnlich sein muß, da mit meiner GF2 z.B., die ja definitv nicht über eine DX8 Einheit verfügt, die Nature-Sequenz im Demo in der Standard-Benchmark einstellung (1024x32bit usw) nicht unbeträchtlich geruckelt hat, was ja bei über 30fps nicht merh so stark auffallen sollte, oder?
Quasar
P.S.: @graka0815, erinnerst du dich, worüber wir uns im bezug auf synthetische Benches einig waren? man kann so gut wie *alles* beweisen....