Original erstellt von GRAKA0815
Diejenigen welche Kohle dafür bekommen werden! Und NV wird auch Kohle für solche Entwicklungen zahlen, da bin ich mir 100%ig sicher. Zudem hatten wir das ja auch zu Voodoo-Zeiten. Da mußten die Games auch eine zusätzlich Glide API haben!
Stimmt. Wobei man auch bedenken sollte, ob die Spielehersteller nicht auch die Arbeit zu nVidia "schieben" werden und nVidia selbst die Shader auf ihre Hardware "umkonvertieren" muss. Das wird sich in nächster Zeit zeigen. Denn Valve war nicht gerade erfreut darüber, einen qualitativ mindertwertigeren, aber dafür schnelleren Modus für die FX-Karten miteinzubauen...
Original erstellt von TheCounter
Die mit ihrer 5x längeren Optimierungszeit, aber es war wohl eher 5x weniger, denn von den 3128 Shadern (Gezählt vom Source) sind maximal 8 Stück reine PS2.0 Shader. Die anderen hätte man auch auf PS1.1 bzw. PS1.4 Basis machen können, ohne das man einen Unterschied sieht. 3120 "überflüssige" Shader.. ohne die würde wohl die FX in HL2 enorm an Speed gewinnen.
Nun, WENN man schon eine DX9-Karte anbietet, die DX9 unterstützt, warum dieses also nicht gleich unterstützen? Ich mein: nVidia hat nicht erwartet, dass DX9-Hardware so schnell unterstützt werden würde, denn wie du schon sagst, viel wäre auch mit PS1.1, 1.3 oder 1.4 (naja...

Dat wär kaum besser gewesen

) möglich, ohne groß die Qualität zu vermindern. Aber: Es gibt nun eben schon die Hardware und jeder R9700 Pro Käufer von anno Spetember 2002 würde sich verarscht vorkommen, wenn 1 1/2 Jahre später immer noch keine DX9-Anwendungen Gebrauch von der Hardware machen würden. Man kann sagen, dass wäre denen ihr Problem, wie schon die GF3 für reine DX8-Anwendungen überflüssig ist... Nur damals gab es keine direkte Konkurrenz, die auf DX8 gesetzt hat, nun bietet man aber in ALLEN Bereichen DX9-Hardware an (ATI nicht!), dann muss man wohl auch damit rechnen, dass DX9-Shader in jetzt schon erhältlichen und wohl auch in naher Zukunft erscheinenden Spielen genutzt werden. Einen "Dummen" gibt es eben, entweder den User, der sich ne DX9-Karte kauft, die aber nie sinnvoll DX9-tauglich sein wird oder eben denjenigen, der sich ne DX9-Karte kauft, die aber eine andere Konzeption besitzt und somit "Probleme" bekommt, wenn die Software nicht so konzipiert worden ist, dass sie einwandfrei läuft. Im Grunde genommen hat sich aber das durchgesetzt, was es als erstes gab, man hat nicht auf nVidia gewartet, frei nach dem Motto: Wer zu erst kommt, malt zu erst! Klar: Eine FX5200 und auch alles unterhalb einer R9500 Pro ist EIGENTLICH für DX9 zu schwach und jeder weiß, dass hier das Marketing eine große Rolle spielt. Aber man muss eben damit rechnen, dass wenn man die Hardwaregrundlage anbietet, dass diese wohl auch über kurz oder lang genutzt werden wird. ATI hat natürlich alles daran gesetzt, den technologischen Vorsprung, den sie mit dem R300 hatten, auszunutzen, aber kann man ihnen wirklich einen Vorwurf machen, den Vorsprung auszunutzen?
Zumal die Abwärtskompatibilität gewährleistet ist, wer mehr Performance WILL, der greift auch bei den dicken Radeons zu DX8 und verzichtet auf DX9. Jedenfalls wird dies am Anfang möglich sein, PS2.0-Effekte auszulassen, um die Performance zu erhöhen. Allerdings ist es eben derzeit so, dass die Radeons mit der standardtisierten DX9-Form (die derzeit erhältlich ist und an den sich die meisten richten, weil die DX9-Konkurrenz aus dem Hause nVidia auf einen anderen Weg mehr wert gelegt hat) sehr gut klarkommen, welche "Gründe" dies auch haben mag

...
FAZIT: Man kann es drehen und wenden wie man will, Fakt bleibt doch, dass nVidia sich auf einmal mit der Konkurrenz beschäftigen muss, wenn sie es nicht schaffen, eigene Wege allein durchzusetzen! Schon 3Dfx musste feststellen, dass die an und für sich coole Glide-API nicht massentauglich wurde, das gleiche gilt derzeit für nVidias cg oder deren "Shader-Vorstellungen". Klar: Sie stehen anders da und sind kaum mit 3Dfx zu vergleichen. Aber: SIE müssen wohl oder übel einsehen, dass die Konkurrenz früher mit DX9-Technologie auf dem Markt war (was ja nicht so das Problem ist

) und dass es marketingtechnisch SEHR wichtig ist, auch in diesem Bereich weiter mit der Konkurrenz mitzuhalten (was nVidia ja auch eingesehen hat, der DX9-Wahn ist nicht mehr aufzuhalten, zu mal die eigenen Produkte mit der kompromisslosen DX9-Tauglichkeit beworben werden!). In solchen Fragen gibt es immer einen Verlierer und einen Gewinner, auch wenn beide Hardwaretechniken interessant sind, so wird sich meist doch nur eine bestimmte Technologie durchsetzen. Das natürlich nVidia nicht "geschlagen" ist, sollte klar sein: Sie können immer noch alles drehen und wenden und mit der "DX9-Euphorie" mitschwimmen bzw. Marketing betreiben (es müssen nur in nächster Zeit Anwendungen erscheinen, die auf nVidias DX9-Basis "besser" laufen, als auf den Radeons!), aber eine Situation, wie 2001, wo sind allein diktieren konnten, was sich wie, warum und wann durchsetzt, ist nicht mehr der Fall. Ob diese "Hardware-Bevorzugung" sinnvoll ist oder nicht, mag ich nicht bewerten, aber derzeit ist man von einer einheitlichen Shader-Durchsetzung noch ein ganzes Stück weit entfernt.