aths schrieb:
Schlecht ist es für die Transparenz auf dem Markt. Mit dem guten Ergebnis in Doom3 steht NV40 zu gut dar. Würde der Treiber das tun, was ihm aufgetragen wurde, wäre der Abstand zum R420 deutlich geringer.
in diesem markt wird es nie die transparenz geben von der du sprichst, denn jede gpu (zumindest die zwischen nvidia und ati) unterscheidet sich von der architektur her total.
nur mal ein paar beispiele:
1. die höhere artihmetische pixelshader leistung der 6800 serie gegenüber der x800 serie
2. höhere early-z leistung der ati reihe gegenüber nv, soll bei doom keinen vorteil bringen
3. uktrashadow
das sind nur mal ein paar schlagworte in denen sich die grafikchips unterscheiden. wäre ich eine profi, würde ich bestimmt seiten füllen können.
da auch jedes spiel anders programmiert ist und eine andere engine verwendet, fallen eben die architektonischen unterschiede auch differenziert auf benchmarks aus und ergeben daraus für die jeweiligen treiber entwickler gute möglichkeiten noch das eine oder andere fps raus zu holen. d.h. eine objektive vergleichsmöglichkeit ist von vorn herein überhaupt nicht gegeben. da sich a) die hardware grundlegend unterscheidet und b) der programmcode des jeweiligen spieles total unterschiedlich ist. vor allem erst recht nicht, wenn viele spiele von konkurrierenden grafikkartenherstellen für das marketing eingespannt werden. powered by nvidia, powered by ati bla...
wenn jetzt aber ein hersteller hergeht, und seine chips auf bestimmte spiele ohne qualitätseinbusen anpasst, ist das in meinen augen absolut leigtim und ändert oder verfälscht benchmarks in keinster weise. wenn der andere hersteller zu faul oder einfach nicht in der lage ist das gleiche zu tun, ist das deren pech!
nehmen wir mal die aktuellen cb benchmarks, dort schneiden die nv-karten sehr gut ab! und im performance rating wird das erst recht deutlich. ich will damit sagen, dass nv nicht nur beim "optimierten" doom punkten kann, sondern auch in vielen anderen benchmarks gut abschneidet. und sorry ich muss es nochmals los werden, mich interessieren optimierungen nicht wenn das bild einer z.b. 6800gt genau gleich ausschaut wie auf einer x800xt! aber mich interessiert, wenn trotz gleicher bildqualität das spiel 20% an leistung gewinnt! denn das zeugt von guter arbeit
aths schrieb:
Wer verliert ist der, der nicht so die Top-Titel spielt. Bei endlichen Ressourcen für die Treiber-"Optimierungen" wird dann z. B. Doom besonders gepflegt. Das Nachsehen haben zwangsläufig andere Spiele.
jo, das mag sein, aber jeder kann auf tonnenweise benchmarks von testseiten zurückgreifen und sich ein bild von der lage machen. zumal auch wirklich
nur die toptiel nach einer highend grafikkarte schreien! wer keine toptitel spielen will, hat mit einer 9800pro oder 5900xt genau den gleichen spielspass!
vielleicht wird ja als nächstes halflife optimiert oder sonst was. ich denke auch, dass halflife genau das gegenteil von doom3 und grafikkartenhersteller optimierungen wird und ati da genau das gleiche macht wie eben nv bei doom

wichtig ist in solchen fällen immer, dass man die grafikkarten auf eine komplette engine hin optimiert, denn doom3 oder halflife werden nicht die einzigen spiele bleiben, die in naher zukunft diese engines verwenden! somit wächst durch eine einzige optimierung die anzahl von spielen gewaltig, die davon profitieren. die frage ist, ob in zukunft mehr spiele mit lizenzierter doom3 engine oder mit lizenzierter hl2 engine auf den markt kommen.