Bestätigt Nvidia Cheatet bei Doom3 !

aths schrieb:
Ich nicht. Wenn Doom3 das Potenzial der Hardware nicht ausschöpft, ist es Aufgabe des Spiele-Entwicklers, nachzubessern. Weigert dieser sich, muss man das Spiel boykottieren, oder man lebt mit der schlechteren Performance, oder man rüstet auf. Wozu hat NV den so tollen Dev-Support, wenn die eigentliche Optimierung im Treiber stattfindet, in dem alternative Codesequenzen ausgeführt werden? Jetzt muss ATI nachziehen. Was ist das dann, was letztenendes in Doom3 gebencht wird?
Ja, so hab ich das noch nicht direkt gesehen. Da muss ich dir recht geben! :o
 
aths schrieb:
Schlecht ist es für die Transparenz auf dem Markt. Mit dem guten Ergebnis in Doom3 steht NV40 zu gut dar. Würde der Treiber das tun, was ihm aufgetragen wurde, wäre der Abstand zum R420 deutlich geringer.
in diesem markt wird es nie die transparenz geben von der du sprichst, denn jede gpu (zumindest die zwischen nvidia und ati) unterscheidet sich von der architektur her total.

nur mal ein paar beispiele:
1. die höhere artihmetische pixelshader leistung der 6800 serie gegenüber der x800 serie
2. höhere early-z leistung der ati reihe gegenüber nv, soll bei doom keinen vorteil bringen
3. uktrashadow
das sind nur mal ein paar schlagworte in denen sich die grafikchips unterscheiden. wäre ich eine profi, würde ich bestimmt seiten füllen können.

da auch jedes spiel anders programmiert ist und eine andere engine verwendet, fallen eben die architektonischen unterschiede auch differenziert auf benchmarks aus und ergeben daraus für die jeweiligen treiber entwickler gute möglichkeiten noch das eine oder andere fps raus zu holen. d.h. eine objektive vergleichsmöglichkeit ist von vorn herein überhaupt nicht gegeben. da sich a) die hardware grundlegend unterscheidet und b) der programmcode des jeweiligen spieles total unterschiedlich ist. vor allem erst recht nicht, wenn viele spiele von konkurrierenden grafikkartenherstellen für das marketing eingespannt werden. powered by nvidia, powered by ati bla...

wenn jetzt aber ein hersteller hergeht, und seine chips auf bestimmte spiele ohne qualitätseinbusen anpasst, ist das in meinen augen absolut leigtim und ändert oder verfälscht benchmarks in keinster weise. wenn der andere hersteller zu faul oder einfach nicht in der lage ist das gleiche zu tun, ist das deren pech!
nehmen wir mal die aktuellen cb benchmarks, dort schneiden die nv-karten sehr gut ab! und im performance rating wird das erst recht deutlich. ich will damit sagen, dass nv nicht nur beim "optimierten" doom punkten kann, sondern auch in vielen anderen benchmarks gut abschneidet. und sorry ich muss es nochmals los werden, mich interessieren optimierungen nicht wenn das bild einer z.b. 6800gt genau gleich ausschaut wie auf einer x800xt! aber mich interessiert, wenn trotz gleicher bildqualität das spiel 20% an leistung gewinnt! denn das zeugt von guter arbeit
aths schrieb:
Wer verliert ist der, der nicht so die Top-Titel spielt. Bei endlichen Ressourcen für die Treiber-"Optimierungen" wird dann z. B. Doom besonders gepflegt. Das Nachsehen haben zwangsläufig andere Spiele.
jo, das mag sein, aber jeder kann auf tonnenweise benchmarks von testseiten zurückgreifen und sich ein bild von der lage machen. zumal auch wirklich nur die toptiel nach einer highend grafikkarte schreien! wer keine toptitel spielen will, hat mit einer 9800pro oder 5900xt genau den gleichen spielspass!

vielleicht wird ja als nächstes halflife optimiert oder sonst was. ich denke auch, dass halflife genau das gegenteil von doom3 und grafikkartenhersteller optimierungen wird und ati da genau das gleiche macht wie eben nv bei doom ;) wichtig ist in solchen fällen immer, dass man die grafikkarten auf eine komplette engine hin optimiert, denn doom3 oder halflife werden nicht die einzigen spiele bleiben, die in naher zukunft diese engines verwenden! somit wächst durch eine einzige optimierung die anzahl von spielen gewaltig, die davon profitieren. die frage ist, ob in zukunft mehr spiele mit lizenzierter doom3 engine oder mit lizenzierter hl2 engine auf den markt kommen.
 
Zuletzt bearbeitet:
zu 1.) wird durch den X800XT_PE durch den Takt imo einigermaßen kompensiert.
zu 2.) vielleicht - keine Ahnung
zu 3.) Ultrashadow - hört sich zwar echt gut an - bringt aber wenig (s. Test auf CB).
 
Zudem hat jeder Grafikkartenproduzent auch eine Anleitung dazu, wie man das Spiel speziell auf die Grafikkarte einstellen kann. Wenn man sich mal auf der NV Homepage genauer umsieht, findet man die ganz schnell. Ich nehme mal an, das ATI auch so was hat und in dem Fall wurde halt auf nVidia karten eingetellt.
 
also das ist für mich nichts neues das ganze wurde schon zu der zeit als die gemoddeten ati-graka-treiber für d3 rauskamen irgendwo genauestens erklärt.

das ding ist dass nvidia hardwaremäßig eigentlich den ati's unterlegen wäre auf vergleichbaren karten. alleine schon die taktraten. da aber nvidia eine andere struktur nutzt kann hardwaremäßig "gecheatet" werden.

bei doom3 speziell und q3a bedingt werden die frames mehrfach berechnet. d.h. man hat 50 fps per second, und es werden 100 bzw 150 bilder pro sekunde berechnet. das mehrfachberechnen hat den sinn und zweck keine grafikfehler darzustellen, bzw diese äußerst gering zu halten. nimmt man nun die 150 bilder zur hand, und stellt sich vor zu jedem bild werden massig viele dreiecke im verhältnis zueinander berechnet, kann man sich in etwa vorstellen dass da ne verdammt große anzahl an dreiecksberechnungen in der sekunde abläuft.
die nvidia karten setzen genau dort ihre leistungssteigerung an: (schatten-)effekte, playermodels, blutspritzer etc "verdecken" teile des bildschirms. man sieht zB nicht mehr die ganze wand wenn zB ein playermodel davorsteht. also muss man die wand in dem moment nicht mehr ganz genau berechnen, kann also 2 bilder von 1 frame (3 bilder) [bzw 1 bild von 1 frame (2 bilder)] sparen.
das ergibt unterm strich wenn man mal weiterrechnet ne dicka anzahl an dreiecken die man nicht berechnen muß. d.h. weniger leistung + weniger rechenarbeit = mehr fps



als cheat würde ich es nicht bezeichnen. solange die grafikqualität dadurch nicht sichtbar gemindert wird ist es doch ok.

bin aber mit meiner 9800pro vollstens zufrieden :)


kenne mich mit den ganzen englischen fachwörtern nicht übermäßig aus. habe den artikel auf englisch gelesen und ihn mir auch nochmal vom fachmann persönlich erklären lassen. veranschaulicht kann man es so sagen. in d3 wird über das bumpmapping eine menge gemacht. und daran kann man wie gesagt im dunkeln und im nicht sichtbaren bereich "sparen".
 
Zuletzt bearbeitet:
guillome schrieb:
in diesem markt wird es nie die transparenz geben von der du sprichst, denn jede gpu (zumindest die zwischen nvidia und ati) unterscheidet sich von der architektur her total.
Der NV40 ist für Doom3 besser geeignet, als R420. NV reichte das offenbar nicht. NV40/NV43 wird als "The Doom 3 GPU" vermarktet. Welchen Anteil hat die GPU tatsächlich? Was ist auf die, äh, "Optimierungen" zurückzuführen? Der Markt wäre zumindest transparenter, wenn NV40 wie die Konkurrenz mit gleichen Waffen antreten würde.

guillome schrieb:
wenn jetzt aber ein hersteller hergeht, und seine chips auf bestimmte spiele ohne qualitätseinbusen anpasst, ist das in meinen augen absolut leigtim und ändert oder verfälscht benchmarks in keinster weise. wenn der andere hersteller zu faul oder einfach nicht in der lage ist das gleiche zu tun, ist das deren pech!
Imo ist das zu "egozentrisch" gedacht. Mir als FX 5900-Besitzer bringen Nvidias Bemühungen direkt was: Das Spiel wird schneller. Doch welcher Anteil der Leistung geht auf die Hardware zurück, welcher auf Treiber-"Optimierungen"? Doom3-Benches verzerren das Bild, was die Hardware tatsächlich zu leisten imstande ist. Hätte NV kein Shaderreplacement betrieben, wäre wahrscheinlich der NV30-Pfad noch drin. Dann könnte man aus der Doom3-Installation die unterschiedlichen Shader auslesen, und direkt vergleichen, was anders ist. So wie es jetzt ist bleibt im Dunkeln, welche Shader NV3x tatsächlich ausführt. Gleiches gilt für NV40.

Offenbar hat JC den ARB2-"Hauptpfad", der für die Beleuchtung zuständig ist, nicht situationsabhängig optimiert. In diesem Pfad kann man Diffuse Mapping, Bump Mapping und Specular Lighting situationsabhängig aktivieren – doch durchgerechnet wird grundsätzlich alles. Die Vermutung, dass Nvidia da treiberseitig kürzere Alternativshader auswählt, ist zumindest nicht auszuschließen. Sollte es so sein, "muss" ATI nachziehen.

Anstatt dass das Spiel gleich vernünftig optimiert erscheint (oder die Optimierung per Patch nachgereicht wird) wenden erst NV, dann ATI, etliche Arbeitsstunden auf um das zu fixen. Effizient ist das nicht.

guillome schrieb:
und sorry ich muss es nochmals los werden, mich interessieren optimierungen nicht wenn das bild einer z.b. 6800gt genau gleich ausschaut wie auf einer x800xt! aber mich interessiert, wenn trotz gleicher bildqualität das spiel 20% an leistung gewinnt! denn das zeugt von guter arbeit
Wenn man einen Benchmark schreiben würde, um auf der CPU die Zahl Pi auf 10000 Stellen zu berechnen, und ein neuer Chipsatztreiber würde einfach das vorberechnete Ergebnis ausgeben, wäre das dann ok? Doom3 wurde von NV optimiert, damit NV die Benchmarks gewinnt. Dabei geht es nicht nur darum, den gleichen Output zu erzeugen, sondern alles zu berechnen, was zum Ziel notwendig ist, ohne vorberechnete Dinge zu verwenden.

guillome schrieb:
jo, das mag sein, aber jeder kann auf tonnenweise benchmarks von testseiten zurückgreifen und sich ein bild von der lage machen. zumal auch wirklich nur die toptiel nach einer highend grafikkarte schreien! wer keine toptitel spielen will, hat mit einer 9800pro oder 5900xt genau den gleichen spielspass!
... während bei Doom3 die NV-"Optimierungen" den Unterschied zwischen Spielspaß und kein Spielspaß machen?
 
Zuletzt bearbeitet:
h3@d1355_h0r53 schrieb:
bei doom3 speziell und q3a bedingt werden die frames mehrfach berechnet. d.h. man hat 50 fps per second, und es werden 100 bzw 150 bilder pro sekunde berechnet.
Da wird nichts mehrfach berechnet.
 
aths schrieb:
Der Markt wäre zumindest transparenter, wenn NV40 wie die Konkurrenz mit gleichen Waffen antreten würde.
genau das halte ich für ein gerücht. ati versucht durch optimieren ebenfalls ein plus an leistung raus zu holen. aber bei d3 ist das aufgrund hardwaretechnischer und softwaretechnischer hindernisse wohl etwas schwerer, denn wenn man ohne qualitätseinbusen einen treiber mit 20% mehr frames entwickeln könnte, hätte ati diesen schon längst released!
aths schrieb:
Anstatt dass das Spiel gleich vernünftig optimiert erscheint (oder die Optimierung per Patch nachgereicht wird) wenden erst NV, dann ATI, etliche Arbeitsstunden auf um das zu fixen. Effizient ist das nicht.
ich glaube kaum, dass ein spielehersteller an solch mega zeitaufwändigen prozedere interesse hat. alleine schon aus finanziellen gründen ist es fast nicht realisierbar mehrere stunden in ein "gerecht, optimal programmiertes" spiel zu investieren. in zeiten von marketing ala powered by XXX erst recht nicht.
aths schrieb:
Wenn man einen Benchmark schreiben würde, um auf der CPU die Zahl Pi auf 10000 Stellen zu berechnen, und ein neuer Chipsatztreiber würde einfach das vorberechnete Ergebnis ausgeben, wäre das dann ok? Doom3 wurde von NV optimiert, damit NV die Benchmarks gewinnt. Dabei geht es nicht nur darum, den gleichen Output zu erzeugen, sondern alles zu berechnen, was zum Ziel notwendig ist, ohne vorberechnete Dinge zu verwenden.
ich denke nicht, das dieses beispiel mit dem aktuellen optimierungsfall anwendbar ist. denn in deinem beispiel wird ja nichts mehr berechnet, sondern einfach nur das ergebnis ausgegeben! wäre dies so, müsste das spiel d3 im voll gerenderten ergebnis ähnlich wie ein movie vorhanden sein (wenn man von der einfachen ausgabe eines vorberechneten ergebnis spricht). dies ist aber nicht der fall, es ist viel mehr so, dass man einfach total unötige schritte für die berechnungen weglässt oder versteckt um auf ein besseres ergebnis zu kommen. genau das verstehe ich im falle d3 und nv unter optimierungen.
wichtig ist, was im endeffekt an brauchbrarer leistung bei der sache rauskommt und das sind 20% in diesem fall. der spieler kann also ohne das das spiel ein fünkchen schlechter aussieht als auf einem r420 um 20% schneller spielen! ob nun die 20% durch eine bessere hardware oder durch einen einfach intelligenteren treiber resultiert, ist mir im endeffekt egal. denn ich als anwender habe ja keinen nachteil, sondern nur einen vorteil und der ist halt mal 20% groß und das ändert sicherlich am spielspass nichts!

ich glaube, dass das ganze zu dramatisch gesehen wird. wir sollten eigentlich alle froh sein, dass wir leistung gratis bekommen ohne gleichzeitige qualitative einbußen (welche es durch optimierungen auch schon gab). jetzt profitiert gerade nv von doom, und morgen ist es ati bei halflife2. und genau so wird es weiter gehen! :p
 
Zuletzt bearbeitet:
guillome schrieb:
genau das halte ich für ein gerücht. ati versucht durch optimieren ebenfalls ein plus an leistung raus zu holen. aber bei d3 ist das aufgrund hardwaretechnischer und softwaretechnischer hindernisse wohl etwas schwerer, denn wenn man ohne qualitätseinbusen einen treiber mit 20% mehr frames entwickeln könnte, hätte ati diesen schon längst released!
Nvidia hatte Monate Zeit, um zu "optimieren".

guillome schrieb:
ich glaube kaum, dass ein spielehersteller an solch mega zeitaufwändigen prozedere interesse hat. alleine schon aus finanziellen gründen ist es fast nicht realisierbar mehrere stunden in ein "gerecht, optimal programmiertes" spiel zu investieren. in zeiten von marketing ala powered by XXX erst recht nicht.
Wieso "mega zeitaufwändig"?

Jedenfalls, für die Performance eines Spieles ist natürlich der Entwickler des Spieles zuständig. Der Grafiktreiber soll das tun, was ihm von der Applikation aufgetragen wird.

guillome schrieb:
Ich denke nicht, das dieses beispiel mit dem aktuellen optimierungsfall anwendbar ist. denn in deinem beispiel wird ja nichts mehr berechnet, sondern einfach nur das ergebnis ausgegeben! wäre dies so, müsste das spiel d3 im voll gerenderten ergebnis ähnlich wie ein movie vorhanden sein (wenn man von der einfachen ausgabe eines vorberechneten ergebnis spricht). dies ist aber nicht der fall, es ist viel mehr so, dass man einfach total unötige schritte für die berechnungen weglässt oder versteckt um auf ein besseres ergebnis zu kommen. genau das verstehe ich im falle d3 und nv unter optimierungen.
Das Problem ist, dass offensichtlich für das Weglassen unnötiger Berechnungen auf vorberechnete Dinge zurückgegriffen wird. Das ist ein Schritt auf dem Weg zum "Voll-Cheat", wo gar nichts mehr berechnet würde. Die Büchse der Pandora ist offen. Was kommt als nächstes? Weglassen von unsichtbaren Objekten, wenn Timedemos gebencht werden? – Am Bild ändert sich damit ja nichts ...

... also kann das Kriterium imo nicht sein, ob sich das Bild ändert. Nvidias eigene Optimierungsregeln beinhalten, dass keine vorberechneten Dinge genutzt werden dürfen. Daran halten sie sich nicht. Erst einen auf seriös machen, dann hintenrum schummeln. Sowas sollte imo nicht unter den Teppich gekehrt werden. Man sollte bei den Doom3-Benchmarks sehen, dass hier nicht die tatsächliche Hardwareleistung verglichen wird. Darum geht es in der 3DC-News.

guillome schrieb:
wichtig ist, was im endeffekt an brauchbrarer leistung bei der sache rauskommt und das sind 20% in diesem fall. der spieler kann also ohne das das spiel ein fünkchen schlechter aussieht als auf einem r420 das spiel um 20% schneller spielen! ob nun die 20% durch eine bessere hardware oder durch einen einfach intelligenteren treiber resultiert, ist mir im endeffekt egal.
Der Treiber ist nicht intelligenter. Er ersetzt bestimmte Shader durch andere, handoptimierte Versionen. Würde der Speedup durch allgemein anwendbare Optimierungen zustande kommen, wäre die Sache anders.

guillome schrieb:
ich glaube, dass das ganze zu dramatisch gesehen wird. wir sollten eigentlich alle froh sein, dass wir leistung gratis bekommen ohne gleichzeitige qualitative einbußen (welche es durch optimierungen auch schon gab). jetzt profitiert gerade nv von doom, und morgen ist es ati bei halflife2. und genau so wird es weiter gehen! :p
Gratis ist das für uns imo nicht. Im Gegenteil, Nvidia setzt diese Methoden ja zur Gewinnsteigerung ein.
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben