Bestätigt Nvidia Cheatet bei Doom3 !

Dominator

Lt. Junior Grade
Registriert
Juli 2004
Beiträge
447
ein auszug von 3d center:
Unseren Doom 3 Artikel, der versucht, das gute Abschneiden des NV40 im Vergleich zum R420 zu erklären, möchten wir jetzt zumindest in Teilen entkräften. Nach neuesten Erkenntnissen ist die Theorie, dass der R420 im Z/Stencil-Pass deutlich langsamer die Pixel verwirft (wodurch das gesamte Rendering verlangsamt würde) zumindest nicht in der Härte zutreffend, wie der Artikel behauptet. Der NV40 hat zwar eine geringere Verwerf-Maximalleistung, diese aber mit feinerer Granularität als R420. Daraus könnte sich letztlich doch noch ein kleiner Vorteil für den NV40 ergeben. Außerdem gibt es weiterhin einige Situationen, in denen der R420 den HierarchicalZ-Mechanismus nicht nutzen kann ...

... Doch die Unterschiede in der Leistung pro Takt sind damit nicht befriedigend erklärt. nVidia scheint im Treiber "Optimierungen" ähnlicher Art vorgenommen zu haben, mit welchen nVidia seit langem alle Q3A-Benches gewinnt: Abfangen und ersetzen von CPU-lastigen Calls durch weniger CPU-lastige, bzw. spezielle Optimierungen, welche auf die Q3A- und jetzt die D3-Engine besondere Rücksicht nehmen. Zudem wird in Doom 3 kreatives Shaderreplacement betrieben: Offenbar hat nVidia eine Lösung gefunden, Alternativshader zu nutzen, ohne die Bildqualität zu beeinträchtigen ...

... Daraus ergeben sich zunächst zwei Schlussfolgerungen: Die Geschwindigkeit in Doom 3 ist weniger der NV40-Architektur zuzuschreiben, als wir das zunächst dargestellt haben. Zweitens ist dann vielleicht auch für Radeon-Grafikkarten noch ein Speed-Up drin. Es ist aber auch nicht auszuschließen, dass nVidia die Doom 3 Optimierung noch weiter treiben kann. Hieraus folgt dann wieder, dass man die generelle Spiele-Tauglichkeit von Grafikkarten nicht anhand weniger, "repräsentativer" Spiele festmachen kann. Bessere Leistung in Doom 3 heißt weder bei ATi noch bei Nvidia, dass damit zwangsläufig die jeweilige Hardware-Architektur besser ausgenutzt würde. Eine bessere Hardware-Ausnutzung könnte in diesem Fall vorliegen, doch vielleicht handelt es sich auch nur um Treiber-Optimierungen ...

... Um ein allgemeines Statement zum Shaderreplacement abzugeben: Dass der "Original-Shader" genau so ausgeführt wird, wie er ist, kann man heutzutage nicht mehr verlangen: Eingebaute allgemeine Shader-Optimierungen, welche das Resultat nicht ändern, sind prinzipiell immer zulässig. Schwierig wird es, wenn handoptimierte Verfahren genutzt werden. Doch so lange nicht das Gegenteil gezeigt wird, nehmen wir an, dass nVidia in Doom 3 "nur" Dinge zur Leistungssteigerung ausnutzt, welche bei der Programmierung des Spiels übersehen wurden. Dennoch ist Handoptimierung auf einen Benchmark (Doom 3 ist ein Quasi-Standardbenchmark) grundsätzlich kritisch zu sehen.
:hammer_alt:
 
Zuletzt bearbeitet:
Kannst du beweisen, dass das stimmt? Oder kann 3D Center das beweisen?

Im Prinzip macht nVidia es richtig. Es gibt sehr viele FPS-Kiddies die das was du hier gepostet hast nicht verstehen und trotzdem lieber 8 FPS mehr haben. Und die achten dann bei Benchmarks auf Zahlen und sehen "Oh die hat in Doom3 mehr FPS" also wird sich dann die geholt. ;) Gute Masche Geld zu machen. Ich befürworte auch das Optimieren, weil dann doch das Spiel vielleicht mit 30fps anstatt mit 20fps läuft. Und mit meiner GF2 MX200 bin ich da doch sehr sehr froh :D da doom3 bei mir so ca. mit 20fps läuft. Naja dafür kann ich die Farben in dem Spiel zählen.

Außerdem wenn nVidia so cheatet, warum kaufen sich dann alle die Karten von nVidia?? Ich hab die Karte wegen dem Linux support, da ATI da ja noch ein bischen weit im Rückstand ist.
 
Zuletzt bearbeitet:
Offenbar hat nVidia eine Lösung gefunden, Alternativshader zu nutzen, ohne die Bildqualität zu beeinträchtigen ...

Das ist für mich ehrlich gesagt kein cheaten, sondern eine (für mich) willkommene Alternative meine Graka schneller zu machen.

Ich halte diese Art von "Optimierungen" für förderungswert
Also von mir Daumen hoch.
 
Naja, was ist so schlimm daran, wenn Nvidia die Treiber für solche Spiele optimiert? Ich finds gut wenn man dadurch bessere Performance hat, und keine Qualitätseinbussen (die sowieso niemand sieht).
Daher ist "cheaten" wohl kaum der richtige Ausdruck. :rolleyes:
Die User sollten froh sein über so einen vorbildlichen Support! :)
 
Zuletzt bearbeitet:
was soll daran cheaten sein?
wenn ein spiel (oder screenshot), aufgenommen oder veglichen mit einer ati und einer nvidia karte, 1:1 das gleiche resultat zeigt und der anwender keinen optischen unterschied entdecken kann, hat das in meinen augen überhaupt nichts mit cheat zu tun. das sind feine optimierungen!
wenn durch solch eine optimierung bildqualitätstechnisch kein nachteil entsteht, dann ist das doch gut!
und optimieren und verfeinern tut JEDER grafikkartenhersteller ob der name nun nvidia oder ati ist. es draf nur nicht zum nachteil der bildqualität gehen!
 
ich hab nvidia im desktop und ne ati im notebook, noch nien problem gehabt, einmal war meine nvidia kaputt, da hab ich mir ne ati als kurz ersatz geholt, und wie auch irgendwo zu lesen, hatte ich probleme mit der. und da man hier gehäuft lesen konnte, problem mit der 9800 von radeon, hab ich mir lieber die fx5900 geholt. ob ich jetzt irgendwo 8 fps mehr oder weniger hab, is mir ... egal. hauptsache ich bemerke den unterschied nich anhand der qualität. für mich is das kein cheaten, oder hat irgendjemand den unterschied (den man bei jedem cheat hat) bemerkt? es is einfach ne optimierung die nvdidia ausnutzt, warum nich?!
 
Zuletzt bearbeitet:
AFAIK gab es schon vor einiger Zeit ein Shaderreplacement mit Optimierung für ATI Karten. Das Teil kam weder von ATI noch von ID. Da haben sich wohl ein paar Hobbybastler drangesetzt.
IMHO stellt es die beste Lösung dar, wenn die Shader von der Gameengine ausgetauscht werden und nicht vom Treiber. Leider ist das wohl nicht möglich wenn es Absprachen zwischen Engineentwickler und Hardwareherstellern gibt.
 
Green Mamba schrieb:
Naja, was ist so schlimm daran, wenn Nvidia die Treiber für solche Spiele optimiert? Ich finds gut wenn man dadurch bessere Performance hat, und keine Qualitätseinbussen (die sowieso niemand sieht).
Daher ist "cheaten" wohl kaum der richtige Ausdruck. :rolleyes:
Die User sollten froh sein über so einen vorbildlichen Support! :)


Ich glaub von vorbildlichen Support ist keine rede sondern die zusammenarbeit ist dort viel Besser.

Gruß Raberduck
 
Grundsätzlich seh ich es ebenfalls kritisch, wenn solche Optimierungen in ein "Benchmark" einfließen.
Nichts desto trotz ist Doom3 primär ein Spiel. Und solange die Bildqualität nicht leidet, können die Hersteller, egal wer, von mir aus optimieren was sie wollen. Warten wir mal ab, was ATI bei HL2 so alles im Vorfeld optimiert hat... :D

Wünschenswert wäre natürlich eins: die Möglichkeit sämtliche derartiger Optimierungen im Treiber abzuschalten. Auf diese Weise wäre wieder in objektivis Benchmarking möglich.
Ob das allerdings technisch so einfach realisierbar ist bzw. ob sich ATI und nVidia dazu jemals überrden lassen, sei mal dahingestellt.
 
Was ist so schlimm daran, das Nvidia alternative Shader nutzt. Das nenne ich kein cheaten. Dies ist ein ganz normales verfahren, das ATI & Co. auch anwänden, wenn sie es können.
 
Die Meldung ist doch mehr oder minder schon ein alter Hut (stand bereits schon in der letzten C´t und ebenfalls auf Heise.de). ATI hat verlauten lassen, daß man eben jene "Optimierung" ebenfalls in den nächsten Treiber integrieren will - allerdings (mal was ganz Neues) soll man diese dann im Treiber deaktivieren können.
 
Wenn, wie im Artikel geschrieben, die Bildqualität nicht leidet, heisst das doch nur, dass Nvidia anscheinend bessere Leute in der Treiberentwicklung hat als Ati oder einfach fleissigere und gleichschlaue etc.
Aber wenn jemand etwas besser kann als der andere, dann ist das gleich "cheaten".......... :rolleyes:
 
Ich finde es auch ok die Treiber für bestimmte Spiele zu optimieren, letztendlich profitiert der Kunde ja von sowas.

Allerdings lässt sich dann in diesem Spiel bzw. Benchmark die Hardware an sich schwerer vergleichen, aber dafür gibt es ja dann andere, Engine-unabhängige Tests, wo dann die eigentliche Leistung der Hardware gezeigt wird.
Und was nützt die beste Karte wenn der Treiber dies nicht ausnutzt bzw. schlecht ist...

Ich hoffe nur das ich mir nicht irgendwann in Zukunft nen bestimmten Treiber für dieses oder jenes Spiel installieren muss, damit ich die optimale Leistung habe.
Dann wäre der Mittelweg von ATI, den Treiber nicht für eine bestimmte Engine/Game zu optimieren, doch wieder besser.
 
Zuletzt bearbeitet:
Solange die Bildqualität durch solche Optimierungen nicht vermindert wird sondern eventuell sogar steigt, ist das nur begrüßenswert. Schließlich will ich als Kunde für meine 500,- Euro teure Grafikkarte auch die bestmöglichen Treiber.
 
NV hatte auch den Vorteil (in)direkt in die Entwicklung Doom3 einzusehen und seine Treiber dahingehend zu optimieren. Ich denke, das sich der Vorteil zugunsten NV´s mit der Zeit durch neue Treiber einigermaßen relativert - wobei letztendlich noch immer ein leichter Vorteil zugunsten NV´s bestehen bleibt - imo. Bei HL2 sieht die Sache natürlich total anders aus, da unter massiven Einsatz von PS2.0 die enorme Bandbreite der X800XT zum Tragen kommt.
 
und wenn Programme an Intel oder AMD angepasst werden schreit auch keiner CHEATER und bei den GK Herstellern isses auch nich anders
 
Harrold schrieb:
Kannst du beweisen, dass das stimmt? Oder kann 3D Center das beweisen?
Es gibt schwerwiegende Indizien.

Fruchtnektar schrieb:
Das ist für mich ehrlich gesagt kein cheaten, sondern eine (für mich) willkommene Alternative meine Graka schneller zu machen.

Ich halte diese Art von "Optimierungen" für förderungswert
Ich nicht. Wenn Doom3 das Potenzial der Hardware nicht ausschöpft, ist es Aufgabe des Spiele-Entwicklers, nachzubessern. Weigert dieser sich, muss man das Spiel boykottieren, oder man lebt mit der schlechteren Performance, oder man rüstet auf. Wozu hat NV den so tollen Dev-Support, wenn die eigentliche Optimierung im Treiber stattfindet, in dem alternative Codesequenzen ausgeführt werden? Jetzt muss ATI nachziehen. Was ist das dann, was letztenendes in Doom3 gebencht wird?

Zur Aufklärung, welche Hardware mehr leistet, tragen Benchmarks bei solchen Praktiken nicht bei.
 
Zuletzt bearbeitet:
guillome schrieb:
was soll daran cheaten sein?
wenn ein spiel (oder screenshot), aufgenommen oder veglichen mit einer ati und einer nvidia karte, 1:1 das gleiche resultat zeigt und der anwender keinen optischen unterschied entdecken kann, hat das in meinen augen überhaupt nichts mit cheat zu tun. das sind feine optimierungen!
wenn durch solch eine optimierung bildqualitätstechnisch kein nachteil entsteht, dann ist das doch gut!
Schlecht ist es für die Transparenz auf dem Markt. Mit dem guten Ergebnis in Doom3 steht NV40 zu gut dar. Würde der Treiber das tun, was ihm aufgetragen wurde, wäre der Abstand zum R420 deutlich geringer.

Im Extremfall hieße, Optimierungen gutzuheißen solange die BQ nicht leidet, dass der Treiber vorberechnete Bilder anzeigen darf, anstatt die 3D-Szene tatsächlich zu rendern. Handoptimierte Shader zu nehmen ist ein Schritt in diese Richtung.

guillome schrieb:
und optimieren und verfeinern tut JEDER grafikkartenhersteller ob der name nun nvidia oder ati ist. es draf nur nicht zum nachteil der bildqualität gehen!
Wer verliert ist der, der nicht so die Top-Titel spielt. Bei endlichen Ressourcen für die Treiber-"Optimierungen" wird dann z. B. Doom besonders gepflegt. Das Nachsehen haben zwangsläufig andere Spiele.
 
Zuletzt bearbeitet:
joli schrieb:
Wenn, wie im Artikel geschrieben, die Bildqualität nicht leidet, heisst das doch nur, dass Nvidia anscheinend bessere Leute in der Treiberentwicklung hat als Ati oder einfach fleissigere und gleichschlaue etc.
Aber wenn jemand etwas besser kann als der andere, dann ist das gleich "cheaten".......... :rolleyes:
Der Vorwurf des Cheatens wird in der News nur implizit erhoben. Imo zurecht, da es sich um Handoptimierung für einen Standard-Benchmark handelt. Nvidia erschwindelt sich Leistung.

Warum ist die GeForce256 / GeForce2 GTS in Q3A so schnell gewesen? Wegen der T&L-Unit? Das ist höchstens ein Seiteneffekt, hauptsächlich wegen der exzessiven Treiber-Optimierungen, die teilweise nur bestimmten Timedemos nützen (und nicht dem tatsächlichen Spiel.) Ähnliches gilt für den 3DMark 2000 und 2001. Durch die "Leistung" der NV-Karten in diesen weit verbreiteten Benchmarks entstand der Eindruck, dass die GeForce generell stark überlegen sei.
 
Zuletzt bearbeitet:
Das interessiert doch heute (leider) nur noch am Rande: Da benchen Leute indem Sie den LOD (Stichwort z.B. ATuner) soweit herabsetzen, daß das was denn letztendlich gerendert wurde, eigentlich nicht mehr im Sinne des Entwicklers stand. Durch die ganze Cheaterei ist imo ein gutes Stück Objektivität in Bez. auf Hardware und auch Perfektionismus in Bez. auf RenderQuali verloren gegangen.
 

Ähnliche Themen

Zurück
Oben