Futuremark und nVidia haben sich wieder lieb!

TheCounter

Lt. Commander
Registriert
Apr. 2003
Beiträge
1.937
Hab heute folgendes gelesen:

Nach der Veröffentlichung des 3DMark03-Patches und den Täuschungsvorwüfen von Futuremark in Richtung nVidia (und auch ATI) sowie den Stellungnahmen einzelnen Mitarbeiter von nVidia und Futuremark haben sich die beiden Unternehmen nun offenbar auf eine einheitliche Linie geeinigt. Aus einer gemeinsamen Erklärung geht hervor, dass Futuremark die Cheat- und Betrugsvorwürfe (durch den Detonator FX Treiber) zurückzieht. nVidias Treiber-Design sei eine Anwendungs-spezifische Optimierung und kein Cheat, heißt es nun auf einmal. Im Gegensatz zu anderen Applikationen und auch dem PCMark2002 von Futuremark, in denen abhängig von den Hardware-Komponenten oft andere Programm-Teile verwendet werden, sollte der 3DMark03 ein un-optimierter Test sein, mit einem einheitlichen Code für jedwede Hardware. Futuremark überlegt sich nun, ob sie in zukünftigen Benchmarks den anderen, eher realistischen Weg gehen werden.

Um einen Weg aus dem Dilemma zu finden, einen aussagekräftigen, für jede Hardware gleich gut geeigneten Benchmark zu entwickeln, wird Futuremark wohl auch wieder auf die Unterstützung von nVidia bauen können. Dazu wollen beiden Unternehmen klare Regeln für solche Testprogramme aufstellen, auch um solch unglückliche Situationen wie das aktuelle 3DMark03-Fiasko zu verhindern.

Über die Gründe für den Rückzug von Futuremark wird natürlich jetzt heftig spekuliert. Hat nVidia mit Dollar-Scheinen gewedelt oder mit Rechtsanwälten gedroht, um die deutlich kleinere finnische Firma zum Einlenken zu bewegen? Oder hat man sich einfach zusammengesetzt und ist zu einem Kompromiss gelangt? Man weiß es nicht und wird es vermutlich auch nie erfahren. Seltsam ist es jedenfalls, dass sogar nicht vollständig berechnete Szenen nun auf einmal als Optimierungen bezeichnet werden.
Ein anonymer (angeblicher) ATI-Mitarbeiter äußerte sich in einem Forum jedenfalls sehr verärgert über diese neue Entwicklung. Sie bemühen sich, ihre 2-prozentige Optimierung aus den Catalyst-Treibern zu entfernen, alles sauber zu machen und nach den Regeln zu spielen - und jetzt könnten sie sich eigentlich auch überlegen, bestimmte, nicht sichtbare Szenen-Elemente gar nicht erst zu berechnen und so 25% mehr Performance herauszuholen.

Obwohl das Ziel von Futuremark, einen unabhängigen, für alle gleich geeigneten Benchmark zu entwickeln, ein absolut edles Ziel ist, scheint diese Geschichte den Entwicklern mittlerweile mehr Schaden zugefügt zu haben als nVidia, die mit ihrem Detonator FX Treiber den Stein eigentlich erst ins Rollen gebracht hatten.


Quelle: Hartware.net

Ich finde gut das Futuremark und nVidia jetzt nichtmehr auf Kriegskurs sind. Außerdem finde ich gut das die Treiber nichtmehr als Cheats bezeichnet werden, denn das waren und sind sie nicht.

Bin ja gespannt was jetzt mit ATI abgeht.
 
Tja NVIDIA scheint ja dann sehr gut in der Optimierung (3DMark03 +24%) und ATI dann wohl schlecht im Cheating (3DMark03 nur +2%). :D :rolleyes:
 
Zuletzt bearbeitet:
Original erstellt von DjDIN0
Tja NVIDIA is eben sehr gut in Optimierung (3DMark03 +24%) und ATI wohl schlecht im Cheating (3DMark03 +2%). :D

Hihi, naja ich versteh nicht warum Futuremark gesagt hat das sind Cheattreiber?

Die Geschwindigkeit wird ohne sichtbaren Qualitätsverlust (das kann ich selber beurteilen, hab mir das selber angeschaut) enorm gesteigert, so wie es auch in Spielen möglich ist. Was man nicht sieht, muss nicht berechnet werden, logisch oder? Deswegen hat nVidia auch UltraShadow entworfen, um Schatten die man nicht sieht, eben nicht zu berechnen.
 
Original erstellt von TheCounter
Deswegen hat nVidia auch UltraShadow entworfen, um Schatten die man nicht sieht, eben nicht zu berechnen.

Und ATI ab der 9800-Serie "enhanced z-cache" integriert der über "Real-Time-shadow volumes“-Berechnungen nun auch Stencil-Werte für Stencil-Schatten komprimieren und damit beschleunigen kann und es wird berechnet welche Teile des Bildes in den Schatten anderer Gegenstände fallen, die bereits gerendert worden sind.(Stencil-Shadows werden in 3DMark03 mehrmals benutzt)

Naja vielleicht ist Nvidias-Methode doch ehrlich und cheatfrei hier die bessere :rolleyes:
 
Zuletzt bearbeitet:
Original erstellt von DjDIN0
Und ATI ab der 9800-Serie "enhanced z-cache" integriert der über "Real-Time-shadow volumes“-Berechnungen nun auch Stencil-Werte für Stencil-Schatten komprimieren und damit beschleunigen kann (Stencil-Shadows werden in 3DMark03 mehrmals benutzt)

Naja vielleicht ist Nvidias-Methode doch ehrlich und cheatfrei hier die bessere :rolleyes:

Ja, aber das is nicht das selbe, ich hab keinen Bericht gelesen in dem gesagt wird das die ATI Karten ab der R9800Pro die nur sichtbaren Schatten rendert, aber die Komprimierung ist schon da.

Torzdem hat das bei nVidia den Vorteil das man garnicht alle Schatten berechnen muss, was unmengen Performence einsparen kann. Man bräuchte mal nen Vergleich, außerdem möchte ich mal wissen um wieviel % die Schatten bei ATI komprimiert werden, und ob das auf kosten der Bildqualität geschieht, hab da ja schonmal sowas gehört :-)
 
9800pro : Es kalkuliert und errechnet zusätzlich die Anwendung, welche Teile des Bildes in den Schatten anderer Gegenstände fallen die bereits gerendert worden sind. Solange alle diese Gegenstände im korrekten Auftrag gerendert werden macht es diese Technik möglich genaue Schatten für allen beweglichen Gegenstände und/oder Lichtquellen in einer Szene zu erzeugen.

"One of the most common uses for the stencil buffer is for rendering real-time shadow volumes. In this case, the application calculates which parts of the image fall in the shadow of other objects that have already been rendered. As long as all objects are rendered in the correct order, this technique makes it possible to generate accurate shadows for any moving object and/or light sources in a scene."

Quelle : http://www.driverheaven.net/reviews/r350/index.htm

Falls mein Englisch zum übersetzen ausreicht halt :rolleyes: Aber so gut kenn ich mich damit nicht aus :(
 
Zuletzt bearbeitet:
Werdet ihr wohl aufhören,nicht dass das wieder losgeht mit ATI vs. NVidia hier ;)
Futuremark sollte nur mal bisschen Konsequent sein,ohne Optimierungen? Aber warum dann angepasste AMD/INTEL CPU Benchmarks?

Bin zwar eher NVidia Fan aber was bringt mir n Treiber,der dafür sorgt,dass Schatten im 3dmark sparend berechnet werden,ich spiel ja schliesslich nicht im 3dmark.

Heisst nicht,dass ichs so ok finde wie´s jetzt ist,denn irgendwie hat NVidia ja schon recht,der 3dmark ist von wirklichen Spielen im Aufbau doch relativ weit entfernt.

Kann mal den link empfehlen:
http://www.hardocp.com/article.html?art=NDgy

Wie auch immer,werd jetzt keinen Weinkrampf kriegen wenn ich ne neue NVidia oder ATI kaufe und die im Futuremark keine tolle Performence bekommt.
Ist ja nicht erst seit jetzt bekannt,dass der 3dmark nicht das Nullplusultra in der Performencebestimmtung is ;)

So,erm,Klugscheisser mode off ;)
 
Ajo, thx for link @DjDIN0.

Einen realistischen Benchmark kann man nur machen wenn er auf Grafikkarten Optimiert ist, denn Spiele werden auch Optimiert.

Um jetzt einige für nVidia Karten aufzuzählen:

Stalker
DeusEx2
Abducted
Breed
Thief 3

Vielleicht könnte das einer für mich ergänzen? Bloß halt eben für Spiele die für ATI Optimiert sind.
 
@TheCounter

Naja immerhin werden diese Stencil-Schatten auch in Doom III verwendet werden und in der PCGH hab ich mal gelessen das die Stencil-Schatten wohl die meiste Spielezukunft haben weil sie qualitativ besser sind.

Zu den Spielen die ATI-Optimiert sind : Ok zugegeben muss man eher mit der Lupe suchen - zur Zeit noch - kenne eigentlich keines. Aber ich denke die mal die (hoffentlich bald) kommenden Spiele mit DirectX9-Effekten werden dann schon auch mehr ATI-optimierter sein.
 
Zuletzt bearbeitet:
Original erstellt von DjDIN0
@TheCounter

Naja immerhin werden diese Stencil-Schatten auch in Doom III verwendet werden und in der PCGH hab ich mal gelessen das die Stencil-Schatten wohl die meiste Spielezukunft haben weil sie qualitativ besser sind.

Ist klar, gegen die Schatten kann man nichts einwenden, ich freu mich ja auch das es die Schatten gibt :-)

Stell dir ein DoomIII ohne Schatten vor *lol*

Doch ist es auch sache der Grafikkarte wie Qualitativ hochwertig die Schatten dargestellt werden. Ich hab in einem Bericht gelesen das die Schatten durch das Intellisample HCT besser aussehen sollen als auf ATI Karten, das war aus nem Bericht von DoomIII hervorgegangen, obs stimmt weis ich nicht, wie gesagt, in Zukunft wäre auch mal ein Schattenvergleich nötig, denke ich. :D
 
Naja Color-Compression durch IntelliSample HCT bringt doch nur eher was bei hohen Auflösungen oder AA :
http://www.tomshardware.de/graphic/20030512/nv35_geforce_fx5900ultra-02.html

Jetzt könnte ich dagegen halten das ATI hier ebenfalls bei hohen Auflösungen und AA bei der 9800-Serie nachgebessert hat durch "Smoothvision 2.1" (optimierte Lese/Schreibzugriffe beim Memory-Controller im Vergleich zum Vorgänger)
Und das bringt echt was : Die 9800-Serie ist bei Antialiasing über doppelt so flott wie der Vorgänger !

Hab das was gefunden was deine vorige Frage zum Thema Schattenberechnungen beantwortet : 9800-Serie - Hyper Z III+ : "Hier wird entschieden, ob der Schattenwurf eines Objekts im sichtbaren oder unsichtbaren Teil des Gesamtbildes entsteht. Fällt er in letzteren Bereich, muss er nicht berechnet werden. Das kann enorm Speicherbandbreite sparen."

Quelle : http://www.chip.de/artikel/c_artikelunterseite_9945022.html
Die 9800-Serie kanns also doch auch ?!

@TheCounter
Es ist bei diesen Spekulationen auch so das ich mich bereits für eine 9800pro entschieden habe, vielleicht such ich dadurch aus falschem Stolz zu zwanghaft für eine sinnvolle Rechtfertigung für meine Wahl welche meine Objektivität beeinflusst :D ;)
 
Zuletzt bearbeitet:
Original erstellt von TheCounter
Außerdem finde ich gut das die Treiber nichtmehr als Cheats bezeichnet werden, denn das waren und sind sie nicht..

Hallo ???
Ganze teile einer Szene werden nicht berechnet, die Bildqualität wird massiv verschlechtert - das soll KEIN Cheat sein ? :rolleyes:
tztztz

Original erstellt von TheCounter
Ajo, thx for link @DjDIN0.

Einen realistischen Benchmark kann man nur machen wenn er auf Grafikkarten Optimiert ist, denn Spiele werden auch Optimiert.

Um jetzt einige für nVidia Karten aufzuzählen:

Stalker
DeusEx2
Abducted
Breed
Thief 3

Vielleicht könnte das einer für mich ergänzen? Bloß halt eben für Spiele die für ATI Optimiert sind.

Da fällt mir gleichmal Half-Life 2 ein... ;)
 
Ist klar das die R9800 in AA/AF schneller ist als die Vorgänger, ist die FX5900 ja auch. Den Vorteil den die FX5900 beim AA hat ist das das AA schneller ist, der Nachteil: Schlechtere Bildqualität.

Beim AF ist es genau umgekehrt, nVidia langsamer als ATI, dafür Qualität bei nVidia besser.

Ich wette nVidia könnte locker so eine gute AA Qualität aus dem Ärmel schütteln wie ATI. Nur würde das auf kosten der Leistung gehen, und da es kein wesentlicher unterschied beim Spielen ist, ist das auch nicht nötig.

Beide Karten sind verdammt gut und reichen noch ne ganze weile, mir liegt halt nVidia besser (Stolzer besitzer von Linux ist :-)).
 
Zuletzt bearbeitet:
Re: Re: Futuremark und nVidia haben sich wieder lieb!

Original erstellt von TheShaft
Hallo ???
Ganze teile einer Szene werden nicht berechnet, die Bildqualität wird massiv verschlechtert - das soll KEIN Cheat sein ? :rolleyes:
tztztz

Hab ich was verpasst? Zeig mir bitte einen Screenshot davon, in Echtzeit hab ich das nämlich nicht gesehen.

Original erstellt von TheShaft
Da fällt mir gleichmal Half-Life 2 ein... ;)

Half-Life 2 ist nicht ATI und nicht nVidia Optimiert :)

Hui, oben hat sich nur ein fehler eingeschlichen, schon verbessert ;)
 
Re: Re: Re: Re: Futuremark und nVidia haben sich wieder lieb!

Original erstellt von TheShaft
schau mal auf http://www.ati.com/ auf die rechte seite ;)

Is mir neu, deswegen wirds auch ruckelfrei auf meiner FX5900U laufen :)
 
ebenso wie alle für nvidia optimierte spiele ruckelfrei auf meiner radeon 9700 laufen werden... :cool_alt:
 
Original erstellt von TheShaft
ebenso wie alle für nvidia optimierte spiele ruckelfrei auf meiner radeon 9700 laufen werden... :cool_alt:

Nur werden halt net alle Effekte dargestellt werden können, aber ist halt so bei Optimieren Spielen, bzw. net immer so aber meistens :-)

//Edit

Wobei ich ein bisschen bezweifle das DoomIII in hoher Auflösung mit Max Details und max AA/AF flüssig läuft :-)

Da bräuchtest ne R9800Pro, besser FX5900U (zumindest wie es im moment aussieht).
 
Original erstellt von TheShaft
ebenso wie alle für nvidia optimierte spiele ruckelfrei auf meiner radeon 9700 laufen werden... :cool_alt:

Naja eines kann die 9700-Serie nicht erst die 9800er :

9800-Serie - Hyper Z III+ : "Hier wird entschieden, ob der Schattenwurf eines Objekts im sichtbaren oder unsichtbaren Teil des Gesamtbildes entsteht. Fällt er in letzteren Bereich, muss er nicht berechnet werden. Das kann enorm Speicherbandbreite sparen."

Quelle : http://www.chip.de/artikel/c_artikelunterseite_9945022.html

Bei aufwendigeren Schattenspielerein wie bei Doom III oder auch bei Half Life II haben die neuesten Grafikartengenerationen schon Vorteile aber eine radeon 9700 langt sicher trotzdem noch genügend aus und bis die Spiele draussen sind gibt es ne 9800pro oder FX5900Ultra schon zum halben Preis.
 
Zuletzt bearbeitet:
Zurück
Oben