News Viel Hickhack um Futuremarks 3DMark03 v3.4.0

Christoph

Lustsklave der Frauen
Registriert
Jan. 2002
Beiträge
3.100
Kontrovers wie nie ein Benchmark zuvor, so präsentierte sich Futuremarks 3DMark03 in den letzten Monaten. Es wurden immer wieder die Schattenseiten aufgedeckt und Grafikchiphersteller in handfeste Cheat-Skandal verwickelt. Auch mit der Version 3.4.0 scheint damit nicht Schluss zu sein.

Zur News: Viel Hickhack um Futuremarks 3DMark03 v3.4.0
 
Jetzt wäre es Zeit für eine andere Firma, einen eigenen Direct3D Benchmark zu schreiben und vorzustellen.

Das wäre diese Problem endlich gelöst
 
Leute Leute.... das sind Spekulationen.

Wartet doch einfach mal ab wie es aus geht.

Wenn ihr auf sowas eure Meinung aufbaut könnt
ihr ja gleich zur BILD greifen... bäääh...
 
wenn sich futuremark an den standard hält der nun mal dx9 ist ist der usc ansich schon cheaten.vor allem ist es doch so:wenn die nv-karten nicht die leistung bringen die sie für anständige benchmarkergebnisse brauchen,kann nur auf kosten der bildqualität optimiert werden.
 
Es ist doch so: auf beiden Plattformen (ATI + NV) laufen die Spiele doch sehr ordentlich. Der Unterschied kommt doch nur durch die bekloppten Benchmarks heraus. Ich spiele mein UT2003 jetzt auf einer 9800PRO. Davor Ti4200, und ich kann nun alle Details einschalten. Mit einer 5900 könnte ich auch mit allen Details spielen! Momentan ist mir ATI einfach nur sympathischer. Von denen hört man kaum etwas, während NV sich windet wie ein Aal. *Buuhh* hier, *heul* da..... momentan scheint ATI einfach die bessere Hardware zu haben, und das wars! Aber NV wird bestimmt zurückkommen. Sind ja schon alte Hasen im Geschäft.

Die Benchmarks kommen eher einem Pillemann-Vergleich nahe (ätsch, hab 1 cm mehr....). :p
 
nur ein comment von mir:

nvidia hat mit der gesamten FX Serie auf gut deutsch sch***** gemacht,
erst lobbten alle die architektur oh wie toll schon für
PS 3.0 fertig usw.
Die soll eine CPU ähnliche architektur haben usw.

Jetzt aber muss NV jedes einzelne Süiel und
Anwendung per Hand optimieren.
Und oc nebenebei nett gecheatet wurde oder auch nicht . dass durchschaut eh keiner mehr.

Ich habe nicht umsonst mir ne 9800 PRO zugelegt,
wenigstens "weiss man was man hat"
und bin TOP zufrieden mit der
 
Warum legt man sich bei der Beurteilung auch auf die immer gleichen Spiele und Score-Ermittlungen fest.

Wer hier nicht optimiert, ist schön doof. Mit paar Zeilen Treibercode die Zahlen unbemerkt schön hochjubeln, auch wenn bei unbekannten Programmen nur noch wenig läuft.

Wenn man eine CPU mit einem Packer testet, am besten quelloffen und für beide VergleichsCPUs oder garnicht optimiert, dann kann man nicht irgendwelche Bytes wegfallen lassen.

Die verlustbehaftete Audio- und Video-Kompression zeigt uns ja, dass man die menschlichen Sinne so weit täuschen kann, dass die Annäherung an das Original mit einem kleinen Bruchteil der Daten möglich ist.

Bei manchem Input geht es schnell und trotzdem hochwertig, bei anderen Daten wieder nicht.

Runden. Interpolieren, Vernachlässigen, wer´s am besten kann, der hat gewonnen, und wenn´s nur bei 5 Benchmarks ist. So ist nunmal das Grafikkartengeschäft.

Im krassesten Fall kann man ja mal 2 1600x1200er Bilder per DVI-Ausgang grabben und für jede Pixel-Koordinate die Farbwerte bestimmen. Die RGB-Werte könnten allzuoft knapp nebeneinander liegen, anstatt identisch zu sein.

Und da man fast 2Mio Pixel nicht überblicken kann, müsste man die Abweichungen grafisch darstellen, ähnlich einer Wetterkarte.

MfG


PS. Ich hätte gern Auswahl, aber für meine Linuxkiste hat nur nVIDIA ordentliche Treiber. Die beste Hardware von ATI nützt mir so rein garnichts.
 
Wozu 3DMark? Wozu irgendeinen 3D-Benchmark? Genügt es nicht eine Reihe von aktuellen Spielen als Benchmark zu nutzen, wie es beispielsweise in Spiele-Magazinen üblich ist?

Ich nutze immer wieder gerne Spiele, die weniger verbreitet sind, um nach Systemänderungen die Leistung auszumessen - so kann man sich relativ sicher sein, daß Optimierung nicht zum Tragen kommen.
 
für den ganzen heckmeck um cheatmark03 gibt's ne ganz einfache lösung:

http://www.aquamark3.com/

zumindest ich hab über den aquamark3 noch keine solchen negativ-meldungen gelesen
 
Ist das ROFLIG.Wie im Kindergarten.Ich finde die sollen mal ein "Uninstall Patch" rausbringen für den Schrott :) Jeden weiteren Kommentar verkneif ich mir zum dem Benchmark.
 
Synthetische Benchmarks taugen nunmal nichts um die Performance eines Rechners (in seiner Gesamtheit) zu messen. Das ist nur mit normaler Software möglich, die für jeden Test mit den selben Daten gefüttert wird ( Timedemo, z.B.) Der Output von Futuremark/MadOnion wird in den Foren eh meisstens dazu benutzt um zu beweisen, dass sein AMD/ATI/NFORCE besser ist als das Intel/NVidia/Intel eines anderen.

Das sieht man auch an der üblicherweise aufkeimenden Diskussion NVidia vs. ATI, die hier auch wieder zu beobachten ist. Erinnert mich irgendwie an VW vs. Opel, Siemens vs. Nokia vs. Samsung, etc. Oder kurz "Ich habe es und der der was anderes hat, hat keine Ahnung".
 
Hat nicht Tuvok mal einen schönen Spruch über diese Eigenschaft von Jugendlichen von sich gegeben? :)
 
Es stimmt also. Nvidia hält sich nicht an die eigenen Optimierungsregeln. (Quelle B3d-forum, 3dcenter-Forum)

Man errsetzt immer noch Shader von Hand in bekannten Benchmarks. Wahrscheinlich kommen auch wieder Clipplanes zum Einsatz, d.h. Objekte und Teile des "Levels", welche durch den bekannten Kamerapfad nicht sichtbar sind, fallen ganz aus der Scene und müssen so nicht durch den Z-Test usw.

Kommentar Derek Perez von Nvidia zum eigenen Wortbruch:

At one we asked Derek how this sat with the optimisations guidelines that were given to press by NVIDIA, specifically the guideline that suggests "An optimization must accelerate more than just a benchmark" To which Derek's reply was "But 3DMark03 is only a benchmark" -- it was suggested [by Dave Baumann] that this particular guideline should read "An optimization must accelerate more than just a benchmark unless the application is just a benchmark"!

Find ich ganz schön dreist. Und ich geh mal davon aus, daß dieses Spielchen in allen bekannten Benchmarks durchgezogen wird.

Weshalb sind wohl die Radeons bei sogenannten "Walktroughs" mit fraps immer deutlich schneller?!
 
@15 raff es doch NV hat das nur gemacht weil DX9 noch net auf die FX architektur angepasst ist! ATI architektur ja schon also meckert nicht rum das NV erstmal ne notlösung findet solange bis dann wieder beide Karten gleich gut von DX unterstütz werden was zur zeit ja nicht der fall ist! Und ich weiss sowieso net was ihr habt! Solange die bildquali nicht schlechter wird und die Graka schneller kanns mir doch am arsch vorbeigehn!
 
@16 danke! endlich mal einer der anscheinend weiß wovon er spricht dx9.0 ist nunmal 24bit optimiert einen modus den nur ati unterstützt, die bekannten ieee standards sind aber nunmal 16bpp und 32bpp und das unterstützt nvidia, ms gibt das auch offen zu und arbeite jetzt mit nv an dx9.1 und ms hat verlauten lassen das bis zu 60% performance gewinn dabei erzeilt werden konnten beim einsatz von 32bpp statt umgerechneter 24bpp auf den fx Karten...und das eine Radeon mit Fraps schneller ist haha, ich habe eine 5900 und einer 9800pro hier, die system sind weitesgehend gleichschnell allerdings zeigt mir dieser direkte vergleich eindeutig a. das das bild bei nv deutlich besser ausschaut und das die performance fast immer gleich gut ist wie die der atis...jeder soll das kaufen was er mag, im endeffkt nehmen sich beide konkurennten eh nicht viel und 1-2fps unterschied interessieren doch nu wirklich nicht!
 
Ich habe aber eine ganz andere Erfahrung gemacht.Hatte zuerst eine 5900ultra gehabt und jetzt habe ich eine 9800xt.Finde das die ATI in der Bildquali am besten ist.Das AA ist dort viel effektiver(4xS AA bei der FX-Karte sieht aus wie bei ATI 2xAA)und AF kann man bis zu 16x hochschrauben.Da ist dann bis zum letzten Bodentextur ganz weit weg,alles scharf!
Auch die Performance ist in Games um einiges besser.Bei zugeschaltetem AA und AF verliert die XT nur minimal an Leistung,wohingegen die FX damit bei einigen Spielen schon arg in die Knie ging.Bestes beispiel ist ColinMcRae3.Dort bleibt die XT mit 4xAA und 8xAF konstant bei 43FPS.(bei Weitsicht erreicht sie sogar bis zu 85FPS).Die FX dagegen hatte da schon bei 4xAA und 4xAF zu kämpfen gehabt und sackte beim Erscheinen von größeren Gebäuden oder viel Wald,schonmal bis auf 22FPS ab.
Das sind nun meine Erfahrungen und nur ein Beispiel für die bessere Performance der XT.Gut,man kann die 5900ultra nicht direkt mit der XT vergleichen,aber die 25Mhz Chiptakt die die 5950 mehr hat reisen im Game auch nicht viel mehr raus!
 
@17
Sowas ähnliches hab ich auch gehört (DX9.1). Ich hoffe das wird umgesetzt, denn wenn ATI jetzt vorne bleibt, wäre das für fanATIcs und nvIDIOTS ziemlich schlecht. ATI Karten würden teurer werden (sind sie ja schon teilweise, im Gegensatz zu früher). Und der Treiber, der sowieso immer noch ziemlich mies ist, dafür dass so viele schon ne ATI haben, würde auch abflachen. STEEL hat schon recht dass die Bildqualität etwas besser ist bei ATI, aber sicherlich nicht so extrem wie alle fanATIcs es immer hinstellen, dass man es von 1m entfernung vom Bildschirm noch erkennen würde. Ich dachte übrigens, dass das AF mittlerweile bei nVidia besser ist als bei ATI? ;)
 
Zurück
Oben