News Patch: ATi und nVidia cheaten im 3DMark03

Das mit dem Cheaten nimmt aber übele außmasse an. Ok hier un da 2% war ja ok und im harten Geschäft auch normal. Aber 24% echt übrtrieben. Müsste man Nvidia bzw. ATI nicht Anzeigen können. Wenn ich zb. ein Auto kauf und da steht 300PS drau und es hat nur 200PS, kann ich's doch auch umtauschen.
 
mich wundert es auch dass nVidia das nötig hat, wenn doch anscheinend in allen möglichen Spiele-Benchmarks die 5900 Ultra vorne ist (wobei die Doom III-Benches sicher nichts endgültiges sind)?!
man kann nicht zuerst aus dem Beta-Programm aussteigen, mit der Begründung, dass der 3DMark2003 absolut nicht aussagekräftig sei, und dann von einer zur anderen Treiberversion 25% mehr Punkt aus dem Hut zaubern... vor allem muss sich doch bei einer derartigen Steigerung (nur beim 3DMurks) jeder denken, ob das mit rechten Dingen zu geht.
Aber naja, die Leutchen wollen halt leider auch 3DMurks-Punkte sehen...
Dass ATI hier optimiert, kann ich auch nicht gutheissen (man sollte sich auf Spiele konzentrieren!), aber das Gesamtergebnis wird nun mal um "nur" ca. 2% verändert, und wenn das nicht zu Lasten der Bildquali bzw. durch weggelassene Berechnungen geschieht - nun ja, aber wird sich evtl. noch zeigen, ob ATI hier richtig cheatet.

Schönen Abend noch, habt auch lieb. *s*
 
@ 100:
eigentlich kann man die nicht anzeigen, da die technischen daten und alles andere auf der verpackung ja zutrift.
Wenn die hinschreiben Testsieger in der C't Nr. sowieso und auf der hartwareseite sowieso, dann ist das ja alles richtig.
Die Tests wurden ja nicht von ihnen durchgeführt. Der Treiber ist einfach nur "optimiert".
Es dürfte da sehr schwer sein einen Händerl zu finden, der dir dein Geld wieder gibt aus diesem Grund.
Und vor Gericht ist sowas sicherlich auch keine solide basis um ein rausnehmen der "oprimierungen" zu erwirken.

Das ist im Prinzip genauso, wenn ich mein Shampo mit anderen billig shampos teste und am ende sagen kann: TESTSIEGER! Wenn ich schon vorher weiß, dass meins doch eh das beste von diesen ist.
 
@roger
mir gehen einige echt auf den senkel! da fällt es einem schwer sich zusammen zu reissen, wenn man diesen geistigen dünnschi** liesst. einen zu huldigen der einen zum narren hält ist für mich einfach nur dummheit!
 
liest mal das hier:
http://www.pc-welt.de/ratgeber/hardware/31082/
da sind echte benches, das sind die einzigsten die zählen.
wenn ati bei 3dmark03 dennoch immer so gut abschneidet ist doch klar das 3dmark03 schon speziell auf ati zugeschnitten ist! die werden wohl kaum zugeben, naja in der einen testfolge rufen wir speziell bei ati optimierte treiberfunktionen auf... haha, 3dmark ist ein witz, wer da überhaupt hinguckt hat schon verloren :p
schaut euch an was ihr spielen wollt und guckt da welche karte am besten abschneidet!
 
@105
öh, wo is der riesengrosse Unterschied zu anderen Seiten? bei der PC-Welt wurden die 3DMurkse auch herangezogen; bei anderen Benches werden normal auch genügend Spiele-Benches gemacht.
Und ausführlichere Benches hab ich auch schon gesehen... hier wird nicht mal geschrieben, welche Treiberversionen zum Einsatz kamen, es ist nicht immer klar, welche Qualitäts-Einstellungen verwendet wurden (gibt's ja genug verschiedene bei beiden Karten...). Wurde Serious Sam TSE ohne AA getestet? (steht nix drüber - wenn ja, wieso nicht auch noch AA?), und schließlich weiss man nicht, welche Timedemos zum Einsatz, aber das nur nebenbei. ;) Gegenüberstellung von Bildquali find ich auch wichtig.
Das Fazit bei der PC Welt find ich auch nicht unbedingt gelungen...

Also wenn das für dich "echte Benches" sind, najo!
 
@105: Ihr wollt es ja nicht anders. Sagen wir mal ich bin nu ATI-Fan, was ja anfürsich nicht andem ist, und soll "hinnehmen", das der 3Dmark so auf ATI-Karten optimiert ist und ab morgen nimmer gilt. Dann geh ich nicht und verteufele den UT2003-Bench und den SeriousSam-Bench, denn an beiden Spielen hat Nvidia ordentlich gesponsort und so ist es kein Wunder, das Nvidia-Karten den Test gewinnen.
So und nicht anders würde es ein ATI-Fan sehen.

Un jetz? Streichen wer alle Benches und ziehen Stöckchen?
 
@ Roger 107
Nein es sollen keine Stöckhechen gezogen werden
aber man sollte dann doch einfach nur Benchs machen von Spielen(&Programmen), die weder von ATI noch von nVidia gesponstort sind.

Das ist wie in alten Tagen mit dem Streit Athlion I vs. P3, da war der Athlon anfangs immer schneller, und alle haben gesagt ja wartet nur bis endlich optimierte Software für den P3 rauskommt...

Na toll dann schreib ich mir doch gleich mein eigenes OS für jedes Spiel und jede neue Hardwarekomponente! (wenn ich es könnte ;))

Was für mich also wirklich zählt, ist die nackte Leistung, und die Leistung, die dann wirklich effektiv rüberkommt, auch mit weiteren 3D Extructions, die man in den Treiber einbaut!
Damit ist nicht gemeint, dass man die Qualität runterdreht um dadurch mehr Leistung zu erzielen, sondern lediglich bessere Algorythmen zum verarbeiten der daten etc.!

Wenn man dann diese beiden Tests nimmt und daraus einen durchschnitt errechnet kommt man meiner meinung nach auf ein relativ aussagekräftiges ergebnis.

Soweit die Theorie ;)
 
@all

es ist wie schon gesagt egal, ob treiber auf benches oder Spiele optimiert sind oder nicht. Was zählt ist der Gesamtdurchschnitt. Deshalb gibt es ja seiten wie CB. Einen Treiber so zu optimieren, der einen erheblichen Leistungsgewinn bei einem Benchmark bringt ist nicht sehr schwer, aber wie sieht es mit 10 Benches aus???
sollen wir dann treiber mit über 100Mb herunterladen??

Wahrscheinlich ist der neueste Deto sehr stark auf mark03 fixiert, dass es bei den anderen Spielen, Benches, keine leistungssteigerung gibt, es gibt sogar einen leistungsverlust.


mfg BOdy
 
Hat mal jemand bedacht, daß die ATI-Karten 3 Pixel-Shader-Ops je Takt und Pipeline machen, die von Nvidia aber nur 2?!

Könnte es auch daran liegen, daß die Nvidia-Karten in solch einem Shader-lastigen Benchmark schlechter aussehen?!

Denkt mal drüber nach. Nicht umsonst läuft selbst DAWN schneller auf den ATIs.
 
"Ohne 6FSAA und a.Filter ist dies nicht möglich. Ich möchte jetzt keine Partei angreifen, aber die Qualitäteinstellungen von Ati sind nunmal besser als die des Nvidia."

Da muss ich dich ein bisschen korrigieren, dank dem DetoFX hat nVidia jetzt die bessere Bildqualität im Anisotropischen Filtering.

nVidia hat zwar immernoch eine schlechtere AA Bildqualität, aber man muss bedenken das das AA von den neuen nVidia Karten bzw. Treibern schneller ist als das der ATI Karten bzw. Treiber.

Ich denk ehr das ist richtig von nVidia gewollt, diese Optimierung, ich hab mir das mal angeschaut, auf einer FX5800U mit dem neuen und dem alten Deto, kann aber in der Bildqualität keine Unterschiede feststellen, zumindest nicht wenn ich das Bild ganz normal betrachte ohne rangezoomt zu haben (Mit nem Grafikprogramm).

Wer weis denn schon überhaupt was genau in dem Patch von 3DMark03 geändert wurde? Es kann doch sein das mehr geändert wurde als gesagt! Also vertrauen kann man da weder ATI noch nVidia noch Futuremark.

Zum Betaprogramm:

Müssen die Hersteller die sich dem Programm anschließen nicht rießige Summen zahlen? Hab gelesen schon, weis einer an wen das Geld geht?

Falls es an Futuremark geht kann ich glaub ich gut verstehen das die nVidia Karten schlecht abschneiden, denn nachdem nVidia da ausgestiegen ist war das wohl Futuremarks Rache... könnte alles sein aber keiner weis es genau und wird es nie erfahren.

Ich hab den DetoFX, hab zwar ne Ti4200 aber der Treiber läuft super stabil, man merkt sogar eine leicht verbesserte AF bzw. AA performence, die aber mehr im AF ausgeprägt ist.

Das Problem von Benchmarks ist das diese immer einen bestimmten Weg einprogrammiert bekommen, so kann man ja auch gut bestimmen was zu sehen ist und was nicht, dies kann eine Grafikkarte ja erkennen und rendert bzw. erstellt diese Sachen garnicht, das wird auch schon in Spielen verwendet.

Die einzig wahren Benchmarks machen sowieso die Spieler selber, erst da merkt man richtig was die Karten für Performence haben. Obwohl man das garnicht als Benchmark bezeichnen kann ;-)

Am besten wäre wenn man bei Tests einfach ein Spiel spielt, z. B. Doom3 und dabei ein Programm laufen lässt das die FPS ermittelt, somit wär das Ergebnis realer als die von einem Benchprog ala 3DMark.
 
"Am besten wäre wenn man bei Tests einfach ein Spiel spielt, z. B. Doom3 und dabei ein Programm laufen lässt das die FPS ermittelt, somit wär das Ergebnis realer als die von einem Benchprog ala 3DMark."

aber das wäre zu aufwendig und ich bezweifle das das eine normale hardware-seite macht. aussedem wie soll man da dann einen genauen, unparteiischen vergleich abliefern? die max und die min framezahl? den durchscnittlichen FSP counter?
auch nicht so gut, dann müsste der tester/spieler ja _genau_ den selben weg laufen um einen fairen vergleich abliefern zu können.

die ganzen spielebenchmarks sind, imo, völlig ok, nur sollte man auch dazu einen kommentar abgeben und nicht nur simple benchen. zu der 5900U hatte zB 3Dcenter das beste review, und die hatten noch nicht einmal eine 5900U vorliegen.
 
Spielbenchmarks können genauso manipuliert werden-> siehe Ati & Quake3 vor einiger Zeit :) - schließlich schießen sich die Tester auch auf eine Handvoll bekannter Titel ein und mit diesen wird getestet ( fast überall ) - wer glaubt die Werte sind letztendlich näher an der Wirklichkeit, sollte mal die Augen aufmachen !
 
Solange meine ATI 9700 und meine TI4600 noch genug Leistung bringen ist's mir egal, wieviel beide Hersteller bei den 3DMark benchies cheaten.
Ich habe beide Teile laufen und seh in der realen Anwendung (sprich Spielen) keinen Unterschied..
Da gibt es kein subjectives Gefühl "Karte XXX ist schneller"
Das "Gefühl" kommt erst dann auf, wenn ich die Framecounter bei einigen Spielen anschalte und dann Werte zwischen 68 und 75 bekomme oder 310 und 330...
aber mal ehrlich: Wayne interessierts?
 
Ja, Nvidia waren und sind schon immer schlechte Verlierer!!!
ATI ist zwar nicht ganz so schlimm wie Nvidia aber sie bescheissen also auch!!!

Naja einen "fairen" Wettstreit gibts sowieso schon lange nicht mehr. Wird eine kleine Firma zu stark für die Großen wird sie halt gekauft und dicht gemacht (schöne Grüsse an Bill).
 
relevante benches sind die, die von spielen kommen, die ICH spiele :)
das sind die, die mich interessieren! alles andere gucke ich mir gar nicht erst an :p
und wenn die spielehersteller nVidia optimiert arbeiten, dann war meine kaufentscheidung für mich halt die richtige wahl, denn ich spiele halt :)
was nutzt mir ne 400-500E teure GraKa, die nur in Benches gut aussieht aber in Spielen nur Probleme verursacht?
ständig warten bis ein bugfix rauskommt? neee... nVidia unterstützt spielehersteller, damit ihre karten auch funktionieren - ohne nachbesserung - und das hat seinen preis, nix ist umsonst ;)
soll ati auch mal kohle an die entwickler überweisen, dann währen ihre karten auch teurer :p
aber die spielhersteller müssen auch entwicklen und testen was halt teuer ist und erstmal keine kohle bringt und wenn da ne million von nVidia rüberkommt damit ihre Karten funktionieren, dann sind beide parteien zufrieden! das ist überall in der wirtschaft so...
 
@115 TheCounter
"Zum Betaprogramm:

Müssen die Hersteller die sich dem Programm anschließen nicht rießige Summen zahlen? Hab gelesen schon, weis einer an wen das Geld geht? "

Also erst mal denke ich sollte nVidia weitaus mehr Kohle zur Verfügung haben als ATI - und weiterhin hab ich gehört, dass die Mitgliedschaft nicht mehrere 100.000$ kostet, wie nVidia das nach ner Pressemitteilung behauptet hat, sondern lediglich 5000$/Jahr.
 
Zurück
Oben