News Patch: ATi und nVidia cheaten im 3DMark03

äh, kann ich leider nicht belegen, hab keinen Link dazu gefunden :(
vielleicht weiss noch jemand was dazu?
 
3d mark03 ist nun mal nix wert, wenn ich sehe, daß ein 900mhz rechner mit 9700pro fast 6000pkt bringt und in normalen spielen kaum mithalten kann, dann ist für mich schon alles klar... wer sowas braucht solls machen, für mich ist sowas zeitverschwendung und hat nix über das system auszusagen

grüsse an alle
 
Mir ist es egal ob Ati oder Nvidia in meinen Rechner steckt.
Und es ist ja auch egal ob in den 3dmark 03 beschissen wird, denn wenn sich der Benchmark als nicht mehr zuverlässig outet, werden wir uns nach einiger Zeit auch auf ihn nicht mehr verlassen.

Viel wichtiger finde ich es wie die Grafikarte in Spielen abschneidet!

Mein Kaufargument für die nächste Karte ist welche am besten mit Doom3 zurecht kommt.

Weiß es vieleicht jemand von euch ?
 
@122

Wie es im Moment scheint ist kommt die FX5900 besser mit Doom3 zurecht als die R9800Pro (256 MB; DDR-II). Beide Karten kosten das gleiche, wobei die FX5900 ein stücken schneller ist als die ATI.

Aber Doom3 is ja noch nicht fertig, also erstma abwarten ...
 
Ui, kann ich hellsehen oder was *g*:

"Nachdem Futuremark Ende letzter Woche den neuen Detonator FX als Schummeltreiber titulierte und mit einem Patch die 3D-Mark-Anpassungen des Treiberpakets relativierte, kam heute die prompte Antwort aus Santa Clara. Ein Nvidia-Mitarbeiter, der namentlich nicht genanntwerden wollte, machte seinem Ärger gegenüber dem US-Newsdienst News.com Luft: Futuremark setze alles daran Nvidia in einem "schlechten Licht" zu präsentieren. Der 3D-Mark-Entwickler nehme es dem Konzern offensichtlich übel, dass man das Geld für das extrem teure 3D-Mark-Beta-Programm gespart hat. Nvidia hatte keine Chance seine Treiber dem Benchmark anzupassen, wie es jeder Grafikkarten-Hersteller durfte, der am Programm teilnahm."

Wie ich oben schon gesagt habe, aber wer weis schon, es ist nicht bewießen das nVidia gecheatet hat! Falls doch soll er mir den beweis bitte vorlegen :-)
 
nVIDIA sollte sich mal was besseres einfalles assen als die dofe FX das ist wenn ihr mich fragt eine scheiss serie!
Die FX5800Ultra kam ca. ein halbes Jahr nach der Radeon 9700PRO auf den Markt und wahr kaum schneller...ausserdem ist sie ca.650g. 65db. laut und viel zu heiss, wo die ATI über all das gegenteil war!
Kauft euch ATI!
 
PS: nVIDIA bereits schon wieder einen FX5900 Chip entwickelt, der wieder kaum schneller ist als die 9800PRO! Und bis der auf den Markt ist, ist die 9800PRO schon wieder ca. ein halbes Jahr auf dem Markt!
 
@126

Wow, hast ja echt viel hirn im Kofp ;-)

Also mal wirklich, poste hier nicht so nen schmarn, sondern schau dir mal die Reviews an und die ganze News.

Man sieht das die FX5900U in einigen Spielen (doomIII zb.) deutlich vor der R9800Pro (DDR-II; 256MB) liegt, bei AA und AF!

Die FX5900Ultra und die FX5900 kommt in Deutschland ende Juni/Anfang Juli, in Amerika schon einen Tick eher, also was willst du eigentlich immer mit deinem halben Jahr?

Die Karten kosten gleichviel, wobei ATI selber gesagt hat das die R9800Pro (DDR-II; 256 MB) über 600€ kosten soll, was ich mir aber nicht vorstellen kann, die FX5900Ultra kostet 500-550€ und wäre ja somit deutlich günstiger und dabei auch noch schneller!
 
Vor lauter schneller Tipperei noch fehler reingebracht :-)

Kofp = Kopf!
 
@ The Counter

Du scheinst die ganze Diskussion hier noch nicht erfasst zu haben. Es geht u.a. auch darum, wie einfach vorgegebene TIMEDEMOS manipulierbar sind.

Jetzt kommst du und reibst uns unter die Nase, wie leistungsfähig die FX5900U z.B. in D3 wäre; meinst du, die Treiber sind nicht gezielt darauf hin optimiert worden. Glaubst du, das wären repräsentative Werte?!

Wie leistungsfähig (oder auch nicht...) die ganze FX-Reihe ist kann man mal schön sehen, WENN NICHT GEZIELT UND AUSSCHLIESSLICH AUF DIESE OPTIMIERT WIRD.
 
was im grunde genommen viel wichtiger ist, als was die karten anfänglich kosten: wie schnell die preise fallen werden. und da "traue ich nvidia mehr zu". weil die doch wohl, global betrachtet, insgesamt eine höhere "market share" haben müssen, höhere stückzahlen absetzen wollen.

was ich noch bemerkenswert fand in letzter zeit: das sondermodell tx von ati für medion. es bewegt sich also doch allerhand.
 
@the counter:

"Wie ich oben schon gesagt habe, aber wer weis schon, es ist nicht bewießen das nVidia gecheatet hat! Falls doch soll er mir den beweis bitte vorlegen :-)"

man lese den text der futuremark veröffentlichung mit den acht punkten, da wird der beweis angetreten, genau darum, wg. der beweisführung, geht es ja: na klar ist das cheaten! wenn man in einen treiber eine testerkennung einbaut, die dann "sonderkonditionen einschaltet".

im übrigen ist das aber allgemeiner industriestandard. viele pkw-hersteller haben/&hatten schon immer ihre zünd/einspritzelektronik genauso programmiert: wenn der wagen z.b. auf der rolle einen europäischen messzyklus absolviert, erkennt die elektronik das flugs, und schaltet auf andere werte, konservative werte, z.b. wg. abgas-emssionen. (lamda genau eins, wie es sein soll) was der wagen auf der bahn rauspustet kann was ganz anderes, viel mehr sein, wg. leistungsfördernder gemischanreicherung (lamda 0,9 bis runter auf 0,8). ("unserer soll ja auf der bahn am ende doch schneller sein".)

ich habe meinen neuen mb clk200komp. mal durchmessen lassen, nachdem er eingefahren war: statt der serienmäßig versprochenen 163ps kamen 187 raus, bei lamda 0,93.

jetzt, überarbeitet mit neuem chip (vollastkennlinien mit lamda 0,8), leistungsförderndem luftfilter (k&n), 20% schnellerer kompressorübersetzung macht er 206 ps. so geht das halt. (abgas? na ja.. man fährt ja nicht immer in den bereichen...)

grüße

p.
 
Ich hab nach dem patch 100 3Dmarks mehr *freu*
hab nur 4253.
radeon 9700pro, Catylyst3.4, Athlon XP2000.

cu all
lufkin
 
Ich finde es eine absolute Sauerei, was Nvidia da treibt.
Die wollen damit eigentlich nur Ihren Hardware-Flop vertuschen! Denn sind wir uns doch mal ehrlich, die neue Nv35 ist trotz verbesserter Architektur, doppelter Speicherbandbreite, optimierter Fertigung nicht wesentlich schneller als der "alte" NV30 mit 128bit Speicherbandbreite. In der Vergangenheit, hatte Nvidia in den geraden Chips immer neue Technologien eingeführt (nv10(Gf1), nv20(Gf3), nv30(Gf5)) und diese dann in den ungeraden (nv15(Gf2), nv25 (Gf4), nv35(Gf?)) um fast die doppelte Performance optimiert.
Dies wurde auch auf der Cebit noch großspurig behauptet.
Jetzt schaut die Realität allerdings ganz anders aus!!!
Der neue Chip (Nv35) ist nicht schneller als der alte und man kann die "alte" Radeon-technologie mit lauteren Mitteln nicht schlagen :(( Um nun das Gesicht nicht zu verlieren werden halt die diversen Benchmarks "optimiert" :(:(:(

Ich für meinen Teil bin auf alle Fälle mit meiner TI4200 glücklich und werde nicht vor Anfang nächstes Jahr auf irgendwas anderes umsteigen :D:D:D!
 
Wen interessiert bitteschön "3DMark 03", doch nur den PR-Abteilungen der Hardwarehersteller in Bezug auf die manipulierung der Käufer um Gewinnsteigerungen und Marktweiterentwicklung ihrer Zukunft zu sichern. Ihr vertrockneten Holzköpfe, es gibt doch wohl wichtigeres wie Grafikkarte XV v92.004 oder Treiber 47.11 v10hoch87.

Kann ich irgendwie nich nachvollziehen sry :-/
 
@TheCounter
nVidia hat das Geld für das extrem teure Betaprogramm gespart? Glaubst du selber nicht! Kurz vor dem Ende der Entwicklungszeit fällt nVidia plötzlich ein, dass es doch zu teuer wird und steigt aus? Und Himmel, weiss niemand wieviel das wirklich kostet? *gg* Wie auch immer, ich schätze für nVidia wären das Peanuts...

"Nvidia hatte keine Chance seine Treiber dem Benchmark anzupassen, wie es jeder Grafikkarten-Hersteller durfte, der am Programm teilnahm." "
Glaubst du die hatten in der langen Zeit, in der sie an der Entwicklung teilnahmen, nicht genügend Einblick in den 3DMurks2003? (ich wiederhol mich nur ungern, aber bis 3 Monate vor dem off. Erscheinen war nVidia nun mal Betamitglied). Beweisen kann man nVidia wohl nicht, dass sie cheaten, aber ein plötzlicher Leistungszuwachs von 25%, nicht sichtbare Bereiche werden plötzlich nicht mehr berechnet - Zufall?

Du vergleichst übrigens immer die 5900U preislich mit der 9800 Pro DDRII-256 MB - aber schau dir mal die Preise der normalen 9800 Pro an - der Leistungsunterschied zur 9800 Pro DDRII 256 MB ist z.T. sogar gleich Null (siehe Benches; wer die kauft - najo). die normale 9800 Pro gibt's für 450,-; und bis die 5900U richtig erhältlich ist, wer weiß... jedenfalls schenken sich die 5900U und die normale 9800 Pro sicher nichts, was die Preis-Leistung angeht
Schau dir auch mal die Taktraten an - wenn 9800 Pro und 5900U auf gleichem Takt laufen würden, sähe es sicher noch ganz anders aus. Najo, ich weiss, tut's aber nicht, und ist total Off-topic. Sorry. ;)
 
@129

Ähm, wie wollen die auf eine Timedemo optimieren die sie garnicht kennen?

John Carmack bzw. die Mitarbeiter von ID haben EXTRA ein Testlevel angefertigt um die neuen Grafikkarten zu testen, und keiner von nVidia oder ATI hat gewusst wie das Level aussieht, wie wollen die bitteschön optimieren?

@132

Naja schreiben kann das jeder, die sollen das im Quelltext zeigen, denn behaupten kann ich viel, z. B. das 3DMark03 von anfang an auf ATI zugeschnitten ist und nur deswegen auf ATI Karten so gut läuft, und der Beweis?

ATI ist nicht aus dem Betaprogramm ausgestiegen, hat schön weitergezahlt und hat dadurch jetzt den Leistungsvorsprung ohne ihre Treiber zu optimieren.

Siehste das wär das allerselbe...

@136

Ja, aber wenn ich nur auf den Preis schaue kann ich mir gleich ne GF4MX (o. a.) kaufen.

Ich will halt auch endlich mal ne gute Grafikkarte, hatte bis jetzt immernur eine die schon mindestens 8 Monate aufm Markt war. Und da die neue FX eine ziemlich gute Leistung hat, und das auch mit AF und AA werd ich die mir halt holen. Wenn ATI endlich mal ihre noch paar kleinen Kinderkrankheiten (z. B. endlich mal ne richtige Linux unterstützung) ausbügeln würden, würd ich es mir "vielleicht" überlegen ne Karte von denen zu Kaufen.
 
genau!
3dmark ist nen show-off produkt. sieht wirklich schön aus aber sagt so gut wie gar nichts aus. mir wäre es auch lieber wenn ihr mehr spiele benchmarken würdet. andere seiten machen das sogar noch zusätzlich zu 3dmark.
aber ehrlich gesagt überfliege ich eure tests eh nur, gerade weil es so "möchtegern" mässig gemacht ist. gibt genug andere die viel besser und objektiver testen.
 
ach kinners!

Amiga ist besser als Atari ST!
vorallem was die Grafik angeht!
 
Zurück
Oben