News Patch: ATi und nVidia cheaten im 3DMark03

Wisst ihr was am geilsten ist?

Machne verfluchen nVidia richtig, die wünschen denen den Tod, aber die meisten haben selber nVidia in ihrem PC drin, zwar nicht als Grafikkarte aber als nForce Board, is mir nur so aufgefallen :-)

Ich find das irgendwie total witzig
 
@TheCounter
oder vielleicht wünschen die nvidia den Tod nur in dem Graphikkartenbereich. Chipsätze sollen die fleissig weiter basteln, aber in der 3D Arena ist es an der zeit das nv mal ein bisschen CROW isst.

ausserdem, TheCounter, du neigst dazu deine Argumente so ziemlich an den haaren zu ziehen. Hier ein wenig Unterricht:

1. Wenn du anmerkst dass nvidia's AF besser als ATIs ist, vergiss nicht zu erwähnen dass es auch langsamer ist!
2. Wenn du bei ATI bemängelst dass die immernoch bei 0.15 micron sind, vergiss nicht zu erwähnen dass nvidias high-end karte 11/2-mal länger ist, je nach hersteller 2 slots belegt und mit doppelter turbine gekuelt sein muss.
3. Wenn du unbedingt drauf behaaren musst dass "die 5900U ne bessere Leistung als jede ATI Graka hat", dann bitte nicht auslassen dass in DX9 (full floating-point pipeline, 2.0 shaders) die NV3x serie weit, weit hinterherhängt. (siehe Dawn, die schneller auf ner 9700Pro "emuliert" läuft als direkt auf 58/900U gerendert).
4. Wenn du im Z4 umhercruisen tust, unbedingt den Top zumachen. Wir wollen nicht dass du dich nochmehr brainfreeze herholst, als ohnehin schon vorhanden ist.
 
@161

Zu 1.) Klar ist es langsamer weil es besser ist, wie beim AA bei ATI, auch langsamer da besser.
Zu 2.) Ich hab nicht bemängelt das die in 0.15 Micron fertigen. Außerdem ist es egal ob die Karte nun 1 oder 2 Slots belegt, da man den zweiten Slot fast nie nutzt, auch wegen Sharing problemem (IRQ). Die FX5900U muss nicht mit doppelter Turbine gekühlt werden.
Zu 3.) Den Abstand konnte man so gut wie wett machen mit der FX5900U.
Zu 4.) Neidhammel oder was? Einen Roadster muss man offen fahren. BMW und Porsche bauen immerhin noch die einzigen echten Roadster die es gibt, da sollte man schon genießen offen zu fahren.

Wenn nVidia im Grafikkartenbereich nichtmehr sein würde (was so gut wie nicht passieren wird) dann würde ATI in abständen von 2 Jahren extrem teure und nicht so leistungsfährige Karten rausbringen, da keiner mehr da ist der parolie bieten kann. Wer will schon ne "schrott" Karte für 800€ oder mehr.
 
Update zu ATI-Cheats :

"Christ Evenden, Public Relation Director bei ATI, erklärt das der 1,9% Leistungsgewinn alleine aus dem Game Test 4 hervorgeht. Laut Christ Evenden hat ATI nur die üblichen Optimierungen durchgeführt, um die Architektur richtig auszunutzen zu können. Ähnliche Optimierungen werden bei Spielen angewendet, um bei gleicher Bildqualität die Bildwiederholrate zu steigern. Um die Legitimität des 3DMarks 2003 nicht noch weiter in Frage zu stellen, wird ATI die Optimierungen wohl schon aus dem nächsten Cataylst-Treiber entfernen."

Quelle : http://www.ati-news.de/

Jetzt muss also ATI demnach doch normal-sinnvolle Optimierungen entfernen die laut ATI nicht nur bei 3DMark03 sondern auch auch bei zukünftigen DirectX9-Spielen was bringen würden und daher gar keine Cheats waren.Das ist doch lächerlich. Es ist klar das wenn der DirectX9-Test (Nature-Bench) 1,9% Leistungsgewinn bringt und die ATI seine Karten zukunftsweisend auf DirectX9-Perfomance optimiert hier dann grössere Gesammtwertungsunterschiede entstehen zumal das Endergebniss nur eine Summe der Gametests ist.

Soll jetzt ATI nicht mehr optimieren weil die ANGST vor Cheatvorwürfen vom Medien-Gott "Futeremark" schon so gross ist ? Wo führt das hin ? Sonst heisst es wirklich bald mal bei den Treiberentwicklern : "hmm...also wenn wir hier den einen Pixelshader zu sehr optimieren könnte Futermark wieder lästern und das bringt schlechte Medienechos, na lassen wir das lieber, schade, hätte bei Doom3 noch bisi was gebracht, naja müssen wir halt kastrieren"

Seht es mal so rum Leute !
 
dat is ja n wurstblinkerverein ey!! find ich ganz schön dreißt von denen.... Aber im Krieg is leider ALLES erlaubt :\

bye hübie
 
ja, da kann man froh sein dass nvidia sich wohl nicht mehr um den scheiss benchmark kümmert (laut der neuesten aussage).
nur wegen so einem scheiss spiele auch langsamer machen nur weil es angeblich ein cheat ist... und dabei sieht man es nichtmal. für mich ist alles legitim um mehr geschwindigkeit zu bekommen, solange die qualität nicht in mitleidenschaft gezogen wird.
 
40) NV40/R500 schrieb am 23.05.2003 um 19:34 Uhr:

ist mir ziemlich egal wenn die bei 3dmark cheaten!! und wenn sie 30.000 punkte bekommen ist mir das egal im endeffekt zählt ja doch die spiele-performance und da sollen sie ruhig optimieren. ihr wisst sicher noch wie dei ati 9700 rauskahm, da waren alle entäuscht weil sie auch nicht die schnellste war und oft von der gf ti 4600 geschlagen wurde. mit der zeit aber hatte ati die treiber soweit optimiert dass sie jetz fast alle karten schlägt. ist doch toll wenn optimiert wird, gratis power für uns!! 3mark ist halt nur ein benchmark, ich persönlich finde es trotzdem besser spiele zu benchen weil da sind die ergebnisse dann eindeutig, und ich kann wirklich sehn ob diese neue graka in meinem lieblingsgame schneller oder langsamer ist als die konkurenz
---------------------------------------

da seht man genau das du ein jämmerlicher kleiner drecks nvidia trottel bist der null plan hatt und die schwanzgrösse mit der agp bandbreite vergleicht!

echt es weiss doch jeder anti und nvida wixer das dir r300 SERIE(9500/9700 OHNE ANTI_ALIAS UND ANISOTROP FILTER IN ETWA GLEICHSTARK IST WIE GF 4TI Reihe! man echt du trottel liest du keine hardwarerewis hääää ALSO NOCHMAL DU PENNER NVIDIA UND ATI OHNE ANTIALIAS GLEICH Schnell c
HOFFE DAS IHR nvidia vOLLtROTTELS dAS ENTLICH MAL BEGREIFTa.
 
LOL UND GENAU AUCH SOLLCHE "IHR SEIT SCHEISSE TYPEN" MACHEN AUCH EMULE KAPPUT FUCK YOU IHR DRECKS daus..........HOFFE EURE SEELEN FAHREN ZUR HÖLLE,UND RÖSTEN DORT FÜR DIE EWIKEIT
 
Ihr habts immer noch nicht geblock?!

Die Cheats im 3dMark kommen eh in keinem Game zum Tragen, sind also verschwendete Zeit.
 
NATURLICH NUR UNTER t6l IND DER vs LEISTUNG ISS SIE ETWA 4 MAL SCHNELLLER
 
@a
du hast es anscheinend nicht geblockt:
der 3Dmark wird leider gottes überall als vergleich herangeholt, und dort wird nun eine leistung gezeigt die die karte nicht hat. ist also nur um kunden zu fangen, also leuten etwas vormachen, verarschen, an der nase rumführen!
und wer sagt jetzt dass das nicht auch in den spiele benchmarks der fall ist? der treiber erkennt das spiel mit der timedemo und macht einfach ein paar berechnungen weniger, macht dann im ergebnis 15% mehr, auch wenn se im wirklichen spiel nie so schnell sein wird..
 
@Computerbase

Könnt ihr bitte die Beitrage 166, 167 und 169 entfernen?

Da sieht man mal das Pisa einerseits auch recht hatte, er ist der lebende Beweis dafür.
 
also
cheaten is lame
aber so alt wie die manschheit - solange das früh genug rauskommt isses doch egal oder ? die 5900 gibts ja noch nich im handel ...

aber: nvidia scheint seinem namen alle ehre zu machen ^^ (invidia = Neid)
 
Ich hab das Gefühl das die FX5900Ultra der R9800Pro keine Konkurenz machen soll, sondern die FX5900. Speicher und Taktung ist jetzt bekannt, 128 MB bei 400 MHz Chiptakt und 425 MHz Speichertakt.

Die Leistung dürfte also mit einer R9800Pro gleichaufliegen. Dabei ist die FX5900 noch 100-150€ billiger als die FX5900Ultra, also auch somit billiger als eine R9800Pro :-)

Bin schon auf die ersten Benchmarks gespannt.
 
@TheCounter
1) die unterschiede zw. ATIs AF und nvidias AF sind schwer auszumachen ohne color mip-maps. "In game" sind die unterschiede 99.9% nicht erkennbar. Die bessere AA von ATI hingegen kann jeder Blinde ausmachen. Dies kann man nicht verleugnen, da sogar ATIs 4xAA bessere kantenglaetung bietet als nvidias 8SxAA.
2) du hast bemaengelt dass die R360 in 0.15 micron gefertigt wird und somit keine weiterentwicklung im herstellungsprozess darstellt. dies kann jedem wurscht sein, solange ATIs chips bei 0.15 micron weniger strom fressen als nvidias 0.13 micron siliconwonders.
3) den abstand hat man NICHT WETTGEMACHT! Wo kommst nur her mit dem schmarrn?
http://www.hardware.fr/news/lire/23-05-2003/
GT4 VS2.0 PS2.0
9800Pro: 33 18,1 48,4
5900U: 19 10,9 20,9

ähnliche resultate ergeben sich mit dem Shadermark test. Doom3 läuft halb so schnell mit dem ARB2 path als mit dem NV30 optimiertes (sprich fx12 und fp16) codepfad.
und wie ich schon gesagt habe, nvidias Dawn-demo läuft 15% schneller durch nen OpenGL-wrapper auf einer 9800P, als direkt auf die 5900U.
all dies scheint mir nicht drauf anzudeuten dass die NV35 reihe den abstand zu der R3xx wettgemacht hat! aber es ist dein recht weiterhin an märchen zu glauben.
4.) Neid? nee, ich fands nur lustig (und irgendwie klischeehaft) dass jemand der mit Fälschlichkeiten nur so um sich wirft, einen Z4 fährt.
 
@176

Ich glaub nicht an Märchen sondern an die Realität, und da ist nunmal die FX5900Ultra die schnellste Desktop Graka der Welt.

Zu 3.) Wen interessiert das mit Doom3, man sieht doch ganz klar das es auf einer FX5900Ultra schneller läuft als auf einer R9800Pro, vor allem mit AA und AF läuft es schneller als bei ATI Karten. Außerdem läuft die Demo nur inoffiziell, wer weis nicht was da alles Optimiert wurde, wenn ich mir die Bilder anschaue ist die Bildqualität auf einer FX besser als bei einer R9800Pro bei der Dawn Demo.
 
@177
ach so, dich interessiert nicht wie gut (oder schlecht) deine $500 teure DX9 cinematic-crap-fest mit DX9-shaders zurechtkommt?????

alles klar.

zum Dawn demo: brille runter! du schaust dir nicht FX bilder, sondern nvidia PR material. wenn zu links zu Dawn auf FX58/900 gerendert hast, her damit.
 
@elektriker
frag ihn doch mal ob er überhaupt Z4 fährt oder nur mitfährt *gg*

@Counter
Doom III wird vermutlich erst in nem halben Jahr erscheinen - also nicht zu voreilig sein
die Dawn-Demo läuft übrigens sogar schon auf ner Radeon 9500 flüssig (nein, nicht nur auf 640x480 *g*)
 
Zurück
Oben