Futuremark und nVidia haben sich wieder lieb!

Original erstellt von TheShaft
Meine R9700 ist auf Radeon 9800 Pro Niveau übertaktet - da geht das schon ;)

Hier siehste übrigens die Cheats von nvidia (nicht nur im 3dmark - überall) :

http://www.beyond3d.com/forum/viewtopic.php?t=6042

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=74005

Also Zoomst du wohl immer Bild für Bild ran? Ich hab mir das, wie ich schon öfters gesagt habe, auf einem PC bei einem Computerhändler den ich sehr gut kenne angeschaut. Der Vorteil, er hatte 2 PC's, so konnte man das super vergleichen. Ich konnte aber keinen Unterschied in der Bildqualität feststellen, vielleicht liegt es daran das es in Echzeit abgelaufen ist.

Zu dem unteren link, mit dem AF/AA. Bei UT2003 sieht man deutlich das das AF bei akitivertem AA beim 44.03 besser, vor allem viel schärfer ist als mit dem 40.09 oder anderen. Wie schon gesagt ist das AF insgesammt besser als das von ATI.
 
Original erstellt von TheCounter
Also Zoomst du wohl immer Bild für Bild ran?

darum gehts doch überhaupt nicht...
Es geht darum, dass die Bildqualität verschlechtert wurde - und das wurde sie, wie du eindeutig siehst...

Klar, man sieht die Optimierungen nicht so sehr - aber die GF-FX 5900 Ultra hat soviel Leistung, wieso muss sie die Bildqualität verschlechtern ?
Das hat nur einen Grund - mehr Punkte gegenüber denjenigen zu bekommen, die die Szene korrekt rendern - also ein 100%iger Cheat...
 
ATI hat nicht korrekt gerendert, ATI hat auch gecheatet, vergess das bitte nicht.

Außerdem, bevor ein Spiel (ist jetzt egal welches) mit 10 FPS läuft, nehm ich ein bisschen schlechtere Bildqualität (Die sieht man aber ja nicht) in kauf um es mit 30 FPS zu zoggn.

Is doch so oda?

Da könnt ich genauso sagen, die R9800Pro hat so viel Leistung, wieso muss die die Bildqualität verschlechtern?

Bei ihr sieht man es halt auch nicht, also is es egal.

nVidia hat gezeigt wie leicht ein Benchmark manipulierbar ist, genau DARUM gehts.
 
Habt ihr das hier schon mal genauer angeschaut ? :

http://mirror.ati.com/shopati/promotions/halflife2.html

"Half-Life® 2 is optimized to run on the hardware of ATI’s newest Direct X 9.0 graphics RADEON™ 9800 series of cards. Combined with the latest Pentium driven PC"

lol, also wirklich, das ist sicher mehr potentiele Käufer-Anlockerei als sonst was denke ich. Und was "Pentium" im Satz betrifft, da hat ATI wohl mit Intel nen kleines Marketing-Abkommen :D ;) Wird auf nem AthlonXP3000+ mit GeforceFX sicher ebenso gut laufen, mann was für ne Verarsche :rolleyes: oder will ATI damit sagen das Game wäre speziell für den P4 SSE2 oder Hyperthreading-optimiert, glaub ich nicht, dafür steckt das Spiel schon zu lange in der Entwicklung um das zu aufwendig noch reinzuintegrieren.
 
Zuletzt bearbeitet:
Original erstellt von TheCounter
ATI hat nicht korrekt gerendert, ATI hat auch gecheatet, vergess das bitte nicht.

Außerdem, bevor ein Spiel (ist jetzt egal welches) mit 10 FPS läuft, nehm ich ein bisschen schlechtere Bildqualität (Die sieht man aber ja nicht) in kauf um es mit 30 FPS zu zoggn.

Is doch so oda?

Da könnt ich genauso sagen, die R9800Pro hat so viel Leistung, wieso muss die die Bildqualität verschlechtern?

Bei ihr sieht man es halt auch nicht, also is es egal.

nVidia hat gezeigt wie leicht ein Benchmark manipulierbar ist, genau DARUM gehts.

Wieso drehst du meine Aussage einfach um ? :o
ich habe nie bestritten, dass ATi auch gecheatet hat (nur hat ATi im Gegensatz zu nVidia nicht die Bildqualität verschlechtert, da sie nur den Shadercode in ner anderen Reihenfolge ausgeführt haben) - aber ok ATi hat auch gecheatet...

Aber du hast bestritten, dass nVidia cheatet, was aber derart offensichtlich ist, dass man es nicht leugnen kann...

Sicher, wenn man durch geringe Bildqualitätseinbußen die Perfomance in einem Spiel verdreifachen könnte, wärs in Ordnung...
Aber falls es dir noch nicht aufgefallen ist - 3Dmark ist kein Spiel, also bringt hier mehr Leistung eigentlich garnichts, außer den Kunden hinters Licht zu führen - deshalb ist es nicht nur cheaten, es ist eine Vortäuschung falscher Tatsachen...
Anstatt mir zu unterstellen, dass ich sachen sage, die ich nie gesagt habe, solltest du deine Aussagen mal überdenken und nicht nur meine Aussagen umdrehen...
 
Original erstellt von TheShaft
Wieso drehst du meine Aussage einfach um ? :o
ich habe nie bestritten, dass ATi auch gecheatet hat (nur hat ATi im Gegensatz zu nVidia nicht die Bildqualität verschlechtert, da sie nur den Shadercode in ner anderen Reihenfolge ausgeführt haben) - aber ok ATi hat auch gecheatet...

Aber du hast bestritten, dass nVidia cheatet, was aber derart offensichtlich ist, dass man es nicht leugnen kann...

Sicher, wenn man durch geringe Bildqualitätseinbußen die Perfomance in einem Spiel verdreifachen könnte, wärs in Ordnung...
Aber falls es dir noch nicht aufgefallen ist - 3Dmark ist kein Spiel, also bringt hier mehr Leistung eigentlich garnichts, außer den Kunden hinters Licht zu führen - deshalb ist es nicht nur cheaten, es ist eine Vortäuschung falscher Tatsachen...
Anstatt mir zu unterstellen, dass ich sachen sage, die ich nie gesagt habe, solltest du deine Aussagen mal überdenken und nicht nur meine Aussagen umdrehen...

Nur weil du nicht siehst das die Bildqualität bei dem Cheat von ATI schlechter ist, glaubst du auch das die nichts dran Manipuliert haben?

Ich seh das bei nVidia nämlich auch net, da sieht man keinerlei Bildunterschied, exakt das selbe.

nVidia hat halt das bessere Marketing, die meisten Käufer bekomm nix mit vom angeblichen Cheat (Was reine Optimierung ist, wie bei ATI auch) und so verlassen sich viele auf 3DMark03, wo nVidia besser dasteht :-)

Mir solls egal sein, ich hol mir meine FX5900U denn ich weis das ich dann ne gute Grafikkarte habe. Einzige Bildunterschiede gibts beim AA und AF, ersters ist bei ATI besser, was man in Standbildern sieht, AF eben bei nVidia.

Hab auch garnet gesagt das 3DMark ein Spiel ist, ich hab ja extra von einem Spiel geredet, und net von 3DMark. Und da hat ATI genauso Optimiert wie nVidia.
 
Original erstellt von TheCounter
Nur weil du nicht siehst das die Bildqualität bei dem Cheat von ATI schlechter ist, glaubst du auch das die nichts dran Manipuliert haben?

Futuremark hat in ihrem Statement gesagt, dass es bei ATi keine Bildverschlechterung gibt und die müssen es ja eigentlich wissen ;)
 
Original erstellt von TheShaft
Futuremark hat in ihrem Statement gesagt, dass es bei ATi keine Bildverschlechterung gibt und die müssen es ja eigentlich wissen ;)

ATI ist schön im Betaprogramm geblieben und hat schön brav weitergezahlt ;)

Da kann man viel sagen wenn der Tag lang ist, für Geld macht man heutzutage fast alles :D
 
ja, das mit dem geld sieht man besonders daran :
https://www.computerbase.de/2003-06/nvidia-und-futuremark-frieden/

ps:
33195_2b.jpg


^^
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
naja davor hatte ati 9monate lang die bessere karte - wär ja peinlich wenn nvidia garnix mehr entgegenzusetzen hätte...
 
Ich verstehe garnicht, wieso sich alle über nVidia aufregen.
Die "Cheats" sind für mich ganz einfach programmspezifiezierte Optimierungen der Treiber, die völlig legal sind.

Und genau aus diesem Grund :
Der 3Dmark ist ein rein unabhängiger Benchmark, der nicht offiziell als Leistungsindex dient.
Die Ergebnisse sind nunmal absolut nicht rechtkräftig und verbindlich.

nVidia hat anscheinend erkannt, dass es ziemlich viele Idioten gibt, die stundenlang vor diesem Benchmark sitzen und ihm somit einen höheren Standpunkt zuweisen, als er eigentlich verdient. Keiner zwingt einen dazu, diesen Bench als Leistungsmaßstab zu nehmen.
Deshalb ist jeder auch selber schuld, wenn er den 3D Mark als Kaufargument für eine Grafikkarte heranzieht. Sry aber es ist doch so.

Ständig wird rumgeheult "Ich hab zu wenig 3DMarks" blablabla, und wenn man ihnen mehr 3DMarks liefert, passt es ihnen auch nicht.
Wie kann man sowas "Cheat" nennen, wenn etwas keinen offiziellen Bezug auf den Wettbewerb hat.

Es ist schlichtweg Marketing und Marketing orientiert sich immer am Verbraucher.
Die Community ist selber schuld, indem sie ständig auf den Benches von Futuremark rumreitet und ihnen oft einen so hohen Stellenwert zuweist.

Mit Betrug oder Verfälschung der Leistung hat dies überhaupt nichts zu tun,
oder habt ihr etwa noch nie eine dieser Homeshopping-Sender im TV vielleicht für 10minuten mal gesehen. Dort werden Produkte genauso hochgelobt und mit allen Mitteln versucht, dass Produkt in einem guten Licht darstehen zu lassen und eventuelle Schwächen zu verheimlichen.
Und nichts anderes hat nVidia gemacht...

Ich möchte weder nVidia verteidigen oder deren Maßnahmen gutheißen,
aber ich kann einfach nicht verstehen, wie man sich an so einer Sache hochziehen kann. Dies ist es einfach nicht wert.

mfg Tweaki4k
 
Das ist ja so was von DÄMMLICH was nutz mir ein Benchmark wo ich ständig durch nen neuen Treiber mehr Punkte bekomme ich will doch Testen wie schnell meine Karte ist und ob mir gerad das Üb ertakten was gebracht hat und was bringt es mir wenn ich durch nen Treiber ständig mehr Punkte habe dann habe ich ja GARKEIN vergleich mehr zu normalen Spielen.
Ich habe doch Überhaupt kein Vergleich mehr zum Vorherigen Benchmark wenn ich ständig durch nen neuen Treiber mehr Punkte bekomme die eigentlich nicht real sind und nur quatsch sind.
Ich mein was soll der sch**ß

Ich muss aber wirklich sagen das es ziemlich ARM von nvidia ist sowas zu machen aber anscheinend haben sie es nötig da ihre GK´s zu lahm sind.

Sorry ich hatte oft ne Nvidia KArte aber sowas kann ich nicht Verstehen.

Zum Glück hab ich jetzt ne Ati die nutzen auch Optiemierungen aber nicht in dem Maße wie Nvidia
 
Original erstellt von kinetixzz16
Das ist ja so was von DÄMMLICH was nutz mir ein Benchmark wo ich ständig durch nen neuen Treiber mehr Punkte bekomme ich will doch Testen wie schnell meine Karte ist und ob mir gerad das Üb ertakten was gebracht hat und was bringt es mir wenn ich durch nen Treiber ständig mehr Punkte habe dann habe ich ja GARKEIN vergleich mehr zu normalen Spielen.
lol ?
Es gibt auch noch genug andere Benchmarks.
3Dmark ist nicht alles...

mfg Tweaki4k
 
Gab es da nicht mal einen Chip namens Kyro und Kyro2 dem es mittels TBR gelang als technisches Wunderwerk da zustehen weil er nur die sichtbaren Bereiche renderte? So, und nun macht NV das gleiche und es ist cheating? LOL
 
Ich habe aber keine Lust jetzt noch nach anderen zu suchen das ist meiner Meinung nach der bekannteste und am einfachsten zu bedienende Benchmark.
Und glaubt ihr nicht auch das wenn mehr andere Benchmarks benutzt werden das bei denen nicht auch gecheatet wird ....
 
Original erstellt von GRAKA0815
Gab es da nicht mal einen Chip namens Kyro und Kyro2 dem es mittels TBR gelang als technisches Wunderwerk da zustehen weil er nur die sichtbaren Bereiche renderte? So, und nun macht NV das gleiche und es ist cheating? LOL

Da verwechselst du was - nvida rendert ganze teile einer Szene nicht - da die Kamera aber fix ist sieht man das nicht...
Das TBR des Kyro sorgt nur dafür, dass nicht zwei Tiles (Kacheln) an der selben Position mit unterschiedlichen Z-Werten gerendert werden ;)
Sowohl ATi und nvidia haben softwaremäßige Lösungen die das TBR nachahmen - dies ist aber natürlich kein Cheating, sondern legitim im Treiber integriert (HyperZ bei Ati und LMA bei nVidia)...
 
ihr habt da was nicht verstanden:
der kyro hat elemente, die im sichtbaren bild hinter anderen liegen, und somit für den anwender nicht sichtbar waren, nicht mitberechnet.

nvidia hat beim bechmark gecheatet! da die kamera immer feste positionen hat konnten nestimmte bereiche einfach weggelassen werden. würde sich die kamera drehen, so wie in einem spiel, würde plötzlich die welt um einen schwarz erscheinen. somit wurde nicht wie angegeben die szene berechnet, sondern nur ein ausschnitt der szene.

stell dir vor, es gibt ein wettessen: wer hat als erstes alle 10 hotdogs aufgegessen. die kamera zeigt auf kandidat 1, dieser isst in dieser zeit 3 hotdogs. die kamera blendet rüber zu kandidat 2, dieser ist bei hotdog nummer 4 - und da die kamera nicht zuguckt, schiebt kandidat 1 mal eben 3 hotdogs unter den tisch, und liegt plötzlich vorne. wer ist also schneller? der, der alle gegessen hat, oder der, der 3 nicht mitgegessen(mitberechnet) hat?

also ist das klar cheaten! und wenn man jetzt sagt, nv meint es immer ehrlich mit einem, der hat entweder einen vertrag mit nv oder ne rosarote brille auf!

PS: nicht TBR und HSR verwechseln! TBR war das tile based rendering, dass das bild in kleine kacheln geteilt hat und dann jede berechnet hat, da jede nur einen bruchteil der daten hatte, konnte es viel schneller berechnet werden.
HSR war hidden surface removal dabei wurde vor berechnung und texturierung ein tiefentest durchgeführt, wodurch versteckte pixel nicht mitberechnet wurden
 
Zuletzt bearbeitet:
@karuso

das ändert nix dran das das was nicht gerendert wurde auch nicht zu sehen wäre wenn es gerendert werden würde :-)

Außerdem, ist doch egal nVidia hat so und so im Moment die bessere Graka, also stimmts doch jetzt mitm 3DMark wieder :D

Deswegen ist die Leistung nicht schlechter, don't forget that!
 
Zurück
Oben