News nVidia und Futuremark: Frieden?

@55

Hinters licht zu führen? Versteh ich nicht.

nVidia hat gezeigt wie leicht man einen Benchmark Optimieren bzw. Manipulieren kann ohne an den Source zu kommen.

Das ändert nix daran das die FX5900U momentan die schnellste Desktop Grafikkarte der Welt ist.

Das ging sowieso von der Marketing Abteilung aus, weil viele nix von dem hier mitbekommen und auf 3DMark03 schauen, da steht halt nVidia jetzt besser da, eigentlich ein super schlauer zug, denn hinters licht führen tuen sie keinen, da die FX5900U wirklich die schnellste Karte ist, also ich versteh das ganz getue net.
 
100% ACK @ der elektriker - endlich mal jemand der es überhaupt versteht. die anderen labern nur mit obwohl sie von der technik dahinter 0 Ahnung haben.
 
@TheCounter
"nVidia hat gezeigt wie leicht man einen Benchmark Optimieren bzw. Manipulieren kann ohne an den Source zu kommen. "
Ach ja, hab ich vergessen... was anderes wollten die ja nie bezwecken... nur aufdecken, wie wenig aussagekräftig der Benchmark sein kann. Sehr löblich. *ig* Äh, aber wieso haben die dann nie gesagt: "guckt her, da seht ihr wie man hier bescheissen kann! nehmt den 3DMurks net!" Plötzlich war's ein Treiberbug... und dann doch ne Optimierung...
Und naja... die Treiber haben sie eh nur so optimiert, weil se nix zu tun gehabt haben, und mal allen zeigen wollten, wieeee man da bescheissen kann! *Achtung - nicht ernst nehmen*

"Das ändert nix daran das die FX5900U momentan die schnellste Desktop Grafikkarte der Welt ist. "
Und mit was für nem riesen Vorsprung!! *ig* (auch bei AA! nu gut, bei allem über 2x AA sieht man keinen Quali-Unterschied mehr, aber wen juckt das schon, gell Counti? *g*)

"eigentlich ein super schlauer zug, denn hinters licht führen tuen sie keinen, da die FX5900U wirklich die schnellste Karte ist, also ich versteh das ganz getue net."
Stimmt... ein schlauer Zug... erst aller Welt erzählen, dass der 3DMurks für'n A**** is, und dann optimieren, dass alle sehen können, wie toll die FX5900U is, ach jo, soo schlecht is der Futuremark ja auch net, wir haben uns jetzt ja auch wieder lieb... *höhö*

Bitte nicht von mir denken, dass ich die FX scheisse finde, überhaupt nicht, aber ich hab doch den Counti so lieb... *ggg*

*lächelnd*
S. =;-]
 
@The Counter !
nun..ich kenne mich mit firmenpolitik aus mein lieber, glaubs mir:)!.....nicht nur vom studium her......naja....aber das ist jetzt egal. Wenn man nicht die einfachsten logischen dinge begreifen kann, dann kann ich nur sagen, dass du verdammt leichtgläubig bist!!!!..und das ist keine beleidigung. Wenn man sich mit der Materie auskennt, dann weiss man sehr genau welche absichten dahinter stecken!....und ich habe recht mit meinem Post Nr.55 !..es ist so!....

PS...es ist mir latte welche karte die schnellste ist!..mir gehts darum zu sagen, dass ihr euch nicht bescheissen lassen sollt!!!!......
 
@63

scho klar, aber nVidia bescheisst doch net, die Karte ist torzdem Momentan die schnellste, also sag mir bitte mit was die bescheissen :-)
 
@62

Naja, sowas nennt man Marketing, davon könnte ATI auch was vertragen ;-)
 
Kacke, immer wieder vergess ich was, ich will endlich ne Edit funktion, sowas hat man an einem tag geproggt (hab ich selber schon gemacht) :-)

Also vorsicht, wer Ironie in meinen Posts findet darf sie behalten :-)
 
"Naja, sowas nennt man Marketing, davon könnte ATI auch was vertragen ;-)"
Hört hört, wie klug! Immerhin widerspricht er nicht...
Ne, hoffentlich bleibt ATI so... deswegen is mir die Firma auch sympathischer... (was für mich kein Grund ist keine nVidia zu kaufen)

" ich will endlich ne Edit funktion, sowas hat man an einem tag geproggt (hab ich selber schon gemacht) :-) "
*gähn* Biet doch mal deine Hilfe und deinen reichen Erfahrungsschatz an...

"Also vorsicht, wer Ironie in meinen Posts findet darf sie behalten :-)"
Leider leider konnt ich noch keine finden... :((
 
@counter
man junge ich muss mir bei dir immer wieder an den kopf fassen
*andenkopffass*
 
hm.. bin mir da nedmal so sicher ob die nvidia karten ned doch tile based rendering könne.. da gabs mal nen treiber der version 7.xx , mit dem konnte ne geforce 2 tile based rendering, damals gabs aber leider nur grafische probleme, dennoch hatte ich mit diesem treiber 20% mehr leistung..

so long.. muH
 
Dinge die im Spiel nicht zu sehen sind werden auch nicht berechnet . Stimmt!

Wenn ich mich nicht irre nennt man es Z-Buffer !

Trotzdem sollte man bei den Benchmark nicht Optimieren, weil sonst die Vergleichbarkeit leidet .

Mfg
 
so wie das grade abläuft

die hersteller bescheissen

futuremark übernimmt herstellertricks in die benchmarks...

das ganze gebenche ist dadurch endgültig fürn ar***!
 
lt. ATi werden deren Optimierungen ja bei der nächsten Treiberversion wieder rausgenommen.

bin gespannt, ob sie das nach der Sache jetzt so beibehalten oder jetzt auch anfangen auf Teufel komm raus zu "optimieren"
 
Nvidia hat doch extra so nen Quatsch wie diese clipping Planes in Hardware eingebaut, sozusagen den "Bench-Cheat-Controller", ist vielleicht sogar ein Teil von CineFX... ;)
 
wenn NVidia die schnellste karte auf'm markt hat, dann haetten sie es noetig uns mit treiber-cheats zu verarschen.

hey TheCounter, wie laeuft's denn so mit deiner Ti4200?
 
@elektriker:
tja hast shcon recht ;) was du aber vergisst _SIE_heben die schnellste Karte, was etliche benches auser dem 'deiner_mienung_wohl_brauchbaren' 3dmark beweisen.
@71) faslch FM hat verstanden was schon etliche game development häuser vrestanden haben 1en gemeinsamen path gibts es ned. Wilstu performance aus einer bestimten Karte rausholen mussu hersteller-spezifische extensions/tools/paths usw benutzen. Du kannst ned auf die schnelle n scheis zusamenschreiben und erwarten das er gleich gut auf jeder architektur läuft. Ich meine bei CPU's ist es auch nicht anders. Und HighLevel SL is sowieso ein muss, hab mich gewundert, dass die shader vom 3dmaak noch low level sind :/ (Die lösung mit spezifischen PATHS und einem 'STANDARD' is eh die beste um alle Vergleiche zu ziehen(sihe au D3)
 
" (Die lösung mit spezifischen PATHS und einem 'STANDARD' is eh die beste um alle Vergleiche zu ziehen(sihe au D3)"

Finde ich auch nicht schlecht, solange das für alle Hersteller gemacht wird... bei Doom 3 gibts ja für den NV30 nen Renderpfad, aber nicht für den R300... :(
Solange das nicht in einseitig optimierten Spielen ausartet dank Sponsoring...
 
Zurück
Oben