Half-Life 2: Benchmarks ungültig!

Aha, du weißt mehr als alle andern ?
Selbst nVidia sagt, dass sie nicht glauben, dass Valve wegen dem Vertrag mit ATi das Spiel auf ATi-Karten optimiert hat und nVidia absichtlich ausbremst.
 
Original erstellt von Crazy_Bon
Wieso sollten die Benches von Valve falsh und ungültig sein?
Sie stützen auf die zuletzt offiziellen Treiber, der experientielle Beta-Kram haben in einem Benchmark nichts zu suchen.

1. Wird keiner nen alten Deto 4X.XX für HL2 benutzen
2. Wurde der Deto 5X.XX mit Valve zusammen mitentwickelt, nur wollte ihn Valve nicht benutzen, weil es anscheinend ein "Cheat-Treiber" gewesen wäre... IMHO ist ihnen das schon ein paar Woche vorher aufgefallen und nicht erst kurz vor der Präsentation und zweitens habe ich bis jetzt immer noch keinen Screenshot-Vergleich gesehen, der hier diesen Sachverhalt beweisen soll
3. Kann ich mit meinem gesunden Menschenverstand nicht glauben, dass ein FX5900 Ultra von einer R9600 Pro geschlagen wird! Wenn dem so ist, dann hat nicht nVidia scheisse gebaut, sondern Valve! Denn auch wenn die CineFX-Architektur anders zu behandeln ist: Das ist kein Grund, warum die Leistung so niederschmetternd sein sollte --> auf wirkliche Berichterstattungen abwarten, die Sache stinkt gewaltig... Und das sag ICH, der eine R9500 Pro hat und eher von den ATI-Produkten angetan ist, aber fair sollte man dennoch sein!

Und zu den Gunmetal und 3dMark2k3 Benches, die Darstellung der Benchergebnissen von Gunmetal ist übertrieben dargestellt wegen der 3.16 mehr Frames, in 3dMark2k3 reicht es mit 3 bzw 1.2 mehr Frames auch nicht für ein Hauptgewinn.

Bei Gunmetal sinds 10%. Klar ist der Vergleich übertrieben dargestellt, aber warum sollte nVidia nicht die Leistung in dem Maße gesteigert haben? Es ist IMHO denen ihre eizigste Möglichkeit, überhaupt noch was für zukünftige Spiele zu reißen... Mir ist es lieber, wenn wir zwei ähnlich starke Hersteller haben, als einen der "roxxxxooort" und der andere, der "suxxxxooort" wie ich andauernd von beschränkten Kiddies lesen muss! ;) Oder glaubt einer wirklich, dass mit diesen "Benches" das letzte Wort geredet wurde? Jetzt fängt doch die Schlammschlacht erst richtig an, wird schlimmer als 3Dfx vs. nVdia!!!
 
Zuletzt bearbeitet:
Original erstellt von Riptor
2. Wurde der Deto 5X.XX mit Valve zusammen mitentwickelt, nur wollte ihn Valve nicht benutzen, weil es anscheinend ein "Cheat-Treiber" gewesen wäre... IMHO ist ihnen das schon ein paar Woche vorher aufgefallen und nicht erst kurz vor der Präsentation und zweitens habe ich bis jetzt immer noch keinen Screenshot-Vergleich gesehen, der hier diesen Sachverhalt beweisen soll

Was nützt ein Screenshot-Vergleich?


Lies mal meinen obigen Beitrag... ;)
 
Original erstellt von Crazy_Bon
Sorry Riptor, hast du eigentlich deinen ersten Beitrag hier überhaupt selbst gelesen?
Da stehen die Einwände von Valve drin, warum sie nicht den Deto 5x.xx verwendeten, sondern den letzten offiziellen 45.23 (von wegen 4x.xx).

Sorry, wer kontrolliert das? Reden können die viel, und ich bin mir sicher, dass denen das nicht kurz vor der Präsentation aufgefallen ist! :D

Original erstellt von PuppetMaster
Was nützt ein Screenshot-Vergleich? Lies mal meinen obigen Beitrag... ;)

Jop, das stimmt, trotzdem ist es mir nicht ersichtlich, dass ab dem Deto 5X was faul sein sollte... Ein Screenshot-Vergleich möchte ich deshalb, weil Optimierungen ohne IQ/BQ Verlust IMHO akzeptiert werden sollten. Deshalb: Immer zu sagen, nVidia würde ja mit dem Deto 5X cheaten, ist eine Sache, die man nicht einfach so pauschalisieren kann, dazu sollte so ein Test erstmal von einer unabhängigen Seite reproduzierbar sein, und das ist derzeit noch nicht mögglich. Deshalb: Abgerechnet wird am Ende, und was bringts, wenn ATI jetzt so gut dasteht, dass Ergebnis aber am Ende auch nicht mehr so unschlagbar ist? Es geht mir nicht darum, hier irgendwen dafür verantwortlich zu machen, aber IMHO sind diese Benches nicht gerade aussagekräftig und ich sage nochmal: Einfach mal abwarten, was die finalen Tests bringen. Jetzt ein Urteil zu Fällen, nur weil so ein Medienrummel inszeniert wurde, halte ich für voreilig.
 
Original erstellt von Riptor
Jop, das stimmt, trotzdem ist es mir nicht ersichtlich, dass ab dem Deto 5X was faul sein sollte... Ein Screenshot-Vergleich möchte ich deshalb, weil Optimierungen ohne IQ/BQ Verlust IMHO akzeptiert werden sollten.
Optimierungen ohne Qualitätsverlust können aber auch speziell auf ein Benchmark zugeschnitten sein, sodass du im Spiel selbst nichts mehr von der Optimierung merkst. Siehe 3DMark03. Dort hat nVidia die Treiber genau auf den Pfad abgestimmt, den die Kamera fährt. Mindestens so einfach ist es also, das für den HL2-Benchmark zu machen.
 
Riptor, du hast nicht aufgepasst, was Stormbilly geschrieben hat.

Nvidia wird nur die Benchmark option von HL2 optimieren, jedoch im Spiel, wo diverse und vor allem nicht vorhersehbare Kamera-Einstellungen vorkommen wird die Optimierung nicht greifen, das ganze ruckeln und der Käufer, der sich extra auf die HL2 Benchmarks verlassen hat wird sowas von angepisst sein.
Desweiteren habe ich bereits irgendwo Screenshot-Vergleiche gesehen und kann es bestätigen, das es mal wieder Cheater-Treiber sind. Die Bildqualität ist STARK gesunken, um ein Paar Frames mehr zu erhaschen.

Sollten die Optimierungen auch im Spiel greifen würde dem Nvidia-Kunden zwar eine beschissen Bildqualität geliefert, aber wenigstens könnte er das Spiel dann wenigstens ruckelfrei spielen.

Und damit keiner vergisst wie ich Nvidia gegenüberstehe:
Nvidia war manipulativ, ist manupulativ und wird manipulativ bleiben!

Gruß
Rodger
 
Ich stimme riptor in einigen Punkten zu, die wirklichen Ergebnisse sollte man nicht von Valve, Ati oder NVidia beziehen, sondern von unabhänigen Seiten. Es ist völlig überflüssig, sich jetzt über ein Spiel aufzuregen, dass noch nicht erschienen ist, und über einen TReiebrzu urteilen, der auch noch nicht erschienen ist.

@ Rodger

Die Bildchen musst du mir schon zeigen, auf denen du die Grafikqualität des 50er Detos in dem HL2 Benchmark zeigst, die ja so schlecht ist...
Könnte es nicht eher sein, dass du, wenn überhaupt, eher Vergleiche zwischen dem Dx9 udn dem Dx8 Modus gesehen hast?

Und das NV manipuliert, schön und gut, aber Ati hats auch nicht anders gemacht. Also, abwarten und Tee trinken...
 
Original erstellt von Rodger
Riptor, du hast nicht aufgepasst, was Stormbilly geschrieben hat.

Doch, hab ich... :)

Nvidia wird nur die Benchmark option von HL2 optimieren, jedoch im Spiel, wo diverse und vor allem nicht vorhersehbare Kamera-Einstellungen vorkommen wird die Optimierung nicht greifen, das ganze ruckeln und der Käufer, der sich extra auf die HL2 Benchmarks verlassen hat wird sowas von angepisst sein.
Desweiteren habe ich bereits irgendwo Screenshot-Vergleiche gesehen und kann es bestätigen, das es mal wieder Cheater-Treiber sind. Die Bildqualität ist STARK gesunken, um ein Paar Frames mehr zu erhaschen.

Abwarten. Von "Beweisen" kann derzeit nicht die Rede sein, ich Bild mir erstmal ein Bild, wenn man die Tests reproduzieren kann! Und: Warum um alles in der Welt hat Valve nicht schon vorher zu nVidia gesagt, dass die Treiber insakzeptabel sind? Oder ist denen das 5min vor der Präsentation aufgefallen? Glaub ich kaum. ;)

Und damit keiner vergisst wie ich Nvidia gegenüberstehe:
Nvidia war manipulativ, ist manupulativ und wird manipulativ bleiben!

Von solch dämlichen Ansichten halte ich nichts, ich versuch immer neu zu bewerten und mich von Vorurteilen zu befreien. nVidia stand bei mir in letzter Zeit ARG unter Kritik, aber man sollte sich auch nicht verblenden lassen, denn bei aller Euphorie fehlt es mir derzeit einfach an Fairness, erstmal die finalen Ergebnisse abzuwarten, danach können wir uns immernoch zusammen hinsetzen und über nVidia herziehen! ;) Denn wie war das noch mit Stoiber: "Wir haben die Wahl gewonnenn..." :D Klar glaub ich nicht, dass nVidia hier wieder alles zu recht rücken wird, aber es wird am Ende mit Sicherheit nicht so übertrieben sein, wie man es derzeit annehmen könnte.

PS: Ich hasse diese schwarz-weiß Malerei, von wegen ATI ist nun wunderbar und nVidia der letzte Dreck! ATI ist auch nur ein Unternehmen, das Geld machen will, ein Wohltätigkeitsverein ist das auch nicht, deswegen bin ich immer kritisch eingestellt, was solche Marketing-Events angeht. Mir fehlt es da oft an der nachvollziehbaren Objektivität.
 
Ich hasse diese schwarz-weiß Malerei, von wegen ATI ist nun wunderbar und nVidia der letzte Dreck! ATI ist auch nur ein Unternehmen, das Geld machen will, ein Wohltätigkeitsverein ist das auch nicht, deswegen bin ich immer kritisch eingestellt, was solche Marketing-Events angeht. Mir fehlt es da oft an der nachvollziehbaren Objektivität.

Hier muss ich Riptor voll und ganz zustimmen. Man sollte erstmal abwarten, bis es die ersten mehr oder minder unabhängigen Benchmarks gibt, mit den zu diesem Zeitpunkt offiziellen Treibern.
Ein wenig mehr Objektivität wünsche ich mir wirklich (und ich bin auch ATi Besitzer und kein nVidia Verfechter :) )

Allerdings muss ich schon sagen, dass sich nVidia mit der CineFX Architektur einen Bock geleistet hat - der Artikel auf CB hat mir dazu sehr gefallen. Das war auch eine Überhast-Reaktion wie Intel sich damals mit dem 1.13GHz PIII geleistet hat..
Aber das ist ein anderen Thema..

Obwohl ich sagen muss, dass Valve sich ja nun nicht nur auf ATi-Optimierung eingelassen hat - wie nVidia selbst zugibt, war der Kontakt mit den Entwicklern "sehr eng". Auch die 5 Mal längere Optimierungszeit auf die FX Architektur spricht da Bände (sollte es denn stimmen). In dem Punkt kann man den Entwicklern keinen Vorwurf machen.

Gut, dass die 50er Treiber nicht benutzt werden, ist ein strittiges Thema. Ich bin der Ansicht, dass ein Treiber erst dann für offizielle Tests verwendet werden sollte, wenn er final ist. In diesem Zusammenhang immer von "Cheat"-Treibern zu sprechen finde ich ungerechtfertigt. Solange die Bildqualität nicht sichtbar leidet, und sich die Optimierung nicht auf die Szenen im Benchmark beschränken finde ich es völlig in Ordnung, da es sich lediglich um Optimierungen handeln, die sowohl ATi als auch nVidia wie auch jede andere klar denkende Firma vollführen, um die Leistung ihrer Produkte zu verbessern.
Das Einzige, was ich nVidia Vorwerfe, sind die 3DMark03 "Optimierungen", die nur dazu da waren, ein gutes Ergebnis zu erzielen, sich aber nicht auf andere Programme auswirkten.

Einen relativ unabhängigen Benchmark von HL2 gibt es allerdings schon, und zwar auf der englischen THG Seite. Die benutzen die 45er Treiber, weil sie gebeten wurden, die 50er Beta nicht zu benutzen... Mag sich jeder sein Urteil bilden, ich will die Ergebnisse hier nicht bewerten.

Einen andere Sache möchte ich allerdings noch kurz ansprechen. Die Bildqualität und den AquaNox 3 Vergleich. Mit den 51.75 Treibern hat die FX5900 die Lücke zur 9800Pro geschlossen, das ist wahr. Nur eine Sache stört mich bei dieser Sache gewaltig: Die Bildqualität. Gut, die Treiber sind nicht final, aber von einer Version 51.75 erwarte ich mehr als ein "erstes Experiment". Auf DriverHeaven Gibt es einen drei seitigen Artikel über den AquaMark3. Besonderes Interesse liegt hier auf Seite drei, wo die Bildqualität verschiedener Grafikkarten(treiber) betrachtet wird. Die 51.75 führen hier zu einem regelrechten Einbruch der Qualität. Wenn das der Preis für die höhere Framerate ist, dann ist das nicht das, was ich von einer Optimierung erwarte.

Wie gesagt, ich möchte mir über die 50er kein Urteil erlauben, bevor sie nicht final sind. Aber bis jetzt sind sie noch nicht das gelbe vom Ei und es ist verständlich, dass Valve sie nicht benutzt hat.

So far,

Geonosis
 
Re: Bezüglich Detonator 50

Original erstellt von DjDIN0
Scheint eher wenig zu bringen, aber wie schon oben erwähnt wurde, noch Beta-Treiber.

Stimmt, die scheinen die selbe Version zu benutzen wie DriverHeaven.. Wie man gut auf den ersten Seiten sehen kann, scheinen HL2 und AquaNox3 nicht die einzige Kandidaten zu sein, bei denen die Qualität deutlich sinkt.. Hoffe das nVidia da einen Weg raus findet.. Weil ein solcher Treiber, der zwar Frameraten anhebt, aber Bildqualität mit Füßen tritt, ist eigentlich für den Endkunden nicht zumutbar...

So far
 
So einen Treiber an die Öffentlichkeit zu bringen, zeugt imho davon, daß Nvidia mit dem Rücken zur Wand stehen muß was die PS2.0 Performance angeht.
 
Original erstellt von GexxtaH
Ein erst gestern von Valve präsentierter Half-Life 2-Leistungsvergleich zwischen ATI- und Nvidia-Grafikchips soll ungültig sein. Dies gab Nvidia in einer Mitteilung bekannt.
Valve hat immerhin viel Zeit dafür aufgewendet, die Performance mittels einem "Mixed" Modus speziell für Nvidia-Karten zu verbessern. Ich kann mir schwer vorstellen, dass sie einseitig ATI bevorzugen. Valve will möglichst viele Spiele verkaufen, also muss es auf möglichst breiter Hardwarebasis möglichst gut spielbar sein. Der Deto50 wird zudem nicht die großen Verbesserungen bringen, dafür Verschlechterung der Bildqualität.
 
Da die HLSL im DX9-SDK automatisch für ATi den Shadercode optimiert, bleibt natürlich die Frage zu klären, inwieweit dieser 'beträchtliche' Mehraufwand nun wirklich auch ein solcher ist.

Einfach nur die Shader nochmals durch z.B. den cg-Compiler zu jagen ist bestimmt nicht sehr aufwendig (wenn man denn so aufmerksam war und die aktuelle Version von cg benutzt hat).
 
anfang des jahres hat man imme rnoch gesagt ATi karten sind nicht so das wahre wegen den tollen treibern. und nun?

nun sage ich das über nvida...
also ich bin frohh das diese woche meine 9800pro kommen soll und ich dann endgültig weg bin von diesem verein.
die einzig wahren sind und waren 3dfx!!!
 
Zurück
Oben