News ForceWare 65.62: Woher kommt die Performance?

Carsten

Commodore
Registriert
Juli 2001
Beiträge
4.590
Nachdem am gestrigen Tage bereits der höchst inoffizielle ForceWare-Treiber mit der Versionsnummer 65.62 aufgetaucht war (wir berichteten) und auch ein paar kurze Benchmarks gefahren wurden, haben wir uns dieses interessante Stück Software heute einmal etwas genauer angesehen.

Zur News: ForceWare 65.62: Woher kommt die Performance?
 
war ja irgendwie klar das es nicht der Treiber alleine ist, sondern mal wieder ein Cheat

wann hören die mal auf die User zu verarschen :mad:
 
War ja inoffiziell, also hat NVIDIA nichts mit der Verarschung zu tun, oder doch?
 
Ich will ja gar nich wissen wo die Hersteller sonst noch Cheaten schon schlimm

Bitte ATI-Fans lasst es nicht wieder zu einem nVidia vs. ATI Thread werden
 
Ein paar ausgewählte FPS-Werte wären aber nicht schlecht, um den Unterschied zwischen keiner und allen Optimierungen zu sehen. Ein hochauflösender Screenshot mit Splitscreen vielleicht auch noch ;). Immerhin kann man ja alles einstellen, also wird der Thread wohl nicht so ausarten wie der letzte von ATI :D.
 
Teile die Füllraten durch 1,92, dann hast du die FPS des Villagemark ;)

Ansonsten gibt's doch bereits reichlich Benchmarks mit diesem inoffiziellen Treiber.
 
jop, mich würde ein screen auch mal interessieren :)

wenn man wirklich keinen qualitativen Unterschied sieht und dafür 20 fps mehr bekommt find ich das eigendlich nicht sooo schlimm.. ;)
 
ich find´s traurig

anscheinend steckt man lieber energien in "cheats" bzw. " qualitätsmindernde optimierungen" anstatt sich um das grundlegende problem zu kümmern und dieses vielleicht besser aufzuarbeiten ! ( so wie man es nun angeblich bei ati tut -> opengl treiber neuschreiben )
 
angeblich sollen die Kanadier schon an einem neuen OpenGL Treiber schreiben.
Ich hoffe doch dass er nicht allzu lange dauern wird. Schätze aber mal dass er frühestens mit dem Catalyst 5.0 kommt. Aussderdem vermisse ich immer noch neuigkeiten zu dem Feature das ATI mal andeutete!, war doch nicht das Temporal AA oder?
 
ich zitiere...

Zum Glück und als lobenswerten Umstand nicht unerwähnt bleibt aber die Möglichkeit, auch in den neuesten Auswüchsen des Balkenlängenwahns die Verringerung der Qualität zu stoppen und dort, wo die Leistung im Überschuss vorhanden ist, die volle, ungetrübte Filterung der teuer bezahlten Grafikhardware zu genießen.

mehr sag ich nicht dazu
 
Höhrt auf zu meckern...

Es ist devinitiv am wichtigsten das das Game flüssig läuft. Die meisten zocken sowieso mit XGA Auflösung und da reicht sicher auch ne GeForce 4 Ti 4400 aus.
Wer jetzt behauptet er könne z.B. bei einem Ego Shooter ob bei 100 oder 110 Fps noch die Texturen erkennen und so Treiber Cheating feststellen hat mind. einen an der Waffel.

Konzentriert euch lieber aufs wesentliche also aufs Gameplay und nicht auf eine beschissene Treiber Funktion...

Ihr seit krank...

viele grüße

Mr.Twister
 
Abgesehen davon, das mir nichts aufgefallen ist, hatte ich auch keinen Performancezuwachs, jedenfalls nicht in Aquamark3 und 3dmark03. Also mir ists latte, solange ich keinen Grafikmatsch sehe.
 
chriz242 schrieb:
Wer jetzt behauptet er könne z.B. bei einem Ego Shooter ob bei 100 oder 110 Fps noch die Texturen erkennen und so Treiber Cheating feststellen hat mind. einen an der Waffel.
Die einzelnen Texturen nicht. Aber das Flimmern bei Bewegung, das plötzlich stärker geworden ist, schon.
 
@chriz242
hmm doom 3 würd mit der grafikquali von Giana Sisters auch schneller laufen ;) . Aber ob die Athmosphäre dieselbe wär....

@Topic
Nun ich will garnicht wissen was alles optimiert worden wäre, würde man keinen Aufstand machen. Klar ich würd kaum merken das die Lichteffekte einfacher (und damit qualitativ schlechter) berechnet worden sind. Aber wozu sollte man eine Grafikengine schreiben, die Schatten und Lichteffekte extrem realistisch darstellen kann, wenn der Treiber der Grafikkarte das alles wieder zunichte macht? Warum versuchen die Graka - Hersteller die Optimierungen so zu gestallten das man nichts sieht? Weil die Leute denen das aufgefallen ist, gemeckert haben. Die Optimierungen seitens ATI, werden mittlerweile fast stillschweigend aktzeptiert. Aber warum? Weil ATI mit ihren Optimierungen mehr Geschwindigkeit bei gleicher Qualität erreicht haben. Und warum sollte Nvidia nicht das selbe schaffen?
Und im Bezug auf Benchmarks: 1mal mit Optimierungen und einmal ohne. Dann hat man wieder einen objektiven Vergleich. (@ Cb Autoren : Jetzt bitte net haun, ich weiss wieviel Arbeit das benchmarken macht ;) )
 
Ihr seit krank...

LOL da muss ich dir in allem zustimmen.
nichts hier gegen die community aber ihr übertreibst es echt manchmal.
is doch scheiss egal ob die "cheaten", weils so wenig is dass mans eh nicht merkt.
Wieso regt ihr euch immer so auf, dann spielt doch nicht mehr, und macht was anderes haut euren rechner weg, geht raus in die natur, da habt ihr photorealistische Grafik ohne Cheaten :D :D
 
Landxer schrieb:
angeblich sollen die Kanadier schon an einem neuen OpenGL Treiber schreiben.
Ich hoffe doch dass er nicht allzu lange dauern wird. Schätze aber mal dass er frühestens mit dem Catalyst 5.0 kommt. Aussderdem vermisse ich immer noch neuigkeiten zu dem Feature das ATI mal andeutete!, war doch nicht das Temporal AA oder?

Schon längst vorhanden.

In der Englischen Version ist es Automatisch drinn bei der Deutschen musss du es durch dieses Tool an oder ausschalten,
 
ja weis ich doch!

ich mein ob es sich bei dem versprochenen revolutionären Feature um das schon! vorhandene Temporal AA handelt, oder kommt da noch was?
 
was ich nie und nimmer verstehen werde ist warum die Chipschmieden, egal ob Ati oder Nvidia, Rechenkraft ihrer Grafikchips mit Optimierungen verschwenden. Denn um ein Bild zu Optimieren muss ja erstmal alles verglichen werden was wie und wo gesehn wird was man wegschneiden kann usw.
Wenn die nun die Optimierungen komplett weglassen würden und ihre GPUs nur die Bilder berechnen lassen dann wird der Performance verlust doch nicht so verdammt hoch sein.

Aber leider regiert überall das Gesetzt des höhsten 3dmurks Rankings, der höhsten FPS Zahl und son schnörks.

Schafft alle Optimierungen ab verdammte scheisse nochmal ;)
 
Also ich finde es generell nicht, schlimm , dass Nvidia zusätzliche Optimierungen in die Zreiber reinpfalnzt. MAn kann sie ja jederzeit deaktiveren und erhält dann die beste Qualität die mit der Hardware machbar ist. Und da man sie ja deaktivieren kann verstehe ich nicht, warum man sich über zusätzliche Optimierungen groß aufregt, man wird ja nicht dazu gezwungen sie zu benutzen.
Anders sehe die Sache aus, wenn man die Optimierungen bei NV plötzlich nicht mehr im Treiber(und zwar ohne Reg- Tricks) abschalten könnte. Dann würde ich ebenfalls auf die BArikaden steigen.
 
Zurück
Oben