[The Project - Far Cry Techdemo] Benchmark Thread

Also:

AMD Athlon64 3200+ @ 2,5Ghz
Abit AV8
2*512 MB DDR A-DATA @ 208.3 mhz und 2-2-2-8 1T
PoV 6800 GT @ original (350/500) bzw Leadtek WinFast A400GT

Habe mit Version 1.1 getestet, ohne Menü, die Ergebnisse werden in dem Ordner als Benchmark.txt Datei gespeichert.


Ergebnisse:
1024x768 Ohne AA und AF --> 42,74 fps
1024x768 2xAA und 4x AF --> 36,55 fps

Naja, irgendwie bisschen läpsch, aber ist halt ein ATI Benchmark :D

Werde heut Nachmittag mal mit Graka @ Ultra (400/550) machen.


@The Depundee: Ja habe ne NVidia, kannste auch bei meinem Nethandseintrag (Signatur) sehen. Fuckt mich schon ein wenig ab mit den Unschärfen!

mfg Thund0r
 
Hallo Thund0r, was ist bitte ein Depundee ?
Aber lass mal. Das mit den dummen Signaturlinks schnall ich wohl nie. :rolleyes:
 
So, da ich wohl ein paar Bencher Gene hab, habe ich mal ne ganze Reihe von Benches gemacht.

System siehe Nethands.


Ich schreibe die alten nochmal hier hin:

Alt
Grafikkarte @ GT (351/501)

0xAA + 0xAF --> 42,74 fps
2xAA + 4xAF --> 36,55 fps


Neu
Grafikkarte @ Ultra (401/551)

0xAA + 0xAF --> 47.85 fps
2xAA + 4xAF --> 41.02 fps
4xAA + 8xAF --> 37.26 fps
8xAA + 16xAF -> 24.86 fps


Habe alle Einstellungen sowohl im Treiber als auch in der Datei "System.cfg" gemacht, Immer 2 Durchläufe, hat sich aber bei denn fps nichts getan im Gegensatz zum ersten Bench.

Wie gesagt, ich habe fast an jeder Stelle schreckliche Unschärfen, aber das ist wohl bei NVidia (zumindest GeForce6 Reihe) normal (bei mir und The Depudee).
Ich würde ja sagen, dass es dazu durch irgendeine Inkompatiblität kommt und dadurch auch die NVidia Karten um Längen von den ATI's geschlagen werden. Ist halt meine Vermutung.

Was mich ehrlich gesagt ein wenig verblüfft ist, dass ich bei 8xAA und 16xAF immer noch ca 25 fps habe. Ich hätte mit deutlich weniger gerechnet. Naja, da lief die Karte ja auch mal kurz als Ultra.

Was ich noch sagen möchte: Ich bitte jeden, der ein bisschen Zeit und Interesse hat, mal den Benchmark mit 8xAA und 16xAF zu machen, damit ich vergleichen kann (auch die 6600er Leute aber insbesondere die ATI-Besitzer).
Wäre euch sehr dankbar :D

mfg Thund0r
 
@THE DEPUDEE

Wenn du zeit hast kannst du ja das Barbone bei mir streichen und "Athlon 64 3200+ mit 9600 XT und 1024 MB hinschreiben.

Danke

Für mich ist der wert doch etwas niedrig werde später nochmal mit dem Catalyst 5.1 Benchen. Kann mal jemand Benchen der eine 9600 PRO/XT hat würde gerne mal vergleichen.
 
so hab nun mal getestet


1024x768 32bit 4 AA 8 AF

40.21 FPS

1024x768 32bit 6AA 16 AF

34.45 FPS

@depudee man kann bei ati nich 8 AA einstellen. :mad: :p

Edit: gebencht hab ich mit catalyst 5.1 oder wie der neue heißt :D
 
Zuletzt bearbeitet:
Oh, verdammich, ich vergas....
Is doch schon soooo lange her.

ThundOr, kannst du bitte nochmal mit 4x AA und 16x AF benchen.
Ich muss mich wohl leider dem Willen der ATI Besitzer beugen. :lol:
 
Mal eine kleine zwischenfrage..
ist mit 2xAA und 4xAA ,der Antialaising Level gemeint, oder die Sample Anzahl, weil ich beim Benchmark direkt nur 0; 2 und 4x Samples auswaehlen kann, bei einem AA Level von 1

Soll also der AA Level auch im cfg dementspürechend geaendert werden, so wie der AF Level ?
 
AA = AntiAliasing
AF = AnisotropeFilterung

Bitte die Einstellungen nur im Treiber vornehmen. Es macht keinen Unterschied, die Level in der Demo und im Treiber einzustellen. Der Treiber hat Priorität.
Aber:
Wenn man in der Demo auf 2x AA und und 4x AF stellt und im Treiber "Anwendungsgesteuert" einstellt, bedeutet das, dass die Demo mit 2x AA und 4x AF läuft, ergo weniger FPS.
Am besten man stellt Settings in der Demo immer auf aus und nimmt nur die Einstellungen im Treiber vor. ;)
 
THE DEPUDEE schrieb:
Es macht keinen Unterschied, die Level in der Demo und im Treiber einzustellen.

Naja gut, also ich werd mal nich so sein und das treiber gesteuert machen, auch wenn es entgegen meinen Prinzipien entspricht ;)

Es gibt allerdings nen Unterschied, wenn man in der Demo das AA Level einstellt.. (also im Menu wenn man es ueber die bench...bat startet) dann hat man nur die Auswahl ueber die Sample zahl, das AA Level betraegt dann hierbei nur 1.

AA Level != AA Sample

EDIT :

Hier nun meine Ergebnisse mit Driver Level AA und AF Einstellungen

1024x768 32 Bit 0xAA 0xAF
29,62 Fps

1024x768 32 Bit 2xAA 4xAF
27.70 Fps

1024x768 32 Bit 4xAA 8xAF
25.40 Fps

1024x768 32 Bit 8xAA 16xAF
18.21 Fps
 
Zuletzt bearbeitet:
@ The Depudee: Hast du meinen Namen etwa mit O (Oh) statt mit 0 (Null) geschrieben ^^ :D

Also meine Ergebnisse 4xAA und 16xAF @ Ultra:

36.76 fps also würd sagen, dass da der Unterschied nicht mehr sooo drastisch ist zu X800Pro. Halt die Unschärfen... :D
Egal, wenns im Spiel nicht ist.

Mfg Thund0r


PS: Gibt es überhaupt irgendeinen Benchmark wo NVidia Karten viel besser sind als ATI's ? Sowas bräcuht ich jetzt ;)

PPS: Hat Zock ne getaktete Ultra oder wie kommt der an die Hamma Ergebnisse? Nur am Prozesor kanns ja nich liegen.
 
Wenn du meine Signatur lesen würdest wüssets du es ;)

Die Graka läuft auf 460/1250 Mhz zur zeit also sie ist schon gut übertaktet und ich denke trotz P4 sind die 3,9 Ghz nicht zu unterschätzen.
 
@zock los bench ma mit denn letzten 2 einstellung. :) er muss graka lastig sein zock hat fast 4ghz ich hingegen nur 3,3ghz bin aber nur 4-5fps hinter ihm. *freu*
 
So wie gewünscht habe ich natürlich gleich noch weiter Gebencht.

1024*768 4*FSAA 8*AF = 42,93

1024*768 4*FSAA 16*AF = 40,85

Der abstand wird immer kleiner.

Wenn ich die Graka nicht übertakten würde ,wärst du natrülich vor mir aber du hast deine Graka ja auch hoch übertaktet. Hab auch mal mit 4 Ghz Gebencht aber die 80 Mhz bringen nicht´s ,hier wird zu 70-80 % nur die Graka belastet.
 
Zuletzt bearbeitet:
So, nach all dem Kinderkram wird's mal Zeit für richtige Ergebnisse :freak:

P4 2,8@3,26 GHz, 1024 MB Ram, Radeon 9700 Standardtakt, Catalyst 4.12

1024x768, 0xAA, 0xAF = 17 fps
1024x768, 2xAA, 4XAF = 14,8 fps
 
Zuletzt bearbeitet:
das mit dem benchmark ist simpel... man erstellt eine verknüpfung zu "techdemo.exe" mit dem anhang "-benchmark" ^^
was ich mich allerdings frage: wieso ist 3Dc deaktiviert wenn ich mir das menü ansehe obwohl ich der config auch ohne mein tun r_Tex3DC auf 1 steht? ;) vorher benche ich NICHT! ^^
 
Moin,

also hier meine Werte:

1024*768

0xAA + 0xAF --> 41,89 fps
2xAA + 4xAF --> 36,88 fps
4xAA + 8xAF --> 35,36 fps
4xAA + 16xAF --> 32,09 fps

Treiber:
Forceware 66.93

Alle 3 Optimierungen im Treiber sind eingeschaltet !
 
Zuletzt bearbeitet:
Average FPS: 43.20

Configuration

Resolution: 1024x768
Bit per pixed: 32
FSAA: 4x samples
3Dc Texture Compression: disabled
Verticle Sync: disabled

System:
getestet mit folgenden Einstellungen:
Abit NF7-S mit XP-M und Infineon PC333 @ 12x200 @ 11-2-2-2
Inno3D 6800GT @ 360/1125 auf Nvidia 71.40

Edit:
Ich habe auf einem frisch installierten System getestet, da ich die Graka neu habe.
Soeben habe ich den gleichen Bench noch einmal mit dem Vsutios Xtreme G 71.20b durchgeführt und nur 35.06 fps erreicht.
Ich teste übrigens in den Standardeinstellungen.

Nachtrag:
1024*768
Einstellungen in System.cfg und Nvidia-Treiber
0xAA + 0xAF --> 43,51 fps
2xAA + 4xAF --> 38,69 fps
4xAA + 8xAF --> 36,37 fps
4xAA + 16xAF --> 36,16 fps
 
Zuletzt bearbeitet:
Zurück
Oben