Gun Metal Benchmark Ergebnisse hier rein!

heutzutage ist glaube ich eh nichts mehr fair...
irgendwo wird immer geschummelt und bevorzugt!

das ist eigentlich schade :(
 
Ja, bist du superfesch hast du meist mehr Glück bei schönen Frauen.
Bist du Besitzer einer feschen ATI-Karte hast du weniger Glück bei Nvidias Elfe.
...denn da zählen mehr die inneren Werte, im Chip die :D

So ist das Leben :(
 
Zuletzt bearbeitet:
häh?
die elfe DAWN läuft auf meiner 9700pro auch :D
und das sogar schneller, als auf nvidia-karten ;)

aber da hast du wohl mal die news überlesen...
 
Benchmark 1

Validity
Results valid? Yes
Statistics
Minimum frames per second 8.84 fps
Average frames per second 15.89 fps
Maximum frames per second 41.83 fps
Benchmark duration 235.93 seconds
Total frames rendered 3748
Computer information
Processor AMD Athlon(tm) XP 3200+
Processor speed 2177 Mhz
Operating System Windows XP Service Pack 1
Graphics card NVIDIA GeForce4 Ti 4200 with AGP8X
Game settings
Screen resolution 1024 X 768
Screen colors True (32-bit)
Aspect ratio Normal
Antialiasing 1
Terrain detail High
Draw distance High
Cloud shadows On
Lens flare On
Sun Glare On

Benchmark 2

Validity
Results valid? Yes
Statistics
Minimum frames per second 6.22 fps
Average frames per second 18.42 fps
Maximum frames per second 45.76 fps
Benchmark duration 269.09 seconds
Total frames rendered 4957
Computer information
Processor AMD Athlon(tm) XP 3200+
Processor speed 2017 Mhz
Operating System Windows XP Service Pack 1
Graphics card NVIDIA GeForce4 Ti 4200 with AGP8X
Game settings
Screen resolution 1024 X 768
Screen colors True (32-bit)
Aspect ratio Normal
Antialiasing 1
Terrain detail High
Draw distance High
Cloud shadows On
Lens flare On
Sun Glare On
 
Original erstellt von CM50K
häh?
die elfe DAWN läuft auf meiner 9700pro auch :D
und das sogar schneller, als auf nvidia-karten ;)

aber da hast du wohl mal die news überlesen...

Nimm mal FRAPS und lass mal die FPS loggen, die TXT bitte dann mal hier als anhang rein, will das dann mal mit meiner FX5900 vergleichen sobald ich sie hab!

THX :)

PS: Cg ist ja auch kein DX9, Cg kann mehr/andere Effekte als DX9, man kann mit Cg eigentlich so gut wie alles Programmieren. Cg is aba DX9 (und älter) kompatibel.

Hab mir mal Cg von nVidia.com gezogen, und mal die fertigen effekte angeguckt.. is richtig geil *g*
 
Zuletzt bearbeitet:
mach ich :D

muss mir nur noch schnell nochmal DAWN besorgen, FRAPS und den ATi-patch...
 
@TheCounter

Ja genau, ist eben so das der Benchmark Nvidias Cg´ für die Programmierung nutzt wie auch die Datei cg.dll im Programmordner zeigt.Wäre es ein "grafikarten-neutraler" Benchmark müsste er die DirectX9-Effekte ohne Nvidias CG und dessen integrierten Optimierungen für Entwickler sondern rein laut Standartvorgabe, also der Microsoft HLSL machen : http://www.nvidia.de/view.asp?IO=cg_faq_de , HLSL : http://www.golem.de/0212/23252.html "HLSL : Die spezielle, C-ähnliche Programmiersprache entbindet Programmierer erstmals davon, Pixel- und Vertex-Shader-Effekte als Assembler-Programme direkt für die einzelnen Grafikchips zu entwickeln" Quelle : http://www.golem.de/

Hab das schon mal auch gepostet aber was das betrifft ist das "Problem" auch hinsichtlich der Spielezukunft unlösbar :

"in der PCGH standt mal das in Zukunft immer mehr Spieleentwickler mit der einen oder eben anderen Grafikchipfirma (z.b. mittels CG) enger zusammen arbeiten und dadurch natürlich auch "zusammenoptimieren" werden weil sie dadurch ihre Spieleengine optimaler nutzen oder "in die jeweilige Hardware besser angepasst integrieren" können angeblich. Kann man nichts machen."

Ich kann nur hoffen das jetzt mal abgesehn von der Leistung das nicht auch bedeutet das in Zukunft Kompatibilitätsprobleme wie die Schattenfehler in diesem Benchmark an der Tagesordung stehen.Z.b. soll ja Half Life II eher R350-Treiberfad-optimiert sein und von CG wiederum gar keinen Gebrauch machen wobei sich aber ATI hier an Microsoft HLSL hält. Die vollständige Kompatibilität von CG zu DirectX9 reicht anscheinend nicht aus um Grafikfehler ausschliessen zu können. Was bei Nvidia die Entwicklungsumgebung"CG" ist bei ATI das "ATI RenderMonkey" : http://www.golem.de/0207/20906.html - dieses findet derzeit aber wohl kaum Sympathie bei Spieleentwicklern im Gegensatz zu CG :(
 
Zuletzt bearbeitet:
wenn ich die normale DAWN.bat aufrufe, erhalte ich folgendes (bin mit FRAPS auch net so bewandert :():

2003-06-16 22:19:36 - fairy
Frames: 325 - Time: 6454ms - Avg: 50.356 - Min: 49 - Max: 52


2003-06-16 22:17:58 - fairy
50
48
50
51
51
50
50
51
50
50
50
49
49
50
50
50
50
50
51
50
49
50
51
51
51
51
51
51
51
51
52
51
51
52
51
51
51
51
48
51
50
51
51
50
50
51
50
48
47
50
50
50
47
50
51
29
0
0
0
0
0
0
0
0
0
0


beim DAWN Ultra sinds ~28fps...
keine ahnung, was da dann besser aussehen soll!

übrigens:
kennt ihr auch den NUDE-patch für DAWN :D
 
Original erstellt von CM50K
wenn ich die normale DAWN.bat aufrufe, erhalte ich folgendes (bin mit FRAPS auch net so bewandert :():

2003-06-16 22:19:36 - fairy
Frames: 325 - Time: 6454ms - Avg: 50.356 - Min: 49 - Max: 52


2003-06-16 22:17:58 - fairy
50
48
50
51
51
50
50
51
50
50
50
49
49
50
50
50
50
50
51
50
49
50
51
51
51
51
51
51
51
51
52
51
51
52
51
51
51
51
48
51
50
51
51
50
50
51
50
48
47
50
50
50
47
50
51
29
0
0
0
0
0
0
0
0
0
0


beim DAWN Ultra sinds ~28fps...
keine ahnung, was da dann besser aussehen soll!

übrigens:
kennt ihr auch den NUDE-patch für DAWN :D

THX!

@DjDIN0

Bei Stalker hat sich ATI selber eine Grube gegraben :D

PCGH Interview mit Andriy Prokhorow:

pcghinterview.jpg
 
@TheCounter

Ja da kann man nichts machen, ich und auch die PcGamesHardware schrieb ja schon mal das die gesammte Spielezukunft immer mehr in die Richtung geht das man mit Grafikchipherstellern enger zusammenarbeitet ("zusammenoptimiert") um hier
die Grafikengine so möglichst optimal-angepasst an die jeweilige Hardware nutzen zu können, standt so auch in etwa in der PCGH.
Dafür soll eben wiederum Half Life II von Nvidias CG keinen Gebrauch machen und eher "ATI-R350-optimiert" sein. Da kann man sich in Zukunft auch bei kommenden Spielen weiter endlos streiten und wird nie zu einer allgemein gültigen Antwort kommen welche Karte in einem Spiel nun besser ist solange Nvidia über sein hardwarenäheres CG die Shader laufen lässt während ATI eben nicht oder eben auch ATI mit anderen Spieleentwicklern rumoptimiert/anpasst.
Nur Spiele die nicht Nvidias-CG nutzen haben da dann zu 100% "grafikchip-unabhängig" eine Aussagekraft (solange auch kein ATI-Programmierer in der Spieleschmiede sitzt *G*) , aber das wird es ja nicht geben, irgendeiner von NVidia oder ATI wird in der Spielezukunft immer bei den Spieleentwicklern über deren Schultern gucken zumal das auch ein gutes Marketing (beim Spieleverkauf) für den Chiphersteller ist (eine Hand wäscht/sponsert die andere) und wer wird schon ständig daran denken und die wenigsten werden diesen Faktor ständig beachten und so sehe ich schon jetzt die kommenden Dikussions-Threads die dann wohl deswegen Gefahr laufen werden eher zu nichts zu führen weil es keine Spiele mehr geben wird die eine Grafikengine nutzen welche komplett unabhängig und unbeinflusst von Nvidia oder ATI entwickelt wurde.:rolleyes:

Dieser Pixelshader 2.0-Benchmark ist jedenfalls sicher "ungesponsert" :

http://www.3dvelocity.com/reviews/5900u/5900u_16.htm
Radeon9700pro hier teilweise bis zu 5mal schneller als GEforceFX5800Ultra :

DirectX9 : Pixelshader 2.0 - Cubic Environment Diffuse Light and Tinted Refractions
& 4 Lights/Pass Diffuse Bump Mapping :

Geforce5800Ultra : 17.88 fps / 18.01 fps
Radeon9700pro : 92.28 fps / 92.05 fps

So siehts wohl aus ohne optimierten Nvidias-CG :D
Wobei hier bei 3dcenter eine Erklärung dafür zu finden ist : http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=73365 welche hier Nvidia teilweise "freispricht".

Ich weis nicht von wo du den Beitrag aus der PcGamesHardware hast aber hoffentlich machen das nicht zu viele, wegen der Copyright-Verlätzung mein ich.
 
Zuletzt bearbeitet:
Original erstellt von DjDIN0
@TheCounter

Ja da kann man nichts machen, ich und auch die PcGamesHardware schrieb ja schon mal das die gesammte Spielezukunft immer mehr in die Richtung geht das man mit Grafikchipherstellern enger zusammenarbeitet ("zusammenoptimiert") um hier
die Grafikengine so möglichst optimal-angepasst an die jeweilige Hardware nutzen zu können, standt so auch in etwa in der PCGH.
Dafür soll eben wiederum Half Life II von Nvidias CG keinen Gebrauch machen und eher "ATI-R350-optimiert" sein. Da kann man sich in Zukunft auch bei kommenden Spielen weiter endlos streiten und wird nie zu einer allgemein gültigen Antwort kommen welche Karte in einem Spiel nun besser ist solange Nvidia über sein hardwarenäheres CG die Shader laufen lässt während ATI eben nicht oder eben auch ATI mit anderen Spieleentwicklern rumoptimiert/anpasst.
Nur Spiele die nicht Nvidias-CG nutzen haben da dann zu 100% "grafikchip-unabhängig" eine Aussagekraft (solange auch kein ATI-Programmierer in der Spieleschmiede sitzt *G*) , aber das wird es ja nicht geben, irgendeiner von NVidia oder ATI wird in der Spielezukunft immer bei den Spieleentwicklern über deren Schultern gucken zumal das auch ein gutes Marketing (beim Spieleverkauf) für den Chiphersteller ist (eine Hand wäscht/sponsert die andere) und wer wird schon ständig daran denken und die wenigsten werden diesen Faktor ständig beachten und so sehe ich schon jetzt die kommenden Dikussions-Threads die dann wohl deswegen Gefahr laufen werden eher zu nichts zu führen weil es keine Spiele mehr geben wird die eine Grafikengine nutzen welche komplett unabhängig und unbeinflusst von Nvidia oder ATI entwickelt wurde.:rolleyes:

Dieser Pixelshader 2.0-Benchmark ist jedenfalls sicher "ungesponsert" :

http://www.3dvelocity.com/reviews/5900u/5900u_16.htm
Radeon9700pro hier teilweise bis zu 5mal schneller als GEforceFX5800Ultra :

DirectX9 : Pixelshader 2.0 - Cubic Environment Diffuse Light and Tinted Refractions
& 4 Lights/Pass Diffuse Bump Mapping :

Geforce5800Ultra : 17.88 fps / 18.01 fps
Radeon9700pro : 92.28 fps / 92.05 fps

So siehts wohl aus ohne optimierten Nvidias-CG :D

Ich weis nicht von wo du den Beitrag aus der PcGamesHardware hast aber hoffentlich machen das nicht zu viele, wegen der Copyright-Verlätzung mein ich.

Half-Life 2 ist nicht R350 Optimiert, das stand mal auf ATI, war aber ne Lüge.

Valve sagt selber das sie mit keinem Grafikkarten-Hersteller eng zusammenarbeiten, das Spiel soll auf allen System gut laufen, optimiert wird es nicht.

Die Shader Performence ist bei der FX5900 schon viel viel viel höher als bei der FX5800U (Der NV40 wird wohl den Spieß umdrehen, ATI langsamer als nVidia, so wie ich nVidia kenne :D). Außerdem, Shaderperformence ist nicht alles, es gibt Sachen wo nVidia viel schneller ist als ATI.
 
Original erstellt von TheCounter
Der NV40 wird wohl den Spieß umdrehen, ATI langsamer als nVidia

Das ist sicher, irgendwie hatte ich schon beim erscheinen der 9700pro das Gefühl das sich Nvidia - immerhin als noch immer grösster Grafikchiphersteller - das nicht lange "gefallen lassen wird" und eben als nochimmer grösster Grafikchiphersteller sicher auch das nötige Potential hat hier schnell was besseres auf den Markt zu bringen.

"Ich bestreite nicht das ATI zur Zeit mit der Radeon9700pro die schnellste Option hat, wer aber glaubt das das lange so bleiben wird raucht vermutlich bewusstseinsverändernde Drogen..." hies es ja mal angeblich von einem Nvidia-Mann :D
Und Danke für die Aufklärung bezüglich Half Life II+ATI ;) (Ist wohl deswegen das Half Life II-Bild seit kurzem nicht mehr auf der ATI-Homepage zu finden?...)
 
Zuletzt bearbeitet:
werde immer noch nicht ganz schlau draus

wahrscheinlich bin ich zu dumm.


wir haben sontag früh den bench auch laufen lassen. und zwar auf zwei systemen.

1. amd xp2700+, asus a7n8x, fx5600, treiber 44.03

2. p4 2,4c @ fsb257/3,09gig, p4p800, geforce4 ti4200 (albatron medusa 4680pro), treiber 43.45 (settings via riva-tuner 305/666mhz)


beobachtung:

bei system 1. mit fx5600 und 44.03 ließ sich im bench kein 1xAA vorwählen. die option erschien dort erst gar nicht. nur 2x und 4x-fach anwählbar, obwohl im treiber "manualy controlled AA off" voreingestellt war.

anders in system 2.. dort "alles wie es soll", treiber "manual off", dann 1xAA voreingestellt. so lief auch der bench, wenn man den "optionen" glauben schenken will. und die werte sprechen dafür.


noch etwas: auch der versuch die fx von 270/551 via riva-tuner auf 321/651 zu übertakten mißlang anscheinend (sonst geht das). der gamebench ignorierte das ganz einfach. vermute, dass meine version des rt noch nicht völlig richtig mit geforce fx und/oder 44.03 zusammenarbeitet.


werte:

system 1.

average 1: 12,65
average 2: 15,57

system 2.

average 1: 21,56
average 2: 25,02


p.

 
Validity
Results valid? Yes
Statistics
Minimum frames per second 13.78 fps
Average frames per second 22.42 fps
Maximum frames per second 59.11 fps
Benchmark duration 167.19 seconds
Total frames rendered 3748
Computer information
Processor AMD Athlon(tm)
Processor speed 2343 Mhz
Operating System Windows XP Service Pack 1
Graphics card RADEON 9700 PRO
Game settings
Screen resolution 1024 X 768
Screen colors True (32-bit)
Aspect ratio Normal
Antialiasing 2x
Terrain detail High
Draw distance High
Cloud shadows On
Lens flare On
Sun Glare On


Benchmark 2
Validity
Results valid? Yes
Statistics
Minimum frames per second 12.06 fps
Average frames per second 28.89 fps
Maximum frames per second 65.94 fps
Benchmark duration 171.56 seconds
Total frames rendered 4957
Computer information
Processor AMD Athlon(tm)
Processor speed 2342 Mhz
Operating System Windows XP Service Pack 1
Graphics card RADEON 9700 PRO
Game settings
Screen resolution 1024 X 768
Screen colors True (32-bit)
Aspect ratio Normal
Antialiasing 2x
Terrain detail High
Draw distance High
Cloud shadows On
Lens flare On
Sun Glare On


--------------------------------------------------------------------------------
 
Darstellungsfehler mit Catalyst V3.5???

Hoi Leute,

habe seit gestern eine Radeon9700 von Club3D, die ich unlockt habe und dann sofort zur 9700pro wurde. (Warp-Patch?!)
Ich wollte eigentlich nur unlocken, aber wenn da nun halt "pro" zusätzlich steht juckt mich das auch nicht, sondern würde auch nur eher die Leistung ausdrücken, zu der die Karte fähig ist. (locker über 300/600!)
So hab ich also Übertaktet, bis zum geht nicht mehr. Im 3Dmark2003 hatte ich dann ca4400 Punkte oder sowas, aber ich wollte eigentlich nur sehen, obs mit so einer Karte dann wieder flüssig läuft ;)
Als ich mich dann an den wenig flüssig laufenden GunMetal-Benchmark erinnerte, installierte ich auch den nochmal und bemerkte ekelhafte Grafikfehler.
Ich dachte sofort an zu hohe Übertaktung und stellte sofort zurück auf Standarttakt.
Nach 5mins (Abkühlunsphase für die GraKa) versuchte ich den Bench erneut.
KEINE Änderung. Soeben habe ich den Rechner gleich nach dem Start in den Bench geschickt...immernoch keine Änderung. Also geh ich ganz fest davon aus, das es am Grafikkarten-Treiber liegt.

Also wie erklär ich euch nun, was ich sehe? Am besten mit nem Screenshot!
Im 3Dmark gibts "selbstverständlich" keine Fehler! Ebenso in den ATI-Demos nix von solchen Sachen zu sehen. Anderes habe ich noch nicht getestet.
Weis jemand Abhilfe?
 
diese grafikfehler hatte ich mit den 3.4ern auch gehabt :D

hast du mal die 3.5er catalyst installiert?
vorher aber bitte den alten treiber RESTLOS deinstallieren...

damit sollten diese fehler weg sein!
 
öööh...Sorry??? Ich schrieb doch, das ich den 3.5er draufhab!

Rodger
 
ach, ganz klein im betreff...

hast du im treiber auf leistung oder qualität eingestellt?
 
okay...hab die Frage verstanden und dementsprechend auch schon gnadenlos den Slider nach rechts geschoben, nachdem der einen nach links gegangen war.
Zwar ist der Effekt nun nicht mehr so stark, aber ich müsste ATI-Fan sein, um sagen zu können, ich sähe keine Bildfehler mehr.
Der Fehler ist immernoch da!
Zwar weniger ausgeprägt, soweit ich geschaut hab, aber er ist immernoch da!
Es macht einfach keinen Spaß einen Bench bis zum Ende laufen zu lassen, wenn da Bildfehler die ganze Zeit drin sind. Da nützt mir das auch nichts, wenn die Werte, die am Ende angezeigt werden High-End darstellen.

Rodger
 
komisch, bei mir sind diese fehler seit dem 3.5er weg!
egal, ob ich auf leistung oder quali eingestellt habe...

hast du die alten treiber vorher restlos deinstalliert?
 
Zurück
Oben