"Geforce 6800 Ultra" entäuschende Shader 3.0 Leistung

azdr

Lieutenant
Registriert
Feb. 2005
Beiträge
685
Hi Leute
Ich hab mir neulich die Graka von Msi NX geforce 6800 Ultra AGP zugelegt. Die Leistung der Graka ist ansich Spitze nur halt bei Spielen die keine Shader der Version 3.0 unterstützen bzw wenn man sie im spiel nicht aktiviert.

Sobald der Einsatz von Shader 3.0 verwendet wird sinkt die Leistung der Grafikarte rapide. Das hab ich bei den Spielen die Shader 3.0 unterstützen wie Riddick und Splinter Cell 3 - Chaos Theory festgestellt.
Der lesitungsverlust ist so hoch das es sich eigentlich kaum lohnt im spiel auf shader 3.0 umstellen z.B:. splintercell 3 : shader 1.0 = 70-80FPS; shader 3.0 =20-40Fps, und bei riiddick ist es noch schlimmer shader 2.0= 60-110FPs und Shader 3.0 =13-30Fps.

Ich mein was soll der Beschiss man kommt sich dei solchen leistungswerten irgendwie verarscht vor . Man gibt über 450€ für ne Graka aus und dann das hier soll ich nach paar monaten wieder 500€ für ne Graka ausgeben :king: . Einer der Gründe was mich zum Kauf dieser Graka bewegt hat ist die unterstützung der shader V.3.0 wie ich leider festgestellt das flüssiges spielen unmöglich macht.
Hat die Graka wirklich nich mehr drauf kommt vielleicht ein Treiber oder so was das die Leistung bei S.V.3.0 anwendungen verbessert, wie es mal dei ATi der fall war?

Wie sieht ihr das?
 
Zuletzt bearbeitet:
Hö, eigentlich beschleunigt Pixel Shader 3.0 die Performance (+evtl. das aussehen) in Spielen. :freak:
 
Erstmal, verwendest du die neuesten ForceWare Treiber für dir Karte von der nv Homepage?
Und ausserdem wie sieht es mit deinem System aus? Ist die Karte in einem schnellen angemessenen System untergebracht oder wird sie von z.B. einem lahmen Prozessor gebremst.

Kann es leider nicht ausprobieren, hab kein Shader 3.0 :(, Splinter Cell sieht aber trotzdem hammer aus!
 
mein system ist eigentlich ganz ordentlich ausgestattet Amd64 3500+ und corsair 1024ram PC400. und die neusten treiber sind drauf die 71 er reihe

@Shadow
ja da hast recht was Far cry angeht aber das spiel ist nicht voll und ganz auf Shader 3.0 konzepiert worden sondern ist nur ein einfaches update mit einem patch auf sh 3 das sagt gar nichts aus was im gegensatz zum splinter cell 3 und riiddick nicht behaupten kann
ich meine es werden kein HDR, tonemapping oder ultra weichen schatten und solche effekte unterstützt.

mfg
 
Zuletzt bearbeitet:
ich glaube kaum das der sh3.0 dafür verantwortlich ist.
deine leistung hab ich mit meiner 6600gt.
 
@azdr:

Es sind die ultra weichen Schatten, die beim Shader 3.0 die Leistung fressen. HDR, Tonemapping usw haben kaum was damit zu tun.

Vor allem bei RIDDICK bemerkst du den Performance-Einbruch bei ultra weichen Schatten.

Nur wundert mich, dass du SplinterCell-3 nicht flüssig in einer Standartauflösung von 1024x768 mit PS3.0 spielen kannst?! Selbst in 1600x1200 bleibts ja noch 'relativ-gut' spielbar. Und mein System iss ne gute Ecke älter als deines?!

Hier mal noch 3 Screenshotz, kannst ja mal mit deinen Frames vergleichen:

KLICH MICH!

KLICH MICH!

KLICH MICH!

Wie gesagt, alle Screenies in 1600x1200, also sollte doch wohl 1024x768 bei Dir flüssig laufen....
 
Zuletzt bearbeitet:
also sm 3.0 beschleunigt eigentlich darstellung, nur wenn man HDR einsetzt hast du Frame verluste !

was anderes is mir nich bekannt das ausser HDR im ps 3.0 die Leistung bremst

bzw bei 1024x768 ist meist alles cpu limitiert
 
Shen Long schrieb:
@azdr:

Es sind die ultra weichen Schatten, die beim Shader 3.0 die Leistung fressen. HDR, Tonemapping usw haben kaum was damit zu tun.

Vor allem bei RIDDICK bemerkst du den Performance-Einbruch bei ultra weichen Schatten.

Nur wundert mich, dass du SplinterCell-3 nicht flüssig in einer Standartauflösung von 1024x768 mit PS3.0 spielen kannst?! Selbst in 1600x1200 bleibts ja noch 'relativ-gut' spielbar. Und mein System iss ne gute Ecke älter als deines?!

Hier mal noch 3 Screenshotz, kannst ja mal mit deinen Frames vergleichen:

KLICH MICH!

KLICH MICH!

KLICH MICH!

Wie gesagt, alle Screenies in 1600x1200, also sollte doch wohl 1024x768 bei Dir flüssig laufen....

Ja , das ist schön und gut aber bedeuten für dich 16 oder 21 FPS flüssig und das noch bei SH 1.0, für mich jedenfalls auf gar keinen fall .


Hier das sind meine Leistungswerte:
Der lesitungsverlust ist so hoch das es sich eigentlich kaum lohnt im spiel auf shader 3.0 umstellen.


Auflösung 1280x1024 max Details. kein AA und AF
und wenn ich auf 1024x786 umstelle gibts kein leistungsunterschied nur die Bildqualität wird schlechter.
Sind denn diese Leistungswerte realistisch. AMD64 3500+ 1024ram, geforce 6800 Ultra
Oder sollten die leistungswerte eigentlich noch besser sein
splintercell 3 (Demo) :
[shader 1.0 = 70-80FPS
shader 3.0 =20-40Fps,
riddick:
Shader 2.0= 60-110FPs
Shader 3.0 =13-30Fps.
 
Zuletzt bearbeitet:
azdr schrieb:
Ja aber das ist schön und gut aber bedeutet für dich 16 oder 21 FPS flüssig und das noch bei SH 1.0, für mich jedenfalls auf gar keinen fall ab.

Natürlich net! Dennoch bleibt's mit Shader 3.0 in einem 'spielbaren' Rahmen. Ich brauch diesen dämlichen SoftShadow auch net.

Aber mal im Ernst: war ja abzusehen, dass die GF-6 Karten spätestens nach einem Jahr die 'kleinsten' PS3.0 Karten sein werden. Ist also in meinen Augen nichts, über das ich mich aufregen könnte. Und bei meinen Screenshotz sieht man ja auch, dass der Unterschied der grafischen Qualität nicht! im Verhältnis zur Performance steht...

...und davon mal ab weis sowieso niemand, inwiefern die Demo das Endprodukt spiegelt, denn die im Internet faufgetauchte E³- Doom³-Demo war ja auch gänzlich 'unflüssig' zu spielen...
 
Shen Long schrieb:
Aber mal im Ernst: war ja abzusehen, dass die GF-6 Karten spätestens nach einem Jahr die 'kleinsten' PS3.0 Karten sein werden.

Es sind aber immer noch die "groessten" PS3.0 Karten.;)
 
Kann mich nur anschliessen hatte gerstern das erste mal Riddick gespiel - Geiles Game aber im SM3 sieht man doch leichte Ruckler zwischendurch, was schon etwas nervt. Mein sys - siehe Sig.

Wie kann das sein?
Es soll doch beschleunigen oder?
vielleicht gibts ja bald ein Performance-Patch?!
 
Isses blöde, wenn ich jetzt behaupte, dass ATI den Shader 3.0 in ihren x800 Karten nicht! implementiert hat weil sie wussten, dass die aktuellen GPU's den Shader 3.0 garnet richtig nutzen können?! :freak:

...nur so 'ne Mutmaßung, denn nach RIDDICK und SC3 siehts ja echt danach aus. Was nutzen mir denn 'neue' grafische Effekte, wenn die GPU schlapp macht?! Tse....

Dass der Shader3.0 die 'altbekannten' Shader2.0 Informationen schneller bearbeiten/verwerfen kann, somit also beschleunigt steht ja ausser Frage. Nur 'neue' Features scheinen zu aufwendig zu sein! (...zumindest für aktuelle GPU's...)

P.S: belehrt mich, wenn ich falsch liege...
 
Zuletzt bearbeitet:
Shen Long schrieb:
Isses blöde, wenn ich jetzt behaupte, dass ATI den Shader 3.0 in ihren x800 Karten nicht! implementiert hat weil sie wussten, dass die aktuellen GPU's den Shader 3.0 garnet richtig nutzen können?! :freak:

Ja das ist bloede, weil es eben nicht stimmt. Aber es muss wohl erst der R520 erscheinen, damit das auch alle einsehen.
 
Shen Long schrieb:
Isses blöde, wenn ich jetzt behaupte, dass ATI den Shader 3.0 in ihren x800 Karten nicht! implementiert hat weil sie wussten, dass die aktuellen GPU's den Shader 3.0 garnet richtig nutzen können?! :freak:


Richtig kombiniert. Da nützt mir auch keine G6 mit SM3.0 Fähigkeit etwas, wenn ich kaum flüssig zocken kann. :freak:
Vorallem werden all die jenigen dumm dreinschauen, die eine 6600 haben. Bei denen ist die neue Technik komplett für den A****!
Schauen wir mal wie es mit dem R520 aussieht. Mit dem werden SM3.0 Games sicher richtig rocken. Dann werden viele G6 Besitzer zu ATI wechseln. :p
 
Was für ein Quark - die 6er laufen auf Shader 3.0 (wenn man die gleichen Grafikeffekte auf beiden Modi laufen lässt) schneller als auf 2.0. :D :lol:

Das sie mit Shader 1.0 schneller laufen ist ja wohl logisch - weil sich die Karte dann gleich einen Haufen Effekte spart. Bestens zu sehen im neuen Splinter Cell (upgraded demo). Mit 1.1 sieht es wesentlich einfacher aus aber rennt wie die Sau. Bei 3.0 sieht es unglaublich heftig gut aus - was sich natürlich negativ auf die Systemperformance auswirkt, weil viel mehr Effekte dargestellt werden. Echtes HDR zum Beispiel. :freak:

Das Ati Shader 3.0 erst in der nächsten Generation unterstützt, hat Ihnen ein riesiges Verlustgeschäft beschert.
 
Die Vergleiche, wie z.B. in SC3 hier angestellt werden sind imo totaler Blödsin.

Fangen wir mal bei Riddick an. Dieses Spiel unterstützt werder das Shader Modell 1.1, noch 2.0 und erst recht nicht 3.0. Das Spiel ist OpenGL, somit gibt es da gar keine Shader Model Versionen. Das wirklich leistungsfressende liegt dort, wie bereits erwähnt, an den Soft-Shadows. Diese sind so wie sie programmiert sind nur auf NV3x und NV4x Hardware realisierbar und fressen unglaublich Leistung. Mit Shader Model hat dies schonmal 0,0 zu tun:)

Und Splinter Cell 3 nutzt zwar das SM3, dieses ist aber SCHNELLER als die Version 1.1. Natürlich nicht, wenn man alle SM3-exklusiven Features aktivert, dann wird es deutlich langsamer. Das liegt aber größtenteils nur an HDR, dann bricht die gesamte Karte ein.

Natürlich ist der NV4x nicht der optimale Chip für SM3 (Dynamic Brachnes benötigt etwas viele Takte), aber er ist sicherlich nicht ungeeignet und bei passender Implementierung wohl fast immer schneller als SM2.0. Nur wenn man so sinnvolle Vergleiche wie in SC3 mit ganz anderen Vorrausssetzungen macht, ist es kein Wunder, dass Blödsinn herauskommt. Zudem kann man die wahre SM3 Performance noch gar nicht einschätzen, da man fast alles auch mit SM2.x ohne Passreduktion durchführen kann.
 
marxx schrieb:
Was für ein Quark - die 6er laufen auf Shader 3.0 (wenn man die gleichen Grafikeffekte auf beiden Modi laufen lässt) schneller als auf 2.0. :D :lol:

Das sie mit Shader 1.0 schneller laufen ist ja wohl logisch - weil sich die Karte dann gleich einen Haufen Effekte spart. Bestens zu sehen im neuen Splinter Cell (upgraded demo). Mit 1.1 sieht es wesentlich einfacher aus aber rennt wie die Sau. Bei 3.0 sieht es unglaublich heftig gut aus - was sich natürlich negativ auf die Systemperformance auswirkt, weil viel mehr Effekte dargestellt werden. Echtes HDR zum Beispiel. :freak:

Das Ati Shader 3.0 erst in der nächsten Generation unterstützt, hat Ihnen ein riesiges Verlustgeschäft beschert.


Endlich mal einer der es verstanden hat, war richtig wohltuend dein Posting zu lesen.


/edit:

Gilt natuerlich ebenso fuer Wolfgang, dessen Posting sich dazwischen geschummelt hat.:)
 
marxx schrieb:
Was für ein Quark - die 6er laufen auf Shader 3.0 (wenn man die gleichen Grafikeffekte auf beiden Modi laufen lässt) schneller als auf 2.0. :D :lol:

Das sie mit Shader 1.0 schneller laufen ist ja wohl logisch - weil sich die Karte dann gleich einen Haufen Effekte spart. Bestens zu sehen im neuen Splinter Cell (upgraded demo). Mit 1.1 sieht es wesentlich einfacher aus aber rennt wie die Sau. Bei 3.0 sieht es unglaublich heftig gut aus - was sich natürlich negativ auf die Systemperformance auswirkt, weil viel mehr Effekte dargestellt werden. Echtes HDR zum Beispiel. :freak:

Das Ati Shader 3.0 erst in der nächsten Generation unterstützt, hat Ihnen ein riesiges Verlustgeschäft beschert.


Aber leider kannst du HDR und Soft Shadows mit aktiviertem SM3.0 nicht einzeln manuell abschalten, damit du die gleichen Grafikeffekte hast wie mit SM1.1. Deshalb bringt es nichts zu behaupten das 3.0 schneller als 1.1 sei.
Wir müssen einfach mal auf die neue Grakageneration warten. Vielleicht bringt die ja mehr Leistung.
 
STEEL schrieb:
Aber leider kannst du HDR und Soft Shadows mit aktiviertem SM3.0 nicht einzeln manuell abschalten, damit du die gleichen Grafikeffekte hast wie mit SM1.1.


Aber selbstverstaendlich kann man das.
 
Zurück
Oben