"Geforce 6800 Ultra" entäuschende Shader 3.0 Leistung

Wolfgang schrieb:
Die Vergleiche, wie z.B. in SC3 hier angestellt werden sind imo totaler Blödsin.

Fangen wir mal bei Riddick an. Dieses Spiel unterstützt werder das Shader Modell 1.1, noch 2.0 und erst recht nicht 3.0. Das Spiel ist OpenGL, somit gibt es da gar keine Shader Model Versionen. Das wirklich leistungsfressende liegt dort, wie bereits erwähnt, an den Soft-Shadows. Diese sind so wie sie programmiert sind nur auf NV3x und NV4x Hardware realisierbar und fressen unglaublich Leistung. Mit Shader Model hat dies schonmal 0,0 zu tun:)

Und Splinter Cell 3 nutzt zwar das SM3, dieses ist aber SCHNELLER als die Version 1.1. Natürlich nicht, wenn man alle SM3-exklusiven Features aktivert, dann wird es deutlich langsamer. Das liegt aber größtenteils nur an HDR, dann bricht die gesamte Karte ein.

Natürlich ist der NV4x nicht der optimale Chip für SM3 (Dynamic Brachnes benötigt etwas viele Takte), aber er ist sicherlich nicht ungeeignet und bei passender Implementierung wohl fast immer schneller als SM2.0. Nur wenn man so sinnvolle Vergleiche wie in SC3 mit ganz anderen Vorrausssetzungen macht, ist es kein Wunder, dass Blödsinn herauskommt. Zudem kann man die wahre SM3 Performance noch gar nicht einschätzen, da man fast alles auch mit SM2.x ohne Passreduktion durchführen kann.


So, und jetzt traut sich niemand mehr was zu sagen *löl*

Aber sehr Informativ... ich dachte immer der Softshadow wäre PS3.0 gebunden, oder warum steht im RIDDICK-Menü Shader 2.0++ nur für GF-6 Karten. Oder steht dass ++ für: 'PS2.0 inklusive Softshadow'?!

Und warum kann ich in der SplinterCell3-Demo den Softshadow mit meiner GF6 nicht unter PS1.1 einschalten?! Sollte dann ja auch gehen, wenn's ja nix mit PS3.0 zu tun hat... :cool_alt:
 
kisser schrieb:
Aber selbstverstaendlich kann man das.


Und wo? In den Spieleoptionen? Na dann müßten ja die Games die 3.0 unterstützen schneller laufen. Ganz klar. Nur wieso baut man dann extra neue Effekte ein, wenn die noch keine Karte so richtig darstellen kann?

@Shen Long Das frage ich mich auch!
 
Zuletzt bearbeitet:
STEEL schrieb:
Aber leider kannst du HDR und Soft Shadows mit aktiviertem SM3.0 nicht einzeln manuell abschalten, damit du die gleichen Grafikeffekte hast wie mit SM1.1. Deshalb bringt es nichts zu behaupten das 3.0 schneller als 1.1 sei.
Wir müssen einfach mal auf die neue Grakageneration warten. Vielleicht bringt die ja mehr Leistung.

Oh Mann......... informier Dich doch erstmal. Klar geht das. *Kopfschüttel*
Aber warum sollte ich das tun? Warum soll ich Grafikeffekte abschalten und das Spiel auf SM 3.0 zocken? Weil es dann ein paar Frames schneller läuft oder die Benchleistung besser ist? Warum sollte ich die beschränkten Effekte wie mit SM 1.1 überhaupt wollen? Dann bräuchte ich doch gar nicht erst ne HighEnd-Karte kaufen?

@steel: Die Frage, warum man überhaupt erst solche Effekte einbaut: Vielleicht, weil die Grafik immer besser wird und damit Splinter Cell 3 nicht schon eine Grafikgeneration weiter veraltet aussieht? Und die Unterstellung, dass es nicht läuft - tsss - selbst meine 6800 GT stellt das Spiel flüssig dar, ne Ultra schon lange. Nur mit der ersten Version der Demo gab es Performance-Probleme. In der Demo waren auch ne Menge Regeneffekte noch nicht zu sehen, die nun ebenso flüssig laufen sollen.
 
Zuletzt bearbeitet:
Bei Riddick weiß ich es nicht genau, aber imo können dort auch die GeForce FX Karten das Sm2.0+ benutzen, was ja auch logisch wäre:)
Wobei die Bezeichnung eigentlich halt verkehrt ist, höchsten vergleichbare Shader wie mit SM2.a wäre richtig:D

Die Softshadows benutzen imo längere Shader, welche mit SM2.0 Hardware nicht realisierbar sind.

Und in SC3 geht dies nicht, da die Softshadows imo erst ab PS2 realisierbar gewesen wären, aber noch nicht mit PS1.1. Deshalb sind die Soft Shadows im Fall Splinter Cell3 SM3.0-Exklusiv, da auf die UInterstützung vom SM2.0 verzichtet wurde.
 
marxx schrieb:
Oh Mann......... informier Dich doch erstmal. Klar geht das. *Kopfschüttel*
Aber warum sollte ich das tun? Warum soll ich Grafikeffekte abschalten und das Spiel auf SM 3.0 zocken? Weil es dann ein paar Frames schneller läuft oder die Benchleistung besser ist? Warum sollte ich die beschränkten Effekte wie mit SM 1.1 überhaupt wollen? Dann bräuchte ich doch gar nicht erst ne HighEnd-Karte kaufen?


Weil es wohl um Einiges flüssiger wird. Deshalb! :rolleyes: Was nützen mir supergeile Effekte, wenn ich eine Ruckelorgie erleben muß und mir die Augen dabei wehtun. :freak:
 
Wolfgang schrieb:
Die Vergleiche, wie z.B. in SC3 hier angestellt werden sind imo totaler Blödsin.

Fangen wir mal bei Riddick an. Dieses Spiel unterstützt werder das Shader Modell 1.1, noch 2.0 und erst recht nicht 3.0. Das Spiel ist OpenGL, somit gibt es da gar keine Shader Model Versionen. Das wirklich leistungsfressende liegt dort, wie bereits erwähnt, an den Soft-Shadows. Diese sind so wie sie programmiert sind nur auf NV3x und NV4x Hardware realisierbar und fressen unglaublich Leistung. Mit Shader Model hat dies schonmal 0,0 zu tun:)

Und Splinter Cell 3 nutzt zwar das SM3, dieses ist aber SCHNELLER als die Version 1.1. Natürlich nicht, wenn man alle SM3-exklusiven Features aktivert, dann wird es deutlich langsamer. Das liegt aber größtenteils nur an HDR, dann bricht die gesamte Karte ein.

Natürlich ist der NV4x nicht der optimale Chip für SM3 (Dynamic Brachnes benötigt etwas viele Takte), aber er ist sicherlich nicht ungeeignet und bei passender Implementierung wohl fast immer schneller als SM2.0. Nur wenn man so sinnvolle Vergleiche wie in SC3 mit ganz anderen Vorrausssetzungen macht, ist es kein Wunder, dass Blödsinn herauskommt. Zudem kann man die wahre SM3 Performance noch gar nicht einschätzen, da man fast alles auch mit SM2.x ohne Passreduktion durchführen kann.

Aber im Grafikmenü hab ich ja die auswahl von SM. Oder ist das nur simuliert?
 
bei Riddick kann man definitiv auch bei Shader 3 Karten (in meinem Fall 6600GT) einstellen, welchen Shader man nutzen möchte.
Shader1.. Shader 2 oder Shader 2++ (Shader3)

mfg
chris
 
Ok, nochmal.

Riddick ist ein OpenGL-Spiel und unter dieser API gibt es die Bezeichnung Shader Modell nicht und somit auch kein SM2.0 oder ähnliches. DIese gibt es nur unter DirectX.

Ich vermute, da sich der Begriff Shader Model im Moment gut gemausert hat, dass die Entwickler auf diesen Begriff zurückgreifen wollten, auch wenn es ihn unter OpenGL eigentliuch gar nicht gibt. Also haben sie die benutzten Shader genommen, einen Vergleich angestellt was in welche DX-Spezifikation passen würde und somit einfach ihr SPielmenü damit geschmückt.

Somit kann die Funktion SM2.0++ auch nur von SM2.a-Karten (ab GeForceFX bei nVidia aufwärts) ausgeführt werden. Und natürlich kann man die Modi auch bei SM3.0_karten auswählen.
 
marxx schrieb:
Nur mit der ersten Version der Demo gab es Performance-Probleme. In der Demo waren auch ne Menge Regeneffekte noch nicht zu sehen, die nun ebenso flüssig laufen sollen.

Das wird's wohl sein... mal unbedingt den patch suchen. Mal sehen, ob das was ausmacht.

das wäre ja dann genau das, was ich im Post No#10 erwähnt habe. :freaky:
 
Es gibt keinen Patch zur Demo. Die Demo auf den Zeitschriften war nur fehlerhaft - es wurde kurz danach eine neue veröffentlicht die als "Official Demo" verbreitet wurde und daran zu erkennen ist, dass sie ein paar wenige MB größer ist als die erste. Musst mal schauen, ob Du die vielleicht über Gamershell bekommst.

Die berüchtigten Regeneffekte (Wasser perlt von der Uniform ab) enthielt diese "neue" Demo allerdings auch noch nicht - die gibt's erst im fertigen Spiel zu sehen. Ab nächste Woche Donnerstag. :D
 
Wolfgang schrieb:
Deshalb sind die Soft Shadows im Fall Splinter Cell3 SM3.0-Exklusiv, da auf die UInterstützung vom SM2.0 verzichtet wurde.


Man koennte auch sagen "verzichtet werden musste" denn die HLSL Shader von SC3 lassen sich nicht als SM2.x kompilieren.
Um SM2.x zu unterstuetzen haette man also die HLSL Shader anders (=wesentlich aufwendiger!) programmieren muessen.
Bei den begrenzten Budgets die Spieleentwickler zur Verfuegung haben ist es da nur logisch, dass man den einfacheren Weg gewaehlt hat.
 
marxx schrieb:
Es gibt keinen Patch zur Demo. Die Demo auf den Zeitschriften war nur fehlerhaft - es wurde kurz danach eine neue veröffentlicht die als "Official Demo" verbreitet wurde und daran zu erkennen ist, dass sie ein paar wenige MB größer ist als die erste. Musst mal schauen, ob Du die vielleicht über Gamershell bekommst.

Jepp, hab' sie gefunden. danke Dir nochmal...
 
Ich finde diesen Post sehr bissig!

Da heisst es ATI verliert Kunden, SM3.0 ist schneller obwohl mehr Effekte dargestellt werden und und und!

Ich sehe das so:

SM 3.0 bietet mehr Effekte - diese benötigen Leistung - damit hat Nvidia schon immer Probleme gehabt - bei AA&AF starke FPS Einbrüche Geforce 6800Ultra UT2004 1280x1024 ohne AA&AF noch 240 fps und mit 4fach AA und 8fach AF 140 fps, wobei die ATI X850XT nur 40 fps verliert

Die 6800er haben nicht genug Saft 3.0 flüssig darzustellen!

ATI verliert Kunden wegen besagtem SM 3.0 Pfad? Wenn dann sind es die die glauben das SM 3.0 Sinn machen würde ihre Karte das auch darstellen kann und das ihre Grakas wenigstens noch nen Jahr aktuell sind, eher 2 Jahr um nicht umrüsten zu müssen! Wer dies als Kaufgrund nimmt wird eine böse Überraschung erleben!

Ich spiele fast ausschließlich mit AA&AF, und als ich sah das meine 6800er mit 16 Pipelines und übertaktet BF1942 (3 Jahre altes Spiel) mit vollem AA&AF nicht flüssig darstellen kann (sogar Grafikfehler bei den Einstellungen (Menübalken oben flackerte wiederlich)), bin ich schnell wieder zu ATI, das schaffte sogar ne 9800pro!

In diesem Sinne

P.S. Die Zeit ist noch nicht reif für Shader 3.0, jedenfalls nicht mit den aktuellen Grakas
 
sossentunte schrieb:
In diesem Sinne

P.S. Die Zeit ist noch nicht reif für Shader 3.0, jedenfalls nicht mit den aktuellen Grakas

Da stimm ich dir voll und ganz zu.
Hab nun mal den großen fehler gemacht und mir ne 6800 Ultra graka angeschaft das nächste mal kein nvidia mehr. Ati war eigentlich im Q.Modus immer besser nur ich wollte es einfach nicht wahr haben.


mfg azdr
 
wartet doch erstmal ab bis spiele draussen sind, die SM 3 voll unterstützen und nicht durch irgendwelche softmodes scheisse
 
Und wie ist die SM3.0 Leistung bei einer 6600GT?
 
Na ganz einfach: Mittelklasse. Die Karte ordnet sich ja auch eindeutig im Mitttelklasse-Segment ein, da kann man keine großen Sprünge erwarten. Noch. Denn wie GaaBBa richtig sagt, unterstützen Spiele erst seit kurzem SM 3.0. Technik in Kinderschuhen.


Die unterstützten Effekte sehen allerdings klasse aus - die Probleme liegen eher noch in der vernünftigen Einbindung. FarCry und SC 3 setzen mächtig Rechenpower voraus, um z.B. die HDR Effekte darzustellen. Künftig wird 3.0 zum Standard und sicher auch "besser" implementiert, sprich ressourcenschonender.

Aber was soll die Diskussion ob die Effekte Sinn machen?
Wollen wir hier jetzt etwa einen Fanboy-Streit zwischen NVidia und ATI lostreten? :hammer_alt:
Kann doch nicht euer Ernst sein - es gab und wird immer Spiele geben, die technisch einen weiten Schritt nach vorne wagen. Wenn Epics neue Engine rauskommt, haben wir mit den heutigen Karten erstmal Daumenkino. Die volle Palette Schönheit gibt es dann halt nur mit den besten GPUs.
 
azdr schrieb:
Ati war eigentlich im Q.Modus immer besser nur ich wollte es einfach nicht wahr haben.


mfg azdr


Sorry, aber das iss Käse. Ich habe nen Athlon2800+@3400+ mit 6800GT und meine Frau 'nen Pentium4 3,4Ghz mit x800XT. Beide Systeme an gleichen Monitoren. (VideoSeven V7 N110S).

Und die Unterschiede sind 'zu gering', um überhaupt von Unterschieden zu sprechen. Wenn ich ehrlich bin geht's mir auf die Nerven, dass User, die nur EINE Grafikkarte haben, diese auch für die Beste halten. Scheinbar muss das aber so sein?!

Sprüche wie: jetzt habe ich ATI, niemehr nVIDIA, oder wie: der Q-Modus bei ATI ist um Welten besser... kann man sich schenken. Es liegt im Auge des Betrachters und an den Games, was die Karten zu Leisten vermögen. Nicht ohne Grund Spiele ich Doom³ in 1600x1200 High Detail auf meiner GF6 und FarCry auf der x800XT.

Hätte man als Benchmark 'nur' Doom³ wären alle ATI-Karten kacke. :rolleyes:
Würde man alle Karten mit 'The Projekt' benchen wäre es andersrum.

So, lange Rede kurzer Sinn: Pixelshader 3.0 macht Sinn, ATI Karten haben den höheren Core-Takt! :cool_alt:
 
Ich denke er meint nicht unbedingt die Bildqualität, vielmehr die Leistung bei eingeschalteter Qualität!

Die Nvdias haben bei vielen Spielen teils extreme Performanceeinbrüche UT no AA&AF 240fps in 1280x1024 und mit 4AA & 8AF gerade noch 140fps! ATI verliert dort nur 40fps!

Das macht die Spielbarkeit je nach Spiel nur noch bedingt möglich! Ich rede zwar nicht von UT da reichen dann die 140fps noch aus, aber UT hatte noch nie eine besonders anspruchsvolle Grafik, kaum Effekte alles nur Texturen, nichts zerstörbar und so weiter!
 
Nochmal zu Riddick, wenn es doch Shader unabhängig ist wieso kann ich dann mit meiner X800XT PE nicht auf 2.0++ umstellen (Softshadows). Ich hab als höchste Einstellung 2.0, ich will aber mal das Game mit Softshadows zocken:(
 
Zurück
Oben