Für die, die nicht wissen, was genau Shader 3 bringt!

KraetziChriZ

Lt. Commander
Registriert
Dez. 2004
Beiträge
1.832
Hiho!
Also da ich öfters gelesen habe "Was bringt mir dieser Shader 3 nun?" oder "brauch ich das denn?" Poste ich hier mal ein Paar Pics von Far Cry:
es luppt mit meiner 6600GT mit Shader 3.0 - Bilder sind jeweils nach Szenen sortiert die ersten Bilder sind immer mit Shader 2 - die folgenden mit Shader 3...
Sehr schön sieht man in Szene 7, was HDRRendering (so nennt sich der Effekt in Far Cry) wirklich bringt! Ich muss sagen, wenn dies keine ATI-Karte kann, will ich keine ATI Karte :D
Auf 1024 OHNE AA/AF habe ich OHNE Shader 3 ~70FPS -> mit Shader 3 ~30FPS :P
Ich denke mal das man mit einer 6800GT das Game auf 1600x1200 in Ordentlichen Framezahlen zoggen kann ;)
postet doch mal eure Werte und schreibt was ihr vom Shader 3 haltet
hier der Link zu den Pics (sry, sind leider bisschen groß geraten):
Far Cry Shader 2-3 Gallerie

mfg
chris

P.s: ein Paar Pics sind noch am Uploaden... wartet einfach noch 10 min ;)
 
Re: Für die, die nicht wissen, was genau Shader 3 bringt :)

irgendwie sehe ich keine Bilder sondern nur einen "Spiegel" :D
 
Re: Für die, die nicht wissen, was genau Shader 3 bringt :)

SM3.0 bringt derzeit keinerlei verbesserte Bildqualität gegenüber SM2.0 oder SM2.0b. Das was du da zeigst ist High Dynamic Range Rendering (Können die ATi Karten auch, nur ohne Alpha-Blending; Habs auf meiner R9800np und der ATi/Crytek Techdemo "The Project" ausprobiert und es geht) und hat so gesehen nicht viel mit SM3.0 zu tun.

Aber selbst eine GF6800U geht bei HDR in Farcry extremst in die Knie und es ist nicht wirklich spielbar.
 
Re: Für die, die nicht wissen, was genau Shader 3 bringt :)

hmmmmmm naja das HDRRendering kann laut GameStar nur karten mit ShaderModel 3 und das sind 6600GT/6800GT und 6800Ultra.... soweit ich weiß!

mfg
chris
 
Re: Für die, die nicht wissen, was genau Shader 3 bringt :)

Hi! Ja, echt super, mit deinem Shader 3.0! Wenn erstmal Farcry 2 rauskommt, unterstüzt das die ATI 3Drc ( <-- kA wie das nochmal genau heißt). Dann ist es für ATI optimier. Dann bringt dir dein Shader 3.0 auch nichts. Außrdem werde ich bald viel CS:Source zocken. Da ist man mit ATI im Vorteil. Deswegen habe ich mir jetzt eine X850XT bestellt.
Trotzdem ist deine 68Gt nicht schlecht. Wollte mir die Karte auch erst kaufen, aber die war nur 20€ billiger und dann wollte ich doch lieber die X850XT haben. Hat halt mehr Leistung.


mfG EvilMoe :cool_alt: :cool_alt:
 
Re: Für die, die nicht wissen, was genau Shader 3 bringt :)

cHris4w4r3z schrieb:
hmmmmmm naja das HDRRendering kann laut GameStar nur karten mit ShaderModel 3 und das sind 6600GT/6800GT und 6800Ultra.... soweit ich weiß!

mfg
chris

Gamestar ;)

Es geht auch auf allen DX9 ATi-Karten, nur eben ohne Alpha-Blending (Selbst bei HL2 gings, damals als Valve die HL2-Techdemo gezeigt hat. Da lief es auf einer R9800Pro/XT).

Wie gesagt, bei The Project gehts auch auf meiner R9800np. Nur gibts Probleme mit durchsichtigen Sachen, was auf das fehlende Alpha-Blending zurückzuführen sein sollte.

SM3.0 bringt selbst (Von alleine) also bisher keine verbesserte Bildqualität ;)

@-shadow-

Steht doch auf den Bildern drauf woher die kommen, ganz eindeutig ;D
 
Re: Für die, die nicht wissen, was genau Shader 3 bringt :)

TheCounter schrieb:
SM3.0 bringt derzeit keinerlei verbesserte Bildqualität gegenüber SM2.0 oder SM2.0b.


das ist richtig - alle funktionen die man mit SM 3.0 realisieren kann, kann man auch mit SM 2.0 machen...von der Bildqualität bringt SM 3.0 genau -> nichts...

mehr muss man dazu auch nicht sagen ;)

greetz shaft
 
Re: Für die, die nicht wissen, was genau Shader 3 bringt :)

Ist höhere Leistung nicht nennenswert? ;)

/OT

Irgendwie kommt mir diese Michelle bekannt vor... *grübel* ;) :D
 
Re: Für die, die nicht wissen, was genau Shader 3 bringt :)

TheShaft schrieb:
das ist richtig - alle funktionen die man mit SM 3.0 realisieren kann, kann man auch mit SM 2.0 machen...von der Bildqualität bringt SM 3.0 genau -> nichts...

mehr muss man dazu auch nicht sagen ;)

greetz shaft
Das ist nicht wahr. Ich hab hier im Forum schonmal beide Shademodels gegeüber gestellt. Da sind gravierende Unterschiede, so dass man nicht alles was mit SM3 möglich ist auch mit SM2 erreichen kann. ;)
Kannst ja mal die Suchfunktion anwerfen.

//Edit
https://www.computerbase.de/forum/t...hied-nvidia-vs-ati.109215/page-5#post-1073666
 
Bis auf D_B imo nix weltbewegendes. Performancetechnisch ist 3DC SM3.0 bis dato absolut ebenbürtig. Derzeit können die Eigenschaften SM3.0´s imo leider nur als Gimmick bezeichnet werden. Mir ist allerdings klar, daß sich dies noch ändern wird. Ob dann allerdings der NV4x performant genug ist, um die zukünftigen Performancefresser in spielbaren FPS widerzugeben wage ich zu bezweifeln!
 
hat eigentlich PS 1.x auf 2.0 Qualiunterschiede gebracht?

PS 3.0 sorgt nur für paar pfs mehr und halt das HDR, und wie ich fidne reicht das schon als Beweiss das PS 3.0 ne feine Sache ist !
 
jop :-) sehe ich genau so ;)
deshalb hab ich auch die screens gepostet ;P
 
Re: Für die, die nicht wissen, was genau Shader 3 bringt :)

TheCounter schrieb:
Das was du da zeigst ist High Dynamic Range Rendering (Können die ATi Karten auch, nur ohne Alpha-Blending; Habs auf meiner R9800np und der ATi/Crytek Techdemo "The Project" ausprobiert und es geht) und hat so gesehen nicht viel mit SM3.0 zu tun.

das stimmt nicht.
echtes hdr setzt shader 3.0 vorraus.
alles andere ist kein hdr.
das mit ati und dem sh2.0b (lightning) hat mit hdr nur leichte ähnlichkeit.
das nennt sich dann "real time lightning with high dynamic range".

HDR(64-bit) basiert auf dem openEXR-standart.
openEXR stammt aus der Filmtechnik für HDRI(High Dynamic Range Image).
HDR braucht 64 bit floting point frame buffer blending & filtering,
was den shader 3.0 vorraussetzt.
ATi bietet nur 32 bit floating point präzision.
ergo = ohne shader 3.0 kein HDR.

wer zwischen sh2.0b und sh3.0 keinen unterschied sieht,
sollte einen optiker aufsuchen. :D

da die zusätzlichen sh3.0 effekte und hdr noch saumäßig leistung fressen,
finden diese noch selten anwendung.
 
Ich hab auch nochmal einen schönen Vergleich gefunden.
Vielleicht etwas extreme, aber das man den Unterschied sieht.
 

Anhänge

  • Pixel Shader 1.1 Bild 1.jpg
    Pixel Shader 1.1 Bild 1.jpg
    146,2 KB · Aufrufe: 284
  • Shader Model 3.0 Bild 1.jpg
    Shader Model 3.0 Bild 1.jpg
    132 KB · Aufrufe: 276
  • Pixel Shader 1.1 Bild2.jpg
    Pixel Shader 1.1 Bild2.jpg
    147,3 KB · Aufrufe: 293
  • Shader Model 3.0 Bild 2.jpg
    Shader Model 3.0 Bild 2.jpg
    147,3 KB · Aufrufe: 265
Waren das nicht die Fakebilder die NV zu einer Präsentation gezeigt hat?
So gravierend, wie auf den Bildern gezeigt, sind die Unterschiede von 2.0 und 3.0 nun auch wieder nicht.

Auserdem ist SM3.0 mit G6 Karten eh viel zu langsam und macht erst mit der nächsten Generation (G7) sinn.
 
Sleepy Hollow schrieb:
Ich hab auch nochmal einen schönen Vergleich gefunden.
Vielleicht etwas extreme, aber das man den Unterschied sieht.

Das ist ein Vergleich zwischen SM1.X und SM2.0/3.0 (Letzteres sieht absolut identisch aus) ;)

Es gibt momentan in aktuellen Games die SM3.0 unterstützen keinen Unterschied in die Bildqualität zwischen SM2.0 und SM3.0. Farcry sieht absolut gleich aus mit SM2.0 und SM3.0, das wurde nun schon so oft getestet.

@Accuface

Ja hat es. Bei SM3.0 und SM2.0 wird das aber lange nicht der Fall sein. Erst mit WGF2.0 dürfte es wieder etwas größere Sprünge geben.

@yamahakuesser

Das ist HDR (Wenn auch nur optisch ;)), zumindest sieht es auf den Screenshots gleich aus wie auf den NV4x Karten (Bis auf das fehlende Blending, weswegen es Grafikfehler bei durchsichtigen Objekten/Shadern kommt) ;)

Mit SM3.0 wird es keine großartigen neuen Effekte geben, das wirds erst wieder mit WGF2.0 geben das dann nächstes Jahr schon kommt. Für echte SM3.0 Engines ala UE3 ist aber selbst eine GF6800U viel zu lahm (Außer man spielt in niedrigen Auflösungen und nicht mit max. Details ;)).

Btw.: https://www.computerbase.de/artikel/grafikkarten/far-cry-version-1-2-test.366/
 
Zuletzt bearbeitet:
Lad dir mal diese Bilder und schau sie nacheinander mit nem Bild-Viewer (z.B. ACDsee) an...
und sag mir ob sich an der Bildqualität nichts getan hat... btw. den Effekt können NUR Geforce 6 karten und KEINE ATI Karte (soweit ich weiß)

mfg
chris
 
Zurück
Oben