News nVidia und das Shader Model 3.0

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.187
nVidia und das Shader Model 3.0 - spätestens seit der GeForce 6-Serie ein Kapitel für sich. Während nVidia höchstpersönlich keine Gelegenheit ausläßt, das Feature als so genanntes „must have“ zu verkaufen, ist ATi ebenso schnell zur Stelle, dessen Nutzlosigkeit zu postulieren.

Zur News: nVidia und das Shader Model 3.0
 
Aber das hat ATI genau so damals mit ihren DX 9 Karten gemacht. Von daher, gleiches Recht für alle!
 
aber damals war der schritt viel größer von DX8.1 auf DX9!

Außerdem ist es mir völlig egal ob ich DX 9 mit SM 2.0b oder SM 3 hab.
Am Bild bemerkt man es eh nicht sondern nur in der Performance und lieber warte ich auf SM 4 oder sogar DX 10 wenn mir meine karte bis dahin ausreicht.
 
StarTrokus schrieb:
Aber das hat ATI genau so damals mit ihren DX 9 Karten gemacht. Von daher, gleiches Recht für alle!


Stimmt schon,nur ist der technologische Vorsprung von DX9 gegenüber zu DX8 doch noch etwas größer,als von SM3.0 gegenüber SM2.0.Wo es nichtmal optisch Unterschiede gibt.Und das Leistungsplus von SM3.0 ist doch zur Zeit doch noch recht marginal.Zumal ATI mit SM2.0b performancemäsig auch nochmal zulegen kann.Dann sind die Abstände noch etwas kleiner.
 
was mich am meisten schockiert ist die spieleliste: entweder fortsetzungen oder neuauflagen eines bestehenden spielprinzips ....aber hey, hauptsache shader 3.0 ^^ ....kreativität braucht die welt wohl nicht mehr ;)
 
Jemand der schreibt das das SM3.0 nur Performance bringt und er es desshalb für unnötig befindet hat irgendwas verpasst. Der Grundgedanke dieser Optimierung ist, die gewonnene Performance für neuere bessere Effekte in Spielen zu nutzen. An Farcry kann man nur die gewonnene Performance begutachten, kein Wunder, denn mit einem Patch wird man wohl kaum neue aufwendige Effekte einbauen.

gruss, Max
 
ich schätze , dass die entwickler auch etwas für die ati karten tun werden müssen , denn niemand kann sich heutzutage noch leisten ein spiel nur mit einer der grafikkartenfamilie gut laufen lassen zu können

also keine sorge ;)

btw. : metal of honor
*vorlachenzusammenbrech* Ro-fel
 
engeil

" Grafan - never heard of it "

das never heard of it ist echt geil formuliert von Inquirer
 
Ich bin fest davon überzeugt das schon wieder ein Nachfolgemodel der Shader 3.0 Funktion irgendwo als Prototyp bereits fertig in einer "Schublade" liegt, sobald alle sich die neuen Karten zugelegt haben und die Umsätze gestiegen sind kommt eh wieder was neues auf den Markt! :rolleyes:

So ist es immer schon gewesen und so wird es auch immer bleiben!
Übrigens nicht nur in der Computerindustrie, so ist es auch bei Handys und in der Hifi-Technik etc. auch schon immer gewesen!
(Völlig normal ist das eben) :D

Sobald man sich eine neue Karte zugelegt hat, kommt die nächste bessere auf den Markt wo die Grafiken dann noch besser sind usw.
Ich weiß noch ganz genau wo die ersten GeForce Karten damals vermarktet wurden, was da für ein Welle überall gemacht wurde, die Revolution im Spiele-Bereich hieß es im Fernsehn, Radio und Zeitschriften.

Mal ganz ehrlich, muß man immer das allerneuste gleich kaufen, ich warte grundsätzlich erstmal ab bevor ich Hardware kaufe!
Ich spiele zwar selber sehr viel hier bei mir und habe auch aktuelle Hardware in meinem Rechner drin, aber trotzdem sehe ich der ganzen Entwicklung eher gelassen zu! :cool_alt:
 
Zuletzt bearbeitet:
Ich finde das alles reichlich albern. Wenn das Shader-Model 3.0 seine Daseinsberechtigung hat, weil es entsprechend unterstützt wird, ist es ok. Es ist doch auch völlig normal, daß eine Technologie vom Hersteller beworben wird. ATi hat das auch gemacht bei DX 9 und dem Shader-Model 2.0. Die 3er Shader werden eh noch nicht genutzt, aber wenn man nicht alle Nase lang viel Geld für eine GraKa ausgeben will, kauft man sich eben eine nVidia jetzt und spart sich das Geld später, wenn man der Ansicht ist, es wird nun unterstützt und müßte unbedingt im Rechner stecken... ich nutze immer noch eine Ti4200... reicht auch noch ;)
 
Bleibt das mit dem SM3.0 lediglich beim performance-gewinn? hab schon bilder gesehen (von Far Cry) auf denen man ne nachbearbeitete version mit Sm3.0 gesehen hat. Der Unterschied war da deutlich zu sehen. Mittlerweil ist aber nirgenwo mehr die rede von ner detailverbesserung.
Zur technik: nen normalo kann das geld gar nicht aufbringen um immer auf dem neuesten stand zu bleiben.
 
Es wird wohl noch einige Zeit dauern bis SM3.0 DEN großen Performance sprung bietet (wenn überhaupt). Und dann hat auch ATI einen SM3.0 Chip. Den Spielehersteller wollen, dass die Spiele auf beiden Karten gut laufen, außer sie haben einen Vertrag mit dem jeweiligen Hersteller...

Ach ja.. der nächste große Performance Sprung kommt mir WGF. Aber bis da hin wird es wohl noch ein weilchen dauern.
 
@14

Dass das neue DX einen Performance-Sprung mit sich bringt
wage ich zu bezweifeln!

Denn das bringt M$ nur(!) für Longhorn!
Und Longhorn frisst so viele Ressourcen dass ich kaum glaube
dass die das mit WGF ausgleichen können... ;)

Ich hoffe wenn es soweit ist hacken irgendwelche WGF so dass
es auf XP läuft.
Das wäre dann sicherlich der Knaller. :)
 
honkitonk schrieb:
Bleibt das mit dem SM3.0 lediglich beim performance-gewinn? hab schon bilder gesehen (von Far Cry) auf denen man ne nachbearbeitete version mit Sm3.0 gesehen hat. Der Unterschied war da deutlich zu sehen. Mittlerweil ist aber nirgenwo mehr die rede von ner detailverbesserung.
Zur technik: nen normalo kann das geld gar nicht aufbringen um immer auf dem neuesten stand zu bleiben.



Das waren eindeutig Fakebilder von NV.Um dumme unwissende User von ihrem ach so supergeilen SM3.0 zu überzeugen.Also wieder nur agressives Marketing.
Glaub mir:SM3.0 bringt nur mehr Performance mehr nicht!
 
Nachtrag:
Na toll, also WGF wird wohl doch nicht auf XP zum laufen gebracht werden KÖNNEN. :(

Wegen dem Treibermodell oder so... naja, schade. :(
 
Zurück
Oben