News Geforce FX 5900 Ultra unterstützt Pixelshader 3.0?

Frank

Chefredakteur
Teammitglied
Registriert
März 2001
Beiträge
8.776
The Inquirer streut wieder einmal neue Gerüchte und so wollen sie dieses Mal erfahren haben, dass der NV35, GeForce FX 5900 (Ultra), bereits Pixelshader 3.0 unterstützt. Es existieren momentan jedoch keine öffentlichen Treiber, die dies unterstützen.

Zur News: Geforce FX 5900 Ultra unterstützt Pixelshader 3.0?
 
Das sieht verdächtig nach einer Verlängerung des Sommerlochs aus :).

Bereits seit mehreren Wochen kursiert diese Vermutung im Netz, wobei nVidia noch kein Statement hierzu abgegeben hat - und wohl auch nicht wird. Der praktische Nutzen für den Käufer ist derzeit jedenfalls Null, obschon in Bälde DX9 Spiele auf den Markt kommen.
 
Da das jetzige DirectX9 angeblich bereits teilweise Unterstützung für Pixelshader 3.0 integriert hat wäre es von daher möglich.Aber selbst sollte die GeforceFX-GPU Pixelshader 3.0 ausführen können dann wohl nur sehr langsam und in realen Spielen dadurch eher fast unbrauchbar.
Schon die jetzigen Instruktionens laut Pixelshader 2.0 sind sehr aufwendig und bedürfen langen Codes die aufwendiger ausgeführt werden müssen, der GunMetal-Benchmarks der Pixelshader 2.0 zeigt wie da selbst eine 9700pro oder FX5900 in den FRames an die Grenze fast getrieben wird dadurch.
Mit noch längeren Pixelshader 3.0 wäre das dann wohl nicht mehr flüssig machbar, b.z.w. erst die kommende ATI oder Nvidia-Generation dafür auch stark genug gerüstet.
 
Diese News ist genauso viel Glauben zu schenken wie mit 300Millionen bei der NV40 mit weiteren anderen unglaublichen (Traum)Spezifikationen.
Jo und ich stelle eine neue Behauptung auf.
Kauft Ati-Karten denn habt ihr die grösste Kompatibilität zu GameCube, GameCube2, Xbox2 und möglicherweise Playstation3-Emulatoren.

P.S. Alles FUD, schenkt irgendwelchen Gerüchten aus dubiosen Quellen (angeblich soll ein Entwickler der Detonator-Treiber gesungen haben) keinen Glauben!
 
@ DjDINO: DirectX9 unterstützt vollständig Vertex- und Pixelshader 3.0, womit Microsoft schon Ende letzten Jahres genau vorgegeben hat, wie die nächsten 2 Generationen von Grafikkarten aussehen werden (weshalb auch DirectX10 erst 2005 herauskommen soll). langsamer wird deshalb gar nichts, da es sich größtenteils nicht um neue Befehle und Funktionen handelt, sondern nur Beschränkungen wegfallen, die bis jetzt das Programmieren umständlich gemacht haben (instruction count, conditionals, dependant texture fetches etc.) bzw. die Pipeline etwas flexibler wird (early z-test, mehr veränderbare Vars im fragment program). aber weder ps 2.0 noch 3.0 benötigen "langen Code, der aufwändig ausgeführt werden muss" - solche programme bestehen hauptsächlich aus low-level instructions, die genauso an die GPU weitergegeben werden.
 
Immerhin ist die NV3xA auf PS3.0 ausgelegt, ATI muss hier erst ihre R3xxA komplett umbauen damit PS3.0 Hardwaremäßig möglich wird. Ich denk mal in Sachen PS3.0 wirds so werden wie jetzt bei NVIDIA und ATI, bloß das ATI hier verdammt lahmen wird.

Nützen würde es im mom noch nix, da es ja keine PS3.0 Games in absehbarer Zeit geben wird.
 
@DjDINO
interessanter Vergleich, aber z.Zt. nicht ganz fair, da in DirectX9 derzeit Shadercode laut ATI-Spec kompiliert wird (damals war noch kein nvidia-spec verfügbar) und somit die Stärken des nvidia-Chips untergehen. Ich glaub zwar auch, dass derzeit ATI die bessere Wahl ist, aber Microsoft wird in den nächsten Monaten auch die nvidia-Optimierungen in DirectX aufnehmen und dann lassen sich wieder halbwegs vernünftige Vergleiche ziehen. Die fehlende PS1.4-Unterstützung von nvidia und die 32bit bei full precision (gegenüber 24 bit bei ATI) machen einen fairen Vergleich zusätzlich schwer...
Richtig spannend wird's glaub ich erst wieder mit NV40 gegen R420, weil da sollten eigentlich beide Chips endlich mal ziemlich gleichauf im Funktionsumfang liegen und dann wird absehbar sein, wer in der Architektur auf's richtige Pferd gesetzt hat.
 
@butthead Ja davon auch gehört, DirectX9 wurde also grob gesagt eher auf die Karten optimiert welche DirectX9 als erstes unterstützen und das war nun mal die 9500bis9700pro schon vor 1 Jahr.Microsofts Microsoft´s High Level
Shader Language-Vorgabe an DirectX9 - die HLSL hat ATI brav umgesetzt, Nvidia ging mit dem CG zwar dazu kompatible aber doch eigene, mehr GPU-Spezifische Wege.Vielleicht zeigt sich das nun das ein Fehler bei Spielen die von CG keinen Gebrauch machen, was ich weis nutzt ja Tomb Raider 6 kein CG (erkennbar übrigens immer gut daran ob eine "cg.dll"-Datei im Spieleordner irgendwo ist :-))
 
@10

Tomb Rider 6 nutzt CG, du musst nur den neuesten Compiler draufmachen und schon läufts komplett auf CG :-)

Bin ja gespannt ob ATI so ne Shaderperformence wie NVIDIA bei PS 3.0 hinbekommt... ich glaubs zwar nicht, aber mal abwarten. PS2.0 ist ATI Gebiet, PS3.0 ist NVIDIA Gebiet :-)
 
Haha Nvidia kann ja von Glück sagen wenn das Progi hier halbwegs anständig leuft und das ist vol Ps 2.0 die brauchen in nächster zeit erst garnicht kommen mit Ps 3.0 hier der Link aber das kennt ihr bestimmt schon sieht hammer geil aus.
Das ist die Zukunft !!!

http://www.daionet.gr.jp/~masa/rthdribl/index.html#Download
 
@DjDINO kann mir nicht vorstellen, dass in nächster Zeit ein Spiel nur auf Cg setzen wird - der ATI-Code ist praktisch immer separat geschrieben, da Cg alles auf nvidia-Karten hinoptimiert (und alle Performance-Optimierungs-Empfehlungen in der Cg-Guide nur für Nvidia-Karten gelten) - Cg unterstützt ja z.B. nicht mal PS1.4, was den ATI-Karten in aktuellen Spielen oftmals einen großen Vorsprung verschafft.
Abgesehen davon ist der Cg-Compiler schrecklich uneffizient, bearbeite den übersetzten Code immer noch händisch nach und hab dann teilweise die doppelte Performance (in einem Fall ca. 50 Shaderinstruktionen von Cg generiert, 21 nach händischer Optimierung).
Wenn Nvidia so weitermacht und sich mit Version 1.2 des compilers nichts grossartiges ändert, dann wird sich wohl was anderes durchsetzen ... (vielleicht ja OpenGL1.5SL, die schon in den Startlöchern steht?)
@TheCounter wie kommst du drauf, dass PS3.0 nvidia-Gebiet ist oder sein wird? bisher gibt es dafür nun wirklich keine hinweise ...
 
@TheCounter Hm, nochmal geschaut, stimmt. Tomb Raider 6 nutzt CG, laut Dateieigenschaften eine CG-Datei im Tomb Raider-Spiele-Ordner gefunden. Na dann ja fast nochschlimmer, nicht mal CG nutzt der FX5900Ultra etwas, trotzdem fast um die Hälfte langsamer, echt arg.Was hat Nvidia nur da verpfuscht. Und dann wollen sie sich ungeachtet dessen an den Pixelshader 3.0 wagen ? Also ich weis nicht ...

Aber hier gibts vielleicht eine Erklärung dafür :
"Leistungsbetrachtung der CineFX Architektur" :
http://www.3dcenter.de/artikel/cinefx/index4.php

Interesannt das Zitat von 3dcenter :
"Stellen wir nun unseren NV30 seinen Konkurrenten aus dem Hause ATi gegenüber, wird er von der Pro-Takt-Leistung erst einmal überfahren. ATi kommt hier mit 8 Textureinstruktionen und zusätzlichen 8 Arithmetik Operationen angerauscht...Ein nach den Empfehlungen von ATi geschriebener oder mit dem im DX9-SDK enthaltenen Compiler erzeugter 2.0-Pixelshader ist nun leider genau so aufgebaut, das er alle diese Probleme (dort im Artikel) forciert. Solche Shader benutzen immer viele Temp-Register und haben die Textureanweisungen als Block gebündelt. Auch ein 1.4-Pixelshader ist genau nach diesem Prinzip aufgebaut.nVidia wird also sich dieser Probleme annehmen müssen, und zwar besser heute als morgenMicrosoft arbeitet bereits an einem SDK Update, welches eine neue Version des Compilers enthält, der Shader auch so compilieren kann, das sie mit weniger Temp-Register auskommen und die Texturezugriffe immer nur in 2er Blöcken einfügt. Nur wenn die Entwickler 1.4-Pixelshader benutzen oder nur einen 2.0 Shader erzeugen, ist die Aktion von Microsoft zwar ein gut gemeinter Zug, aber für nVidia recht nutzlos. Daher wird nVidia das Problem im Treiber lösen müssen."

Viel Glück Nvidia.
 
Auch die Radeon9800pro könnte vermutlich Pixelshader 3.0 :

"Die Shader Einheit (SmartShader) wurde durch einen so genannten "F-Buffer" ergänzt, der es erlaubt theoretisch unbegrenzt langen Pixel Shader Code auszuführen. In Anspielung auf NVIDIA, die bei der FX durch die erweiterte Programmierbarkeit von "DirectX 9+" sprechen, nannte ATI dies nun äußerst kreativ "DirectX 9++"

Quelle : http://www.de.tomshardware.com/graphic/20030306/radeon9800pro-01.html

Siehe auch :

"New F-buffer technology supports pixel shader programs with unlimited instructions"
Quelle : http://www.ati.com/products/radeon9800/radeon9800pro/specs.html

Wäre allerdings eher langsam weil das in mehreren Durchläufen erfolgen würde.
 
naja, der f-buffer ist zwar nett, aber nur deshalb von PS3.0 zu sprechen, ist wohl nicht wirklich gerechtfertigt - zum ersten ist das ganze wie gesagt eher langsam, da das programm ja nicht unbegrenzt ist, sondern nur das ergebnis in den nächsten pass übernehmen kann ... abgesehen davon ist das echt keins der interessanteren "kern"-features von PS3.0!
und der support ist auch nicht umwerfend, so funktioniert der f-buffer z.B. unter opengl gar nicht, und das wird vermutlich auch so schnell nicht geändert.
 
@butthead

Da die Architektur CPU ähnlich sein muss um PS3.0 Hardwaremäßig zu ermöglichen, daraufhin hat NVIDIA mit der NV3xA hingearbeitet, was auch gelungen ist. Für ATI wär es im Moment mit der R3xxA unmöglich Hardwareseitig PS3.0 zu ermöglichen. Guck nurmal in den Foren von 3DCenter.de oder frag da nach, die bestätigen dir das.

Daraus schließt man:

R3xxA ist gut für PS2.0 und kleiner (PS3.0 kann nur emuliert werden)
NV3xA ist gut für PS3.0 und größer
 
@TheCounter
naja, der R3xx mag für PS3.0 noch nicht geeignet sein, aber nvidia hat beim nv3x noch genauso grosse lücken (kann z.B. floating point textures nur als langsame RECT-textures (keine 2D-oder3D-textures) und ohne blending, im gegensatz zu ATI) - da aber sowohl der nv40 als auch der R420 in wenigen Monaten da sein sollten, seh ich auch keine Veranlassung, Rückschlüsse von der alten nv3x bzw. R3xx-Architektur zu ziehen - umso mehr, als bei ATI zwei verschiedene Teams (die weit voneinander entfernt sitzen) immer abwechselnd die neuen Architekturen entwickeln, die R4xx somit von einem anderen Team entwickelt wird als die R3xx.
Auch wenn nvidia wirklich mit dem nv3x schon PS3.0 könnte, würde es ihnen nicht viel bringen, weil bis das jemand verwendet (und ich wäre vermutlich einer der ersten) und das ganze im Treiber aktiviert ist, ist sicher schon längst der NV40 draussen.
 
@17

Das ändert nichts das mit der NV3xA PS3.0 möglich ist, ATI müsste hier Emulieren, per Software (Hardwareseitig ist es unmöglich).

Für PS3.0 seh ich jedenfalls nen rießen rießen Vorteil bei NVIDIA, das wird denen ihr Gebiet.

Doch wie schon gesagt, im mom nützt es eh nix.
 
@TheCounter
he bedeutet das dann:
R420: komplett neuer, sauschneller chip mit neuen features
nv40: lascher, chip; nv38 mit aktiviertem PS3.0 und leicht erhöhtem takt?
nicht zu ernst nehmen :D

ps: finds schon ein bissi komisch, dass du uns seit 04.04.2003 um 10:08 Uhr damit nervst, dass der nv35 alles weghauen wird, und dann willst du doch auf R420&nv40 warten :D naja, glaub, der alte TheCounter is wieder da ;)


cu
 
Zurück
Oben