Gerücht : DirectX 9.1 für Geforce FX

Wie soll das gehen, ohne Redesign der Hardware?

60% Leistungszuwachs schafft nVidia nichtmal durch eine neue Hardware-Generation.

Vielleicht wid ja alles im Text erklärt, aber franzosenländisch kann ich nicht. ;)
 
Wenn ich es richtig verstanden habe durch neue Shaderkompiler die für die NViadia-Architektur ausgelegt sind. Sollen die aktuellen ja nicht sein.

Aber es ist auch nur ein Gerücht.

Mav
 
Soviel ich weis gibts doch in DX9.1 endlich die PS_2_a Shader, die würden der FX schon nen enormen Performenceschub geben.

Bessere Unterstützung für PS 2.0 in 32 Bit-Genauigkeit. Bis zu 60% mehr Performance.

Kann gut sein, da die FP32 Geschwindigkeit eh arsch lahm is auf der FX. Wichtiger ist da FP24 (AFAIK unterstützt das die FX auch) & FP16.
 
Original erstellt von Bombwurzel
Wie soll das gehen, ohne Redesign der Hardware?

Durch das Anpassen der Software an die Hardware.
Das Prob. von NVIDIA´s Pixelshader ist eben, das man sich nicht an die DX9.0 Spezifikation gehalten hat, sondern dummerweise schon einen Generationsschritt weiter gegangen ist.
Ist ungefähr so, wie damals bei der GF2 - GF3. Unter DX7 ist eben aufgrund des Hw T&L eine GF2 Ultra schneller als eine GF3 classic.;)
 
Ich finde man muss ja auch immer sehen was 60% sind.
Bei Tomb Raider AoD schneiden die NVIDIA Karten ja so schlecht ab, sage jetzt mal bei hohen Einstellungen 15 FPS ( nur mal so was ich gehört habe ), was sind denn da 60 Prozent mehr Leistung!
 
wie wahrscheinlich ist es, dass die Programmierer ihre Spiele auf die Geforce FX anpassen?

Sie sind ziemlich gut mit der Radeon bedient, und nVidia hat nicht mehr den Einfluss, den sie früher hatte.

Ich nehme an die Preise werden wegen bessere Performance einmal mehr in die Höhe schießen.

Wird die Bildqualität auch verbessert, oder bleibt alles beim Alten?

nVidia go go go:schluck:

mfg supersonic
 
Original erstellt von Bombwurzel
60% Leistungszuwachs schafft nVidia nichtmal durch eine neue Hardware-Generation.
Na, beim NV40 erwarte ich shadermäßig gegenüber NV35 mindestens doppelte Leistung.
Original erstellt von GRAKA0815
Durch das Anpassen der Software an die Hardware.
Das Prob. von NVIDIA´s Pixelshader ist eben, das man sich nicht an die DX9.0 Spezifikation gehalten hat, sondern dummerweise schon einen Generationsschritt weiter gegangen ist.
Ist ungefähr so, wie damals bei der GF2 - GF3. Unter DX7 ist eben aufgrund des Hw T&L eine GF2 Ultra schneller als eine GF3 classic.;)
Nee, das halte ich für zu etwas verkürzt ausgedrückt. Nvidia entwarf eine extrem tiefe Pipe für die FXe, die zwar ganz gut Latenzen wegstecken kann, aber die natürlich darauf angewiesen ist, so viele Pixel wie möglich gleichzeitig in der Pipe zu haben. Da das Register-File ziemlich begrenzt ist, können dabei aber nur sehr wenige temporäre Register verwendet werden. Notfalls müssen "Leer-Pixel" durch die Pipe, was die Effizienz natürlich drastisch senkt. Nv hat sich zu sehr auf den professionellen Render-Bereich konzentriert, aus Sicht eines 3D-Spielers weist CineFX durchaus sowas wie "Konstruktionsfehler" auf.
 
Original erstellt von TheShaft
Nein kein FP24 - nur nvidia selbst weiß wieso sie den 16/32Bit scheiß gemacht haben...

Ist FP32 nicht für die PS/VS 3.0 Shader vorgeschrieben bzw. sollte verwendet werden? Oder erst für DX10?

Und jo, hab mich geirrt mit dem FP24, irgendwas war es noch.. ich glaub FX12. Aber egal, die wird man eh vergessen können. Solange die Bildqualität nicht sichtbar leidet (Was ja wohl doch schon der Fall ist) können die soviel optimieren wie se wollen.
 
Original erstellt von aths
aus Sicht eines 3D-Spielers weist CineFX durchaus sowas wie "Konstruktionsfehler" auf.

Kann man so auch nicht direkt sagen. Der Vater des Gedankens dürfte bei Nvidia eher die "an Land gezogenen" Spielehersteller gewesen sein. Die ATI Karten laufen am besten auf ganz normal programmiertes DX9. Dies ist aber nicht das non plus ultra für die Nvidia Karten, weil der PS 2.0+ von Nvidia hier z.T. andere Wege geht. Insofern ein Spiel aber "auch" an die FX-Architektur angepasst ist, läuft es durchaus schneller als eine ATI Karte unter normalen DX9 Bedingungen! Man kann ein Spiel auf NV FX anpassen, nicht aber auf ATI.
Problem bei NV ist nur, dass es bisher keine Spielehersteller gibt, die ihre Spiele an die FX-Architektur angepasst haben (Evtl. ein paar russische Spieleschmiede/ Bald kommt Blitzkrieg2).
Daher glaube ich auch nicht das alleine DX9.1 dieses Manko wieder wett machen wird.
Man wird sehen!
 
Original erstellt von GRAKA0815
Insofern ein Spiel aber "auch" an die FX-Architektur angepasst ist, läuft es durchaus schneller als eine ATI Karte unter normalen DX9 Bedingungen!

Dieser Umstand ist aber sehr selten und ist bis auf weiteres auch eher theoretischer Natur.

Man kann ein Spiel auf NV FX anpassen, nicht aber auf ATI. Problem bei NV ist nur, dass es bisher keine Spielehersteller gibt, die ihre Spiele an die FX-Architektur angepasst haben (Evtl. ein paar russische Spieleschmiede/ Bald kommt Blitzkrieg2).
Daher glaube ich auch nicht das alleine DX9.1 dieses Manko wieder wett machen wird.

Erstens fehlt die Spielunterstützung wie du sagst (und wer macht sich schon freiweillig mehr Arbeit, als nötig?) und des weiteren frag ich mich, was man bei ATI noch "anpassen" soll, wenns doch sowieso gut "normal" funkioniert? ist ungefähr so, wie wenn nVidia mit Handbremse fährt, ATI ohne und bei nVidia müsste man "anpassen", damit die Handbremse gelöst werden kann. ;) Desweiteren: Man kann auf ATI-Shader "optimieren", wenn man breite Quads verwendet, mit denen kommt CineFX schonmal nicht so gut zu recht. Das wär allerdings fies, war aber bisher das Problem. DX9.1 könnte theoretisch den Vorteil mit sich bringen, dass durch neue Register die Perofrmance angehoben werden könnte. Dies kann ma nur begrüßen, denn das nimmt den Fanboys der einzelnen Fraktionen den Wind aus den Segeln. :smokin: Trotzdem müssen wir uns wohl noch gedulden, was uns die Zukunft bringt!
 
Es wird kein DX9 für Geforce geben, das ganze ist ein normaler neuer DX-Release, der halt etwas mehr kann als DX9. Und ist es nicht schön zu sehen, daß NVIDIA so weitsichtig war und Karten produziert, die bereits DX9.1 und angeblich sogar teilweise DX10-Kompatibel sind!
 
Original erstellt von Riptor
(und wer macht sich schon freiweillig mehr Arbeit, als nötig?)

Diejenigen welche Kohle dafür bekommen werden! Und NV wird auch Kohle für solche Entwicklungen zahlen, da bin ich mir 100%ig sicher.

Zudem hatten wir das ja auch zu Voodoo-Zeiten. Da mußten die Games auch eine zusätzlich Glide API haben!
 
Zuletzt bearbeitet:
Original erstellt von Riptor
Desweiteren: Man kann auf ATI-Shader "optimieren", wenn man breite Quads verwendet, mit denen kommt CineFX schonmal nicht so gut zu recht. Das wär allerdings fies, war aber bisher das Problem.

*an Valve denk* :D

Die mit ihrer 5x längeren Optimierungszeit, aber es war wohl eher 5x weniger, denn von den 3128 Shadern (Gezählt vom Source) sind maximal 8 Stück reine PS2.0 Shader. Die anderen hätte man auch auf PS1.1 bzw. PS1.4 Basis machen können, ohne das man einen Unterschied sieht. Aber Valve war da wohl zu bequem oder die 6 Millionen Dollar von ATI waren einfach zu verlockend :)

3120 "überflüssige" Shader.. ohne die würde wohl die FX in HL2 enorm an Speed gewinnen.
 
Um es nochmal klar zu sagen.

Im DX9.0 sind zur 2.0 Shaderprogrammierung ausschliesslich Informationen von ATI in den Compiler eingeflossen, da ATI zu der Zeit die einzigen waren die mit ihren Karten soweit waren. Somit ist jedes Programm automatisch auf ATI optimiert!

Da NVidia nun in ihrer Architektur einen anderen Weg gegangen ist und diese leider nur bedingt kompatibel zu denen von ATI sind kann es durchaus sein, daß es für die FX einen großen Performanceschub gibt, wenn deren Programmiereigenart ebenfalls berücksichtigt wird.

Wer jetzt meint das währe unüblich hat sich getäuscht denn wenn ich mich recht erinnere war es bei DX8.0 zu DX8.1 ähnlich nur eben damals um die ATI nicht mehr zu benachteiligen. Es ist also durchaus als normal anzusehen, daß MS ihr Produkt an den Markt anpasst um aus der jeweiligen Grafikhardware das maximale herauszuholen und den "Schwarzen Peter" an die Software-/Spielehersteller weiterzugeben.
Mit dem Erweiterungen für Nvidia kann der Hersteller seinen Code dann so "optimieren" daß es auf keiner der beiden Karten zu Problemen kommt.
 
Original erstellt von GRAKA0815
Diejenigen welche Kohle dafür bekommen werden! Und NV wird auch Kohle für solche Entwicklungen zahlen, da bin ich mir 100%ig sicher. Zudem hatten wir das ja auch zu Voodoo-Zeiten. Da mußten die Games auch eine zusätzlich Glide API haben!

Stimmt. Wobei man auch bedenken sollte, ob die Spielehersteller nicht auch die Arbeit zu nVidia "schieben" werden und nVidia selbst die Shader auf ihre Hardware "umkonvertieren" muss. Das wird sich in nächster Zeit zeigen. Denn Valve war nicht gerade erfreut darüber, einen qualitativ mindertwertigeren, aber dafür schnelleren Modus für die FX-Karten miteinzubauen...

Original erstellt von TheCounter
Die mit ihrer 5x längeren Optimierungszeit, aber es war wohl eher 5x weniger, denn von den 3128 Shadern (Gezählt vom Source) sind maximal 8 Stück reine PS2.0 Shader. Die anderen hätte man auch auf PS1.1 bzw. PS1.4 Basis machen können, ohne das man einen Unterschied sieht. 3120 "überflüssige" Shader.. ohne die würde wohl die FX in HL2 enorm an Speed gewinnen.

Nun, WENN man schon eine DX9-Karte anbietet, die DX9 unterstützt, warum dieses also nicht gleich unterstützen? Ich mein: nVidia hat nicht erwartet, dass DX9-Hardware so schnell unterstützt werden würde, denn wie du schon sagst, viel wäre auch mit PS1.1, 1.3 oder 1.4 (naja... :D Dat wär kaum besser gewesen :D ;) ) möglich, ohne groß die Qualität zu vermindern. Aber: Es gibt nun eben schon die Hardware und jeder R9700 Pro Käufer von anno Spetember 2002 würde sich verarscht vorkommen, wenn 1 1/2 Jahre später immer noch keine DX9-Anwendungen Gebrauch von der Hardware machen würden. Man kann sagen, dass wäre denen ihr Problem, wie schon die GF3 für reine DX8-Anwendungen überflüssig ist... Nur damals gab es keine direkte Konkurrenz, die auf DX8 gesetzt hat, nun bietet man aber in ALLEN Bereichen DX9-Hardware an (ATI nicht!), dann muss man wohl auch damit rechnen, dass DX9-Shader in jetzt schon erhältlichen und wohl auch in naher Zukunft erscheinenden Spielen genutzt werden. Einen "Dummen" gibt es eben, entweder den User, der sich ne DX9-Karte kauft, die aber nie sinnvoll DX9-tauglich sein wird oder eben denjenigen, der sich ne DX9-Karte kauft, die aber eine andere Konzeption besitzt und somit "Probleme" bekommt, wenn die Software nicht so konzipiert worden ist, dass sie einwandfrei läuft. Im Grunde genommen hat sich aber das durchgesetzt, was es als erstes gab, man hat nicht auf nVidia gewartet, frei nach dem Motto: Wer zu erst kommt, malt zu erst! Klar: Eine FX5200 und auch alles unterhalb einer R9500 Pro ist EIGENTLICH für DX9 zu schwach und jeder weiß, dass hier das Marketing eine große Rolle spielt. Aber man muss eben damit rechnen, dass wenn man die Hardwaregrundlage anbietet, dass diese wohl auch über kurz oder lang genutzt werden wird. ATI hat natürlich alles daran gesetzt, den technologischen Vorsprung, den sie mit dem R300 hatten, auszunutzen, aber kann man ihnen wirklich einen Vorwurf machen, den Vorsprung auszunutzen?
Zumal die Abwärtskompatibilität gewährleistet ist, wer mehr Performance WILL, der greift auch bei den dicken Radeons zu DX8 und verzichtet auf DX9. Jedenfalls wird dies am Anfang möglich sein, PS2.0-Effekte auszulassen, um die Performance zu erhöhen. Allerdings ist es eben derzeit so, dass die Radeons mit der standardtisierten DX9-Form (die derzeit erhältlich ist und an den sich die meisten richten, weil die DX9-Konkurrenz aus dem Hause nVidia auf einen anderen Weg mehr wert gelegt hat) sehr gut klarkommen, welche "Gründe" dies auch haben mag :)...

FAZIT: Man kann es drehen und wenden wie man will, Fakt bleibt doch, dass nVidia sich auf einmal mit der Konkurrenz beschäftigen muss, wenn sie es nicht schaffen, eigene Wege allein durchzusetzen! Schon 3Dfx musste feststellen, dass die an und für sich coole Glide-API nicht massentauglich wurde, das gleiche gilt derzeit für nVidias cg oder deren "Shader-Vorstellungen". Klar: Sie stehen anders da und sind kaum mit 3Dfx zu vergleichen. Aber: SIE müssen wohl oder übel einsehen, dass die Konkurrenz früher mit DX9-Technologie auf dem Markt war (was ja nicht so das Problem ist ;) ) und dass es marketingtechnisch SEHR wichtig ist, auch in diesem Bereich weiter mit der Konkurrenz mitzuhalten (was nVidia ja auch eingesehen hat, der DX9-Wahn ist nicht mehr aufzuhalten, zu mal die eigenen Produkte mit der kompromisslosen DX9-Tauglichkeit beworben werden!). In solchen Fragen gibt es immer einen Verlierer und einen Gewinner, auch wenn beide Hardwaretechniken interessant sind, so wird sich meist doch nur eine bestimmte Technologie durchsetzen. Das natürlich nVidia nicht "geschlagen" ist, sollte klar sein: Sie können immer noch alles drehen und wenden und mit der "DX9-Euphorie" mitschwimmen bzw. Marketing betreiben (es müssen nur in nächster Zeit Anwendungen erscheinen, die auf nVidias DX9-Basis "besser" laufen, als auf den Radeons!), aber eine Situation, wie 2001, wo sind allein diktieren konnten, was sich wie, warum und wann durchsetzt, ist nicht mehr der Fall. Ob diese "Hardware-Bevorzugung" sinnvoll ist oder nicht, mag ich nicht bewerten, aber derzeit ist man von einer einheitlichen Shader-Durchsetzung noch ein ganzes Stück weit entfernt.
 
Original erstellt von Riptor
Aber: Es gibt nun eben schon die Hardware und jeder R9700 Pro Käufer von anno Spetember 2002 würde sich verarscht vorkommen, wenn 1 1/2 Jahre später immer noch keine DX9-Anwendungen Gebrauch von der Hardware machen würden. Man kann sagen, dass wäre denen ihr Problem, wie schon die GF3 für reine DX8-Anwendungen überflüssig ist... Nur damals gab es keine direkte Konkurrenz, die auf DX8 gesetzt hat, nun bietet man aber in ALLEN Bereichen DX9-Hardware an (ATI nicht!), dann muss man wohl auch damit rechnen, dass DX9-Shader in jetzt schon erhältlichen und wohl auch in naher Zukunft erscheinenden Spielen genutzt werden. Einen "Dummen" gibt es eben, entweder den User, der sich ne DX9-Karte kauft, die aber nie sinnvoll DX9-tauglich sein wird oder eben denjenigen, der sich ne DX9-Karte kauft, die aber eine andere Konzeption besitzt und somit "Probleme" bekommt, wenn die Software nicht so konzipiert worden ist, dass sie einwandfrei läuft.

Ganz so dramatisch sehe ich das nicht. Wieviele Spiele haben wir denn heute auf dem Markt die komplett in DX8.x sind? Wir haben viele Spiele die in der Masse noch auf DX7 sind und div. Effekte aus DX8.x nutzen. Nichts anderes werden die kommenden DX9 Spiele sein. Die Masse in (wenn überhaupt) DX8.x und etwas aus DX9. Selbst neuere Spiele auf Basis der Quake3 Engine sind doch nur hier und da ein wenig auf PS2.0 getrimmt worden um noch einige Effekte erhaschen zu können. Ich glaube kaum das Spiele die seit Jahren in der Entwicklung sind nun alle neu kompiliert werden um mehr DX9 Effekte zu erhalten. Ohne großartige Verzögerungen (HL2?) wird das kaum machbar sein.
Genauso sicher bin ich mir auch, dass die bisherigen Benchmarks von kommenden Spielen keinerlei Aussagekraft haben (Doom3 etc.). Kein Spielehersteller kann es sich erlauben die Spiele nur auf ATI-Karten flüssig laufen zu lassen in hohen Detailstufen. Hier wird es entweder Anpassungen oder aber Patches geben.
 
DX9.2

Ich halte das für eine Ente. Die Hardware von nvidia ist nun mal ziemlich veraltet bzgl der Architektur. Da kann man auch mit Treibern kaum noch was machen.
Man darf sich nicht wundern dass die nVidia-Treiber so CPU-lastig sind, da sie das meiste in Software emulieren müssen. Das kostet CPU-Power.

Aber mal ehrlich: wer brauch im Moment PS2 ? HL2 kommt nicht, D3 auch nicht und bis die games da sind, kann ich mir ne neue GraKa ersparen und brauch auch keine aktuelle (auch wenn ich bereits eine ATI9800Pro habe).

Es ist wie damals mit 3dfx: was haben die Schelte bekommen, permanent Abwertungen in allen rewviews, weil die V5 nur 24bit rendern konnte und das annäherdn so gut aussah wie 32bit. Der normale Mensch konnte den Unterschied gar nicht sehen. Ergo: Umsatzeinbußen bis zum Abwinken und der fertige (!) Rampage kann nicht mehr in Produktion gehen und die Firma geht Pleite...

Geschieht doch nVidia ganz recht, dass sie jetzt wegen ihrer PS-performance, die man im Mom zwar auch noch nicht wirklich braucht, aber die jedenfalls Zukunftssicherheit bringt, genausoviel Schelte bekommen und Umsatzeinbußen ohne Ende haben. Schaut Euch mal den nVidia-Kurs an, die Aktien sind auf 1/4 runter die letzten Monate.

Eins ist aber auch klar, wobei ich hier keinen ATI/Nvidia-Streit entfachen will:

KEIN VERNÜNFTIGER MENSCH KANN SICH JETZT NOCH EINE NVIDIA-KARTE KAUFEN, DIE ZWAR IM MOMENT NOCH MITHALTEN KANN, ABER IN EINEM HALBEN JAHR EIN VERALTETES STÜCK IT-RECHNIK DARSTELLT !!!!

Nicht umsonst hat nVidia heute die Preise für alle (!) Karten um 30% gesenkt. Denn es gibt zu viele vernünftige Menschen...

Wie man nVidia-fan sein kann verstehe ich sowieso nicht. Ich kenne auch keine Microsoft-fans...
 
Zurück
Oben