Kommentar: Ist CineFX ein Fehlschlag oder gar Fiasko?

 6/6
Carsten Spille
37 Kommentare

Der Geistesblitz "FX5200"

Ausweg aus der Krise oder Krise ohne Ausweg?

Doch zurück zu nVidia. Augenscheinlich überrascht von ATis Produktoffensive im letzten Jahr, machte man sich bei nVidia wohl Gedanken, was dahinter steckt und wie man dem begegnen könnte. Fest steht, dass eine kurzfristige Produktumstellung ausgeschlossen war, da der Kern des nV30 die Basis für einige Ableger auch im Midrange-Bereich sein sollte. Inwieweit die FX5200 langfristig geplant war, lässt sich schwer abschätzen. Meiner Ansicht nach kam sie eher kurzfristig in die Planung, als man sich des R300 und der eigenen Verspätungen und Versäumnissen voll bewusst wurde.

Das Taktratenpotenzial war mit dem nV30 inklusive der berühmt berüchtigten FXFlow-Kühlung weitestgehend ausgeschöpft. Der nV35 brachte den Fortgang von FXFlow hin zu individuelleren Kühlungen der Boardhersteller und die Ausschöpfung der kompletten vorhandenen Leistung. Hier war also nichts mehr zu holen, ohne das Endprodukt wirklich unverschämt zu verteuern. Ein Midrange-Ableger des nV3x war wohl schon geplant und dank der umfangreichen Reduktion an Funktionseinheiten, die der nV31 erfuhr, kam dieser auch relativ problemlos und in für den Retailmarkt ausreichenden Stückzahlen aus der Produktion.

Das allein reichte jedoch nicht. Man musste einen Ansatz finden, ATi zu schlagen. Die einzige wirklich Schwachstelle in deren Produktpalette befand sich im stückzahlen- und damit umsatzträchtigen Low-End-Bereich. Hier bot ATi nur eine Neuauflage der R200-Technik, die sich außer in Nämlichem auch im RV250 wiederfand und nun im RV280 seine dritte Reinkarnation erlebte. War nVidia vor einem Jahr, als kurz vor der GeForce 4 Ti noch die eher einem Hybriden ähnelnde GeForce4 MX gelauncht wurde, als Technologiebremse verschrien, die der DirectX7-Technologie, auf deren Stand sich die MX trotz ihres vielversprechenden Namens noch befand, zu künstlich verlängertem Leben verhalf, so war es nun ATi, die im Low-End-Bereich noch kein Produkt auf DirectX9-Basis anboten. Höchstwahrscheinlich hat auch nVidia dies nicht von langer Hand geplant, aber die aktuelle Situation ließ ihnen keine andere Wahl.

Da TSMCs Fertigungskapazitäten im neuen 0,13µ-Prozess weitestgehend ausgebucht waren und dieser sowieso nicht die für den Massenmarkt erforderlichen Margen und Stückzahlen hätte garantieren können, entschloss man sich zu einem ungewöhnlichen, aber im Nachhinein sehr schlauen Schachzug: Man ließ den nV34 als FX5200 im 0,15µm-Verfahren herstellen.

Zwar senkte dies ein wenig die Marge, aber der Chip war so abgespeckt, dass er mit 45 Millionen Transistoren trotz vollständiger DirectX9-Kompatibilität, geradezu ein Fliegengewicht war, welches sich zudem noch passiv kühlen und auf sehr einfach gehaltenenen PCBs verbauen ließ. Da TSMC den 0,15µm-Prozess zu hoher Vollendung geführt hatte, sind quasi per sofort riesige Mengen des nV34 lieferbar gewesen und überschwemmten den Massen- und OEM-Markt. Hier setzte nVidia auf dieselbe Taktik, wie ATi ein dreiviertel Jahr zuvor: Allein durch schiere so genannte installed user base, also durch vorhandene Produkte beim Kunden, die Spielehersteller dazu zu zwingen, auf ihre Chips Rücksicht zu nehmen. Im Gegensatz zu ATi, die sich erst einen besseren Ruf beim Developer-Support verschaffen mussten und diese Strategie vornehmlich für den Retailmarkt konzipierte, konnte nVidia eine Ebene tiefer ansetzen und verkaufte innerhalb des ersten Quartals mehr DirectX9-kompatible Grafikchips im Low-End Segment, als es ATi im gesamten Jahr zuvor mit all ihren DirectX9-Chips taten.

Dazu startete das "The way it's meant to be played"-Programm, welches mit verstärkter "Unterstützung" der Programmierer den Support der nV3x-Shadereinheiten sicherstellen und eventuell, dank des größeren Funktionsumfanges der nV-Shader, dafür sorgen könnte, dass trotz unterlegener Rohleistung die Shaderprogramme insgesamt gleichschnell ablaufen könnten.

Die Frage jedoch bleibt bestehen, ob man damit nicht den Teufel mit dem Belzebub auszutreiben versucht. Denn genau wie im damaligen Kampf gegen die 3dfx'sche Übermacht schickt sich nVidia nun an, sich selbst dazu zu verdammen, die Eigenheiten ihrer CineFX-Architektur solange durchzuschleppen, bis eine ausreichend potente Ablösung bereitsteht, die auch unter ungünstigen, sprich unoptimierten, Voraussetzungen in der Lage ist, ein Mehr an Leistung zu bringen.

Momentan sieht es jedoch bei allen Spielen, die bisher für die Grafikausgabe die DirectX9-Schnittstelle nutzen, danach aus, als seien diese Maßnahmen noch auf taube Ohren bei den Spieleentwicklern gestoßen. Selbst Spiele, die ursprünglich auf der Xbox, die ja bekanntlich einen nVidia-Chip in sich birgt, entwickelt wurden, laufen auf ATis Flaggschiff zumeist deutlich schneller, als sie es auf der FX5900 Ultra tun.

Es bleibt also noch ein langer Weg für nVidia aus dem Tal der Tränen, in das sie der einst nV30 führte.

Hinweis: Der Inhalt dieses Kommentars gibt die persönliche Meinung des Autors wieder. Diese Meinung wird nicht notwendigerweise von der gesamten Redaktion geteilt.