Kommentar: Ist CineFX ein Fehlschlag oder gar Fiasko?

 2/6
Carsten Spille
37 Kommentare

Die Anfänge...

Goldene Zeiten

nVidia tat sich bekanntlich, wohl oder übel durch die Glide-Dominanz der 3dfx-Chips gezwungen, schon seit den Zeiten der TNT, spätestens aber seit den GeForce-Chips, auf dem Gebiet des Developer-Supports ziemlich hervor.

Es wurden Guidelines geschrieben, Toolkits herausgegeben und sogar der eine oder andere nV-Mitarbeiter soll zu diversen Hausbesuchen aufgebrochen sein. Das Ergebnis war und ist, dass die weitaus meisten Spiele auf nVidia-Hardware gut und meist sogar besser bzw. fehlerfreier als auf der der Konkurrenz liefen. Bis hin zur GeForce4 funktionierte das alles ganz wunderbar - man kam, inklusive der durch verfeinerte Produktionsprozesse möglichen Taktsteigerungen, ziemlich lange mit den eigenen Grundlagen (den sagenumwobenen Register Combiners) aus und erweiterte hier eine Einheit oder erhöhte dort ein wenig die Parallelität.

Mit dem nV30 sollte aber nun ein deutlich erweitertes Design auf den Markt geworfen werden. Dem Marketing glaubend, würde es der Meilenstein in der Geschichte der 3D-Grafik.

Leider schien sich relativ frühzeitig herauszukristallisieren, dass man nicht so einfach alle althergebrachten Einheiten über Bord werfen und Kraft der CineFX-Engine einfach emulieren konnte, ohne dabei entscheidend an Geschwindigkeit zu verlieren. Eine Analogie zur ehemals marktbeherrschenden Firma 3dfx, von nVidia zwischenzeitlich aufgekauft, drängt sich dem interessierten Leser auf.

... vom Ende

Developer Support: Vom Segen zum Fluch

Hier kam meiner Meinung nach der erste, entscheidende Einschnitt, der das erste Re-Design des nV30 nötig machte: Anstelle von echten acht Pipelines (oder zwei Pixelprozessoren), konnte man unter den Gegebenheiten nur einen neuen Shadercore einbauen. Den Rest der zur Verfügung stehenden Transistoren im neuen Design brauchte man für Register Combiner usw., so dass auch die aktuellen Spiele in gewohnter Manier laufen, da selbst zwei der neuen Pixelprozessoren bei der geplanten Taktrate von etwa 400MHz nicht schnell genug gewesen wären, die "veralteten" GeForce 4 Ti in für sie hochoptimierten Spielen und Benchmarks auszustechen.

Hierbei entdeckte man bzw. es wurde einem schmerzlich bewusst, wie sehr die CineFX-Engine auf hochoptimierte Software angewiesen war. Meiner Schätzung nach passierte das etwa um die Jahreswende 2001/2002, zu der Zeit also, als auch erste Vorboten der cg-Shadersprache auftauchten, die aus der gewonnenen Erkenntnis, von optimaler Software abhängig zu sein, auf den Markt geworfen wurde.

Das Redesign des nV30 brachte also nun die neue CineFX-Engine in Verbindung mit den althergebrachten Register Combiners, die nun, inklusive der erhöhten Taktrate in der Lage waren, mindestens das takt-normalisierte Level der GeForce 4 Ti zu erreichen.

Nun kam das zweite, gravierendere Problem. Während der Anpassung der Produktionsmasken beim Herstellungspartner TSMC kam es zu Schwierigkeiten mit dem low-k Kupferverfahren des in dieser Größenordnung und Komplexität bei TSMC zuvor nicht vorhandenen 0,13µm Prozesses. Man sah, dass sich der Chip in der geplanten Form (meiner Meinung nach schon mit der heute als CineFX-II vermarkteten nV35-Pixelshadereinheit) nicht planmäßig und rentabel herstellen würde lassen. Man musste also einen weiteren Respin durchführen.