Nvidia mit Fertigungsproblemen beim GT200?

Andreas Frischholz
188 Kommentare

Nvidia konnte zwar einen ordentlichen Start mit der aktuellen GeForce-200-Reihe (ComputerBase-Test) auf Basis des GT200 hinlegen, dennoch scheint man derzeit Probleme zu haben, den Chip in ausreichenden Mengen an die jeweiligen Board-Partner zu liefern.

So erhalten einige Partner derweil keine Chips, weil Nvidia schlicht zu wenig produzieren kann. Und diejenigen, die Chips erhalten, sind unzufrieden mit der Gewinn-Marge aufgrund des hohen Preises eines GT200, der im Rahmen von 100 US-Dollar bis 110 US-Dollar liegen soll. Schuld an der Misere ist laut den Kollegen von NordicHardware die Entscheidung, den Chip mit 1,4 Milliarden Transistoren im 65-nm-Prozess zu fertigen, was zu einer hohen Fehlquote im Herstellungsprozess führt. Vor dem Start wurde mit einer Yield-Rate von etwa 40 Prozent gerechnet, nun soll diese sogar noch darunter liegen.

Eine Verbesserung der Lage verspricht sich Nvidia von dem „GT200b“, der in 55 nm gefertigt wird und sobald wie möglich in Produktion gehen soll. Der GT200b mit einer Strukturbreite von 55 nm wird eine Die-Fläche von etwa 470 mm² veranschlagen, während der im 65-nm-Prozess hergestellte GT200 derzeit 576 mm² misst. Mit der kleineren Fläche bietet ein 300-mm-Wafer demnach Platz für mehr als 120 Chips, wodurch die Yield-Rate zu Gunsten von Nvidia auf bis zu 50 Prozent steigen könnte – obwohl man seitens des Chipentwicklers wohl schon mit einer Ausbeute von über 40 Prozent zufrieden wäre. Alsbald scheint der Umstieg auf den kleineren Fertigungsprozess allerdings nicht möglich zu sein, zumal ein solcher Schritt aufgrund von Fertigungsproblemen mit dem neuen Prozess erfahrungsgemäß kritisch ist.

Weitere Unzufriedenheit bei den Partnern begründet sich offenbar in der Produktpolitik von Nvidia, neue Modelle in kurzen Zeitabständen zu veröffentlichen. Das führt dazu, dass die Preise der alten Modelle fallen und die Partner mit diesen weniger Umsatz einfahren. All' das könnte eine mögliche Ursache dafür sein, weswegen langjährige Exklusivpartner wie etwa Gainward nun auch Karten von AMD ins Portfolio aufnehmen. Hinzu kommt, dass Nvidia derzeit in den USA testet, mit der Unilateral Minimum Advertised Price Policy (UMAP) Händlern ein Preisminimum für Produkte des Chipproduzenten vorzuschreiben – ein Vorgehen, das erwartungsgemäß wenig Gegenliebe hervorruft.

  188 Kommentare
Themen:
  • Andreas Frischholz E-Mail
    … ist Politikwissenschaftler und berichtet seit 2004 über Netzpolitik, Tech-Ökonomie und den digitalen Wandel der Gesellschaft.
Quelle: NordicHardware

Ergänzungen aus der Community

  • Krautmaster 01.07.2008 09:03
    Nvidias Vorteil ist die bessere Auslasung des Chips durch 1D Shader, während AMD mit 5D Shadern fährt die oft nicht voll ausgelastet sind. Deshalb ist auch die theoretische Leitung so brachial hoch. Auf den Bildschirm sieht man davon jedoch nur die eigentliche Teilauslastung.
    Vorteil der 5 D Shader ist jedoch dass sie weit weniger Transitoren / Fläche benötigen als 5 1D Shader.
    Wie ich finde liegt der Flaschenhals bei AMD immernoch in der geringeren Textur Leistung. AMD muss es gelingen die 5 D Shader optimal auszulasten, ich denke genau deshalb sind hier größere Leistungssteigerungen durch Treiber möglich als dies bei Nvidia der Fall ist. Da jedoch beide Architekturen in ihrer Art schon länger auf dem Markt sind behaupte ich das der Feinschliff der Treiber keine riesen Leistung mehr bescheren wird und wir relativ konstant bleibende Leistung sehen. Hauptsächlich Crossfire und SLI werden von den Treibern porfitieren. Weniger die Singelchip Leistung.

    Welcher der beiden Herrsteller die bessere / effizientere Architektur hat lässt sich schwer sagen. AMD hat aus dem R600 gelernt, ohne Frage. Im grunde ist es jedoch immernoch das selbe System. Der G92b in 55nm zeigt jedoch auch dass Nvidia einen günstigen, sogar noch etwas kleineren Chip als den R770 besitzt welcher noch genug Taktreserven besitzt um die Stirn zu bieten. Und grad unter Last verbrauchen Nvidias gut ausgelasteten wenigen 1D Shader weniger Saft als eine Masse 5D Shader die gut ausgelastet sind. Zumindest hab ich den Eindruck =)
  • NetSoerfer 01.07.2008 09:46
    Nvidia scheint seine Marktmacht recht optimistisch einzuschätzen zur Zeit.

    Nach dem starken Comeback, das ATI mit dem RV770 gezeigt hat, bleibt aber abzuwarten, ob die Boardhersteller sich Nvidias Produktpolitik noch lange gefallen lassen. Die ständigen Facelifts an der Produktpalette sorgen dafür, dass die Partner immer wieder Altbestände mit niedrigen Gewinnmargen verkaufen müssen, und durch die aktuell extrem geringe Yield-Rate sind die Chips zu teuer.

    Mit der Unilateral Minimum Advertised Price Policy verlangt Nvidia übrigens keinen minimalen Verkaufspreis, sondern einen minimalen Werbepreis. Eine Grafikkarte mit einem bestimmten Chip darf also in der Shop-Übersicht nicht mehr für weniger als x US-$ beworben werden; was sie letztendlich nach Abzug von Mail-In-Rebates und ähnlichen Abschlägen kostet, bleibt aber dem Anbieter/Hersteller überlassen. (Quelle: HardOCP)

    Auch wenn man "seitens des Chipentwicklers wohl schon mit einer Ausbeute von über 40 Prozent zufrieden wäre", sind die Chips auch dann noch zu teuer, und wenn ATI einen Highend- (nicht Enthusiast!) Chip mit besserem Preis-Leistungs-Verhältnis anbietet, muss man sich fragen, wie viel Sinn eine exklusive Partnerschaft mit Nvidia zur Zeit macht.

    Der Kunde jedenfalls kann nur davon profitieren, was sich am Grafikkartenmarkt derzeit abspielt. Die Entwicklung findet in verschiedenen Richtungen statt (massive Rechenleistung pro Kern bei Nvidia, Parallelität bei ATI), es gibt hohen Innovationsdruck bei den Chipherstellern und hohen Preisdruck bei den Partnern, das bedeutet in letzter Konsequenz schnelle Karten für wenig Geld. Gut gemacht, ATI, wurde auch Zeit!
  • Niygo 01.07.2008 11:01
    Für ATi ist die Ausgangslage das Beste, was ihnen passieren konnte. Sie können nun in ruhe weitere Kracher auf den Marktbringen und nVidia muss noch an ihrem Highend Chip knabbern, um ihn endlich in 55nm produzieren zu können. Also können die sich erstmal nicht auf Midrange konzentrieren. Besser kann es eig nicht für ATi im Moment laufen. Chance nutzen ist angesagt. ;-)

    Trotzdem macht nVidia immernoch massig Gewinn mit dem g92 respektive des g92b. Gerade weil die ganzen Preise für die 8800Reihe und 9800 purzeln werden. Also Verluste sehe ich erstmal nicht. Des weiteren würden all jene, die jetzt über nV meckern, ihre Klappe halten, wenn die Yieldrate beim neuen Chip über 50% läge.
    Im großen und ganzen kann man sagen, dass die neue Ausgangsposition vielversprechend für den Konsumenten ist. Denn eines ist klar, passiert bei nV nichts großartiges, wird der GT200 zum Ladenhüter. Im Prinzip müsste nVidia gucken, dass sie das Ding schon jetzt vom Preis her senken um ATi einzuheizen. Denn wenn die gtx 260 in dem preislichen Rahmen der neuen hd4870 liegt, werden wohl viele eher zur nV greifen, aufgrund der vorherigen Jahre.

    Da spielt der Stromverbrauch eher eine untergeordnete Rolle. Auch wenn viele von euch das jetzt kritisieren. Aber wer sagt ich achte auf den Stromverbrauch, der hätte schon vor 8 Jahren sagen müssen, mir reichts, da mach ich nicht mit. Von daher gilt bei mir nicht die Aussage mit dem Stromverbrauch. Ergo -> kein Argument. Das heißt jetzt aber nicht, das ich das nicht gut finde, das ATi eine Karte auf den Markt gebracht hat, die Stromsparender ist als ihre Widersacher und Vorgänger!!!

    Zudem finde ich es eig beachtlich, wenn die Aussagen des CEO´s von nV stimmen, das Sie überhaupt auf den neuen Chip von ATi reagiert haben, anstatt in aller Ruhe den GT200 fertig zu entwickeln. :headshot:
  • castlestabler 01.07.2008 11:47
    ATI hat halt seine Prioritäten anders gelegt, sie geben das Geld nicht für den Chip selber aus, sondern für das ganze Umfeld.
    55nm kostet sie halt bei TSMC ein wenig mehr und der Exklusivvertrag bei Infineon für DDR5 wird sie auch etwas gekostet haben.
    Am Ende haben sie halt das bessere P/L-Verhältnis und bekommen einen Gewinn über die Stückzahlen.

    Nvidia wollte nur die beste Single-Grafikkarte, die machbar ist und haben die GTX280 entwickelt, mit all ihren Nachteilen.
    Vorteile hat Nvidia mit diesem Chip, aber weiterhin, die Entwicklungskosten waren gering, das es einfach ein erweitertes G80-Design ist und sie nichts an ihrer Treiberprogrammierung ändern mussten.
    Die Kosten sind halt einzig und alleine beim teuren Chip zu suchen, die unvermeidbar sind, aber als P/L-Sieger war der Chip nie gedacht und dafür reicht auch der billigere 65nm Prozess bei TSMC.

    Sobald TSMC seine Kapazität an 65nm Strassen erweitert hat und genügend Wafer herstellen kann, lohnt es sich auch für Nvidia. Der grosse Wurf wird der 55nm Prozess für Nvidia aber auch nicht, dazu ist die Fertigung bei TSMC zu wenig spezialisiert und nur die Chips pro Wafer können gesteigert werden.