Du verwendest einen veralteten Browser. Dieser kann eventuell diese oder andere Webseiten nicht richtig darstellen. Du solltest deinen Browser aktualisieren oder einen alternativen Browser verwenden.
Es ist ein offenes Geheimnis, dass TSMCs 40-nm-Prozess derzeit nicht den Erwartungen entspricht. Darunter leiden nicht nur die Next-Gen-GPUs von ATi und Nvidia (sowohl der RV870 als auch der GT300 nutzen 40 nm bei TSMC), sondern ebenfalls die Radeon HD 4770, die man als ATis Probelauf für den RV870 ansehen kann.
20%, endlich mal eine Zahl. Rechnen wir mal hoch: GT300 ca. 500mm², das ist mehr als das 3-fache. Bei direkter Skalierung haben wir dann ne Ausbeute von 0.2^3, weniger als 1%.
Besserung!=Lösung. Falls die Rate sich nur bessert hat ATI mit den kleineren Chips zum Start der nächsten Generation wirklich alle Trümpfe in der Hand.
Autsch! Das ist wirklich bitter. Einer, ich schätze mal TMSC,
wird da mächtig Miese einfahren. Schließlich wird eine
RV740 sehr günstig verkauft, dann nur jede fünfte.
Es wird schwer die Herstellungskosten eines 300mm
Wafers so auch nur heraus zu holen.
Ich hoffe mal für alle Beteiligten, dass das Problem gelöst wird.
wobei man die yieldraten für ati und nvidia nicht einfach über einen kamm scheeren darf. die yields für den g200 (55nm) waren auch bedeutend schlechter als für den rv770 (55nm). das thema ist komplexer, als sich das viele hier vorstellen. es gibt z b auch für 40nm verschiedene fertigungsmethoden. so kann rein theoretisch die yieldrate für den g300 auch bei 80% liegen.
allerdings denke ich nicht, dass die yields der nvidia-waver besser ausfallen, da nvidia ja den launch des g300 schon nach hinten verschoben hat, was wohl auf probleme hindeutet.
Wer bezahlt eigentlich die kaputten Chips und was geschieht damit? Muss ATI/AMD dafür haften, oder nimmt TSMC das auf die eigene Kappe, weil die ihre 40 nm Technologie den Kunden anbieten, diese das annehmen, aber TSMC nicht die hohe Qualität liefert?
Ich denke mal der Produzent erwartet eine Gewisse Yeald-Ratte und verlangt einen Preis dafür, da sind die erwartet Kaputen dann auch im Preis enthalten. Hat sich der Produzent verkalkuliert, müsste der die restlichen Kaputten auf die eigene Kappe nehmen. Genau so natürlich auch umgekehrt. Bei einer unerwartet guten Yeald-Ratte müsste der Produzent mehr Gewinn einfahren...
Werden eigentlich die Wafer auch schon bei TSMC zugeschnitten oder geschieht das dann erst bei ATI, Nvidia oder den anderen Kunden? Oder werden die ganzen Wafer an die Kunden geliefert?
Ich kenn mich damit zwar nicht so gut aus, aber 20% sind doch wenig.
Wer bezahlt eigentlich die kaputten Chips und was geschieht damit? Muss ATI/AMD dafür haften, oder nimmt TSMC das auf die eigene Kappe, weil die ihre 40 nm Technologie den Kunden anbieten, diese das annehmen, aber TSMC nicht die hohe Qualität liefert?
ATi ist es egal wieviele Chips auf einem DIE funktionieren, die bestellen einfach eine Menge.
TMSC hat dafür wohl eine interne Kalkulation aufgestellt, z.b. 40% funktionierende Chips beim start und Pro Monat steigern sie sich um 5% und dann entsprechende Preise angeboten.
Bei TMSC müssen jetzt wohl rund um die Uhr die Wafer laufen um die verlangten Chips für ATi herzustellen - wäre interessant zu wissen, ob es da auch Konventionalstrafen gibt, wenn sie unter der vertraglich festgelegten Chipmenge bleiben.
wobei man die yieldraten für ati und nvidia nicht einfach über einen kamm scheeren darf. die yields für den g200 (55nm) waren auch bedeutend schlechter als für den rv770 (55nm).
Wofür aber auch die höhere Größe wohl ein wichtige Rolle spielt.
Die Rechnung von Killermücke ist garnicht mal so aus der Luft gegriffen.
Muss beim RV740 nur die Fläche von einem RV740 (logisch, wa? ) fehlerfrei produziert werden, sind es bei einem 3x so großen Chip quasi 3 RV740, die hintereinander fehlerfrei sein müssen.
Liegt die Chance für einen fehlerfreien bei 20%, sind es 20% * 20% * 20% = 0,8%
Man geht natürlich davon aus, dass Fehler immer gleich häufig auftreten, egal was produziert wird. Das ist natürlich nicht der Fall. Aber da man wohl nichts genaueres weiß, ist das die beste Annäherung...
Also besser ausfallen wirds beim G300 also nicht, eher deutlich schlechter.
Wer das zahlt, wäre aber wirklich interessant zu wissen.
Autsch, da kann man nur die Daumen drücken, dass sie die Kuh schnellstmöglich vom Eis bekommen.
An diesen Zahlen kann man sehen, wie schwierig es ist, in immer kleineren Zeitabständen immer kleinere Strukturen zu liefern.
Hier auf Arbeit haben wir auch mit immer kürzer werdenden Produktzyklen zu kämpfen.
Yield beschreibt nur die Ausbaute, also Verhältnis funktionstüchtiger zu fehlerhaften Chips.
Ich nehme an du wolltest fragen ob es sich auf die Chipqualität auswirkt.
Gute Frage ich würde fast denken ja.
Wenn man davon ausgeht dass für einen funktionierenden Chip eine gewisse mindestqualität bei der Fertigung nötig ist dann würde es ja bei einer sehr niedrigen Yield bedeuten dass ein recht großer anteil der Chips nur ganz knapp die Mindestanforderungen erfüllt während bei einer 90% Yield wohl viele Chips deutlich über den Kriterien liegen.
Das könnte sich dann letztenendes also auf die durchschnittliche Qualität eines Chips auswirken - insbesondere beim Taktpotential, langlebigkeit ist ja eigentlich eh kein GPU Problem und beim Stromverbrauch nehme ich nicht an dass es da große Schwankungen gibt.
Aber das ist nun mal reine Spekulation meinerseits, vielleicht weiß ja jmd hier noch mehr zu dem Thema.
Man bestellt jedoch keine feste Anzahl an Chips, sondern Wafer.
So gibt es ab und zu mal Meldungen, das MS z.B. bei IBM 30.000 Wafer bestellt...(360...)
Bei so schlechten yield Rates jedoch, schätze ich das AMD das billiger bekommt, oder Ausgleicheswafer, da wie einer schon sagte, die ne Kalkulation über 40% Yield Rate bekommen, und wenn die dann unter 20% liegt ist dann das Problem vom TSMC.