News TSMCs 40-nm-Yields weiterhin unter 50 Prozent?

Hm.. da setzt sich TSMC ja in ein Brennnesselbett, wenn sie lügen.
Ich glaube aber nicht, dass die Aussagen vom TSMC´s Management aus der Luft gegriffen waren, schließlich gehts da auch um Geld.
Da kann man sich auch nicht so viel erlauben.
Sollte der Prozess immernoch nicht saloonfähig sein, dann gibts überwiegend ATI Karten statt Nvidiakarten zu kaufen. Nicht zuletzt wegen der fehlenden doppelten Vias und dem viel größeren, komplexeren Chip.
 
Was der TSMC Manager dem gemeinen Volk mitteilt ist doch wuppe.
ATI/Nvidia wissen wie viel TSMC Liefert und was sie kosten, mehr brauchen sie doch nicht.
 
Wann bekommen die es denn endlich gebacken. Die Leute von TSMC versauen den ganzen Grafikkartenmarkt.
 
Und die Werbemaschine läuft weiter ....

Wir produzieren weniger .... liefern die aus, diese verkaufen sich .... also können wir den Preis erhöhen ...

Das ist meine Meinung :-)

Wart ich halt auf meine 5850 ... noch läuft meine 8800 GTS ... was solls :-)
 
das ist doch auch komplett vom jeweiligen chip abhängig. bei einem chip der grösse eines fermi wirds sicher eine höhere ausfallrate geben als bei einer karte ala gt240 oder hd5750 o.ä.

an den niedrigen yields beim fermi ist sicher auch nvidia schuld
 
Heißt für mich nur - dieses Jahr wohl keine neue Grafikkarte!
Ich zahl doch nicht mehr, nur weil das Angebot zu gering ist, dass ich sowas nochmal erleben darf, dachte das hätten wir seit 1989 hinter uns :D
 
nur mal so am rande, bezüglich graka und 3d darstellung. das ist nichts, was die grafikkarte erst noch "lernen" müssten.
man nehmen einfach trackmania und die älteste & schwächste grafikkarte, die das spiel befeuern kann. dazu dann noch eine rot-grün brille und der 3 dimensionale drops ist gelutscht.

auch die geschichte für 3d monitore wird wahrscheinlich kaum ein neues grafikkarten spezifisches feature benötigen. da wird das grafiksignal einfach noch durch einen dsp geschickt, der das umsetzt, soweit nötig. das teil muss noch nicht mal auf der karte selber sein. (schliesslich spielt bei dieser 3d technik der fernseher die vorreiterrolle und da wird die glotze nicht für das 3d neu erfunden, sondern nur entsprechend erweitert.

also bitte nicht 3d fähigkeit / fehlende 3d fähigkeit als feature hinstellen
 
Shurkien schrieb:
...werden die Brillen bestimmt sehr günstig zu haben sein (Ich tipp auf ~15-30€ pro Nase).

Sorry für OT aber musste beim lesen gerade an das hier denken:

naseniy9.jpg


:D
 
Thaquanwyn schrieb:
... ups - dann wird es ja noch komplizierter ... :freak:

Warum es so wenige Chips gibt ist auch etwas kompliziert. Wer genau aufgepasst hat, der versteht warum einige leute wussten das Fermi sich so dermaßen verspäten würde.

Wen es interessiert, der lese das hier einfach mal ;)

Es liegt daran das im Falle des Fermi hier 2 Firmen aufeinandertreffen die beide nicht all zuviel von der Chipherstellung verstehen.

Nvidia und Tsmc.

Nvidia hat sich immer Zeit gelassen um einen kleinen Produktionsprozess anzugehen und Ati immer schon vorlaufen lassen, sollen die das doch machen. Das haben sie auch und mit der Zeit wurden sie wahre Experten darin. Traten Probleme auf wurden die behoben, man hatte halt schon früh Leute die Probleme gesucht, gefunden und gelöst haben. Leute die nicht irgendwelchen theoretischen Eigenschaften eines Produktionsprozessoes blind geglaubt haben.

Nvidia hat sowas nicht.

Tsmc hat vorgaben gemacht wie die Chipdesign beschaffen sein müssen um sie im Endeffekt produzieren zu können. Bei Ati wusste man schon früh das das nicht hinhauen wird, das die Herstellung wegen hoher Ausschussraten an defekten Chips wesentlich teurer wird als es Tsmc versprochen hatte. Außerdem wusste Ati schon seit der Hd2900 das ein vermasselter großer Chip einen fast ruinieren kann. Die HD2900 war ihrer Zeit so weit vorraus das sie im Endeffekt floppte... (die HD2900 war im Prinzip schon fast Dx11 fertig ....)

Bei Ati hat man sich entschieden den Chip zu verkleinern, auch wenn dadurch Funktionen wegfallen würden. Zum Beispiel haben die neuen Chips keinen Sideport mehr. Das war der Datenlink mit dem 2 Gpus auf auf einer karte direkt verbunden werden konnten. Das hat allerdings die maximale Stromaufnahme der 4870 X2 zu hoch getrieben, man konnte es also nicht verwenden. Bei der 5000er Reihe wäre es möglich gewesen, aber man hat lieber viele billige Chips als weniger, die teurer sind und nur einem kleinen Teil der User einen Vorteil bringen.

Man hat sich bei Ati also darauf konzentirert den großen Chip kleiner zu machen und direkt dazu davon kleine Ableger zu planen. (man hat quasi den großen Chip in teilsegmente zerteilt um daraus kleinere Einheiten zu machen, die halt weniger leistung haben.) Warum hat man das direkt gemacht? Man wusste halt das die kleinen Chips keine unlösbaren Probleme machen werden, mit der HD4770 hatte man schon seine Erfahrungen gesammelt.

Ein 40nm Vorläufer von Nvidia mit der gleichen Chipgröße kam erst viel später.

Dazu kam das Ati Angst hatte das die 4000er Serie ein flop wird und sie vor dem aus stehen könnten. Deshalb hat man vieles Neue entwickelt um mehr Spieler zum Kauf zu verleiten, darauf geachtet das bei all den Schwierigkeiten bei der Herstellung genug Chips anfallen und die Kosten nicht explodieren.

Irgendwann war der Chip so klein, das man die Datenleitungen nicht mehr mit dem Chip hätte verbinden können. Der Chip ist so wie er ist ultimativ Kosteneffizent gebaut und nach zig umplanungen und umbauten echt was geworden.

Bei Nvidia hat man keine so große ahnung wie man neue Produktionsprozesse angeht, man hat voll und ganz auf die Angaben von Tsmc vertraut ohne dieses mal genau hinzugucken wie Ati hier arbeitet...
Tsmc ist das eh wurscht, die haben ja auch etliche XBOXen auf dem gewissen, da Microsoft den von Ati entworfenen Chip billiger bauen wollte, das Ergebnis waren Chips die den Hitzetod sterben... Als seriöser Produzent hätte man sagen können, das das wahrscheinlich zu sparsam geplant ist, hat man aber nicht.

Das gleiche ist jetzt bei Fermi passiert, nur das die Chips hier anfangs wohl garnicht zu gebrauchen waren und die, die funktionierten nichtmal ihre Vorgänger hätten schlagen können.

Was konnte Nvidia nun tun? Nunja, das was Ati auch gemacht hat um die 4770 zum laufen zu bekommen. Das Problem dabei ist nur, der Rv740 ist viel kleiner als die Fermis.
Der Chip ist nicht so anfällig für Fehler (die ja quer über einen Wafer auftreten) da er halt kleiner ist und auch "zwischen 2 Fehler passt"
Es gibt dabei 2 Sorten von Fehlern, die einen sind Bereiche die zerstört sind, also Teile des Chips unbrauchbar machen und die andern Fehler die dazu führen das die Chips mit kleinerem Takt betrieben werden müssen. Quasi Kontaktprobleme und Leckströme.

Bei der Größe die ein Fermi hat, kann es sein das auf einen Chip gleich mehrere schwere Fehler kommen und die Chips nichtmal mit teildeaktivierten Einheiten als kleinere Versionen verkauft werden können. Dazu kommen Chips mit den leichten Fehlern. (das der Takt bei den Fermis gesenkt wurde kann auch mit schlechtem Deisgn zusammehängen. Ati hat Leiterbahnen zwischen 2 Ebenen doppelt verbaut.... Nvidia meinte es gäbe da keine Probleme... stimmt auch, bei 400 Mhz Takt ist alles in Butter :lol: )

Selbst wenn Nvidia nun gelernt hat wie man einen Chip designen muss damit man ihn ordentlich in 40 nm bauen kann, ist das zweite Problem das Tsmc es nicht hinbekommt die Herstellung zu verbessern. Mittlerweile sind die dem Größenwahn verfallen und bauen eine neue zusätzliche Fabrik statt mal dafür zu sorgen das die vorhandene besser arbeitet.

Darum wird wohl die nächst kleinere Generation von ATI in Dresden vom Band laufen. Die ehemalige AMD Fabrik in Dresden ist schon zur weltweit besten Chipfabrik gewählt worden da sie eine unglaubliche Produktionsaubeute hat. Daher hat es auch Sinn gemacht das die Araber dort eingestiegen sind, es ist halt nicht irgendeine Fabrik, sondern die Fabrik schlecht hin (gemessen an dem Geld was für Forschung und Entwicklung zur Verfügung steht und dem was am Ende dabei raus kommt) und nun kann dort quasi jeder bestellen... außer Intel und Nvidia vielleicht :D

Bei AMD weiß man das auf die Fabrik verlass ist und auf das was die einem für Vorgaben machen. Und nun stellt euch vor die nächst kleinere Generation von Ati läuft in Dresden vom Band (wenns dann läuft auch in New York) und Nvidia kann mit Tsmc alleine an 32 oder 28 nm basteln..... :lol:

Das wird ja lustig....


[Nochmal zusammengefasst, Nvidia hat nicht das Knowhow der Chipfertigung und weiß nicht wie gut sich das was sie planen produzieren lässt und Tsmc hat es auch nicht so mit der Qualität sondern eher mit der Masse... schieb man vorne genug rein, wird hinten schon genug rauskommen. Nvidia hinkte selbst bei den kleinsten Chips schon Monate hinter Ati hinterher. Das alles zusammen ergibt die Situation die wir jetzt haben]
 
Wattebaellchen schrieb:
....Es liegt daran das im Falle des Fermi hier 2 Firmen aufeinandertreffen die beide nicht all zuviel von der Chipherstellung verstehen.

Bis dahin hab ich gedacht, ohooooo langer Text, was wird wohl bahnbrechendes in diesen Text niedergeschrieben sein ?

Aber es machte sich Ernüchterung breit. Du faselst da irgendwas, das man einfach nicht glauben kann ohne Belege. Mehr wunschdenken und deine eigene "Logik".
 
wattebällchen hat den text von anandtech "geraubt"

edit: "@whoozy"
 
Zuletzt bearbeitet:
@Nick.Name ich wusste auch schon im August das Fermi später kommt, das war ja abzusehen. Nvidia hatte keinen so großen 40 nm Chip im Angebot, das ließ schon tief blicken.

Wenn man die DIE Größen und den Fertigungsprozess vergleicht, kann man gute Rückschlüsse daruf ziehen wie weit der Abstand zwischen den Unternehmen ist.

Anandtech war so freundlich mit seinem meisterhaften Artikel genau das zu bestätigen was ich eh schon wusste und noch mehr Hintergrundinfos mit einzubringen...

Wenn man nun Krampfhaft das netz durchsuchen würde man für mindestens 50% der von mir vorgebrachten Tatsachen Beweise finden, ich bin zu faul dafür^^ ich weiß was ich gelesen habe.

Der G80 hat sich auch verspätet, erinnern sich auch nur noch wenige dran. Genau das gleiche ist jetzt wieder passiert weil nvidia nicht aus diesen Fehlern lernt.
Die Firma wirkt sowieso in höchstem maße arrogant. Wie man monatelang seine Partner und Kunden so verarschen kann werd ich wohl nie verstehen.

@Whoozy
was du zitierst ist aber so wie es ist... Man muss als Designer darauf achten, das das was man designt auch produzierbar ist und das ist hier nicht geschehen. Mag sein das der Fermi auf dem Papier ganz toll ist, er muss es aber auch real sein und da liegt das Problem.

Die Schuld daran tragen sowohl Nvidia wegen dem verkorksten Design und Tsmc wegen der grausigen Chipausbeute wegen massiver Fehler in der Produktion.
 
dir ist schon bewusst das bei TSMC gerade mal 6% der Fertigung auf 40nm Bassiert?
solange die anderen 94% Laufen, sollte es TSMC nicht sonderlich stören.
 
@Wattebaellchen

Schön zu hören das ein außenstehender mehr weiß und Ahnung hat als der gesamte Nvidia-Vorstand deren Ingenieuren.

Als ob du wissen würdest was in den Vertägen zwischen TSMC und Nvidia-Ati steht... *Kopfschüttel*

Alles was Fakt ist, ist das der 40nm Prozess und eben diese Chipgrößen Probleme machen. Nichts anderes!
 
Zuletzt bearbeitet:
Zurück
Oben