News Besserung für TSMCs 40-nm-Prozess in Sicht?

Das kann ich mir nicht wirklich vorstellen dass Nvidia & Co Wafer bestellen. Zum einen, was machen die damit? Die haben doch kein Backend.
Außerdem wo bleibt bei TSMC dann der Reiz die Yield Rate zu verbessern?
 
@NoD danke, genau so war meine frage gemeint. allerdings denke ich, dass die mindestanforderungen ohnehin höher gesteckt sind, als sie eigentlich sein müssten.
 
20% wenn mann bedenkt was so ein Wafer kostet alter Schwede da dürfte eine GPU schön teuer sein.
 
Die kaputten Chips werden wahrscheinlich einfach wieder eingeschmolzen.
Aber das kostet natürlich trotzdem Zeit und wieder eine Menge Energie wenn wieder von vorne begonnen werden muss.

Aber bei jeder neuen Technik muss gelernt werden wie man eine gute Ausbeutung bekommt.
Wenn TSMC erstmal eine gute Ausbeute hinbekommt werden sie pro Chip mehr verlangen können als für ihre 55 nm Chips.
 
Visualist schrieb:
Och mäno will so gern noch einen 40 NM Chip von dem Gt 200 in diesem Jahr sehen.
Mit GDDR5 und 256 Bit sowie 2GB.
So ein Chip ist bei NV nicht in Planung. Tapeouts hatten nur Mainstream-Chips mit max. 128-Bit-SI und 48 SPs.
Der GT200b deckt das Performance-Segment noch eine ganze Weile ab. Ein Nachfolger kommt höchstwahrscheinlich erst auf GT300-Basis.
 
Lass ihn doch träumen ;)

Naja, dementsprechend werden wohl die Preise gerade im High-End Bereich bei den Next-Gen-Karten anch oben gehen und die Verfügbarkeit wird auch nicht grad der Brüller sein. Vermutlich wird es deswegen dann wohl wieder einen Paper-Launch oder halt einen verspäteten Start geben, wobei ich kaum glaub dass nVidia oder ATI die erste DX11-Karte zurückhalten werden. :(
 
Suxxess schrieb:
Wenn TSMC erstmal eine gute Ausbeute hinbekommt werden sie pro Chip mehr verlangen können als für ihre 55 nm Chips.
Das verstehe ich jetzt nicht. Normalerweise shrinkt man damit die Chips billiger werden, nicht teurer.
 
Critter schrieb:
Das verstehe ich jetzt nicht. Normalerweise shrinkt man damit die Chips billiger werden, nicht teurer.
Ich glaube, er wollte "pro Wafer" schreiben. Pro Chip wird ja normalerweise eh nicht abgerechnet, soweit ich weiß. Der Kunde zahlt immer den ganzen Wafer.
 
Es passen aber auch mehr chips auf einen wafer, wodurch die erbeutete Stückzahl Chips pro Wafer steigt, was wiederrum den Preis der einzelnen Chips drückt. Im Endeffekt eine Win/Win-Situation.
 
Jaood schrieb:
Es passen aber auch mehr chips auf einen wafer, wodurch die erbeutete Stückzahl Chips pro Wafer steigt, was wiederrum den Preis der einzelnen Chips drückt. Im Endeffekt eine Win/Win-Situation.
Logisch. Wirtschaftliche Interessen sind der einzige Antrieb zur Strukturverkleinerung.
 
Ich sehe es jetzt schon, die neue Generation von AMD und Nvidia sehr rar und somit auch am Anfang einen hohen Preis der auch erst langsam fällt.

Mal sehen, vielleicht holl ich mir dann doch noch ein GT200er. ;(
 
Glaub kaum, dass die rar wird.
TSMC wird mit Sicherheit die Yield-Rate noch ordentlich verbessern.
HAt ja noch zeit bis Ende des Jahrs
 
@theorist
Sieht man ja an der GTS250.
Was liegt näher als die Architektur zu verkleinern und die Leistung zu steigern und den Verbrauch zu senken sowie die Yield zu verbessern.
Es ist bekannt das NV zu große Chips baut.
Und erklärt auch die hohen Preise.
Also was liegt nahe um viel Gewinn zu machen ,richtig Gt 200 in 40NM.

Ja ,offiziell gibt es noch nichts da zu, aber wenn man 1 und 1 zusammen zählt kennt man das Ergebnis .
Die Ati Chips passen da glaube ich 3 mal rein auf die Fläche des 55nm GT200.
NV muss sich da hin gehend etwas einfallen lassen.
Weil der Gt 300 scheint ja auch ein Monsterchip zu werden.
Und am meisten Umsatz wird in der 50 bis 200 Euro Klasse verdient.


MFG
 
Zuletzt bearbeitet:
@Visualist: Bei den jetzigen Yieldraten @ TSMC ist ein 470 mm² großer GT200 in 55 nm sicherlich günstiger als ein ungefähr 300 mm² großer GT200 in 40 nm. Selbst der RV740 mit seinen knapp 140 mm² dürfte wegen der miesen Yieldrate teurer sein als der 256 mm² große RV770.
 
Doenner schrieb:
Nein, der GT200 ist deutlich größer als ein RV770.
Letzterer hat eine Die-Fläche von 256mm², der GT200 ist über 400mm² groß.
Der GT200 liegt sogar deutlich darüber, 576 mm². Der GT200b liegt bei etwa 470 mm².
 
Visualist schrieb:
Es ist bekannt das NV zu große Chips baut.
Ist es nicht.
Ob 276mm² (G92b) oder 256mm² (RV770) ist nicht gerade weltbewegend.

RV740 ins Feld zu führen ist unsinnig.
RV740 ist nicht lieferbar - 40nm GT2xx Ableger sind genauso nicht lieferbar
andere 40nm RV7xx Ableger gibt es noch nicht - 40nm GT2xx Ableger gibt es noch nicht


RV740 wir auf dem Papiertiger 4770 verbaut, der fast doppelt so große RV770 wird auf der 4730 verbaut. Wie man in dieser Situation einen kaum lieferbaren RV740 noch als besser dastellen kann ist nicht vorstellbar.
 
das sind aber nur die lowend ableger des g200. diese chips sind klein und weit weniger komplex. das ist eine art "testlauf" für nvidia, die so die erfolge und probleme der fertigung im kleinen testen können.

wer eine gtx285 in 40nm mit dx10.1 erwartet wird enttäuscht werden.
 
Visualist schrieb:
Letzte Woche berichtete Fudzilla dann mehrfach, dass Nvidia eine Kehrtwende vollzogen hätte. In den neuen 40 Nanometer-Chips auf (GT200-Basis )sei Direct X 10.1 nachgerüstet worden, so die Gerüchte Seite.
Hier ein link zum Artikel.
http://www.hardware-infos.com/news.php?news=2998
Auf diese Varianten hab ich dich schon oben hingewiesen.
Es wird drei Chips von Nvidia in 40 nm mit einem an den GT200 angelehnten Shaderclusterdesign geben:
GT218: 24 SPs, 8 TMUs, 64-Bit-SI -> Low-End, IGP-Futter (z.B. Ion-2-Chipsatz)
GT216: 48 SPs, 16 TMUs, 128-Bit-SI -> Mainstream-Chip, platziert sich performancetechnisch zwischen der GeForce-9500- und der GeForce-9600-Reihe.

Und hier noch mit viel Speku:
GT215: 96 SPs, 32 TMUs, wahrscheinlich 128-Bit-SI -> Notebook-"High-End" (evtl. GTS 250M oder ähnliches)
 
Zurück
Oben