News Foundry: TSMC zeigt 10-nm-Wafer, Fertigung Ende 2016 angepeilt

TSMC üblich kann man auf das Zeitfenster 2 Jahre draufschlagen.
 
Wenn hier Ende 2016 die Rede ist, gibt es die frühestens im 3. Quartal 2017 auf dem Markt. Also in Worten: Noch mindestens 2 Jahre.
 
Es erinnert mich an das GHz Rennen zwischen Intel und AMD. Bis 3GHz ging es Schlag auf Schlag und man wähnte schon CPUs mit zweistelliger GHz aber dann kam das Ende.

Wenn auch dieses Rennen um die kleinsten Strukturen beendet ist, worauf soll man gespannt warten?
 
PiPaPa schrieb:
Wie soll ein Shrink Performance kosten? Es sei denn du Spieler auf das Hauptproblem bei den immer kleiner werdenden Fertigungsgrößen an, gemeint sind neben der Fertigung(squalität) vorallem die Problematik der Leckströme und der Unterbindung derer.
Soweit ich das verstanden habe, sind die Effekte, die früher für die höhere Performance gesorgt haben, nicht mehr vorhanden oder nicht mehr so dominant. Sieht man schon alleine daran, dass die Taktfrequenz im Prinzip in den letzten Jahren gleich geblieben ist, was ja früher einer der großen Vorteile des Shrinks war. Und es treten negative Effekte auf, wie du schon erwähnt hast.

v_ossi schrieb:
War das nicht schon immer so? Trotzdem hat man bisher immer einen Weg gefunden um 'weiter' zu machen und ich bin ganz optimistisch, dass das auch weiterhin so sein wird. Schließlich steigen nicht nur die Kosten exponentiell, sondern auch das Wissen um die Fertigungsprozesse.

MfG
V_ossi
Es geht definitiv weiter, die Frage ist ja nur wie! :)
 
MoTKaD schrieb:
Die Größe ist ja nicht alles. Früher hat alleine der Schrink noch einen Performancegewinn von ca. 20% gebracht. Bei den zukünftigen Generationen kostet der Schrink Performance, was man erst wieder durch besseres Design usw. reinholen muss. Dazu kommen noch etliche andere Faktoren. Zum Beispiel werden die zukünftigen production lines auch exponentiel teurer, das lässt sich nicht so einfach wieder reinholen. Somit hat TheGreatMM schon Recht mit seiner Aussage.
Ein Shrink alleine bringt erstmal keinen Performance Gewinn(er können sich hier höchstens leicht verkürzte Signallaufzeiten ergeben, deren Vorteil aber eher im Promillebereich liegt) oder Verlust.
Die Vorteile eines Shrinks sind
1.) Stromverbrauch/Abwärme
2.) Geringere Chipgröße

Durch 1.) ergibt sich das man entweder bei gleicher Performance eben weniger Strom verbraucht und somit z.B. kühlere Chips bekommt was Vorteile für den mobilen oder embedded Bereich hat oder man z.B. durch höhere Taktraten bei gleichem Stromverbrauch/Abwärme und damit mehr Leistung liefern könnte.(Hier muss man allerdings beachten das die Leckströme bei kleinerer Fertigung größere Auswirkungen auf die Lebensdauer haben können)
Durch 2.) ergibt sich das man günstiger fertigen kann oder mehr Transistoren dazu packen könnte und wieder bei der alten Größe.

Je nach Einsatzbereich des Chips bringt einem Vorteil 1. oder 2. natürlich einen größeren Vorteil. Meist wird ein Kompromiss aus beiden genutzt, wo eben mehr Transistoren für neue oder erweiterte Recheneinheiten genutzt werden aber nur in dem Umfang der sich noch immer geringer Stromverbrauch die Folge ist.

EDIT:
Wobei sich aber auch durch die geringere Chipgröße neue Limitierungen ergeben können, da die Abwärme nun natürlich über eine kleinere Fläche abgeführt werden muss. Das kann unter Umständen dazu führen, das sich neue bislang nicht dagewesene oder nun erst ins Gewicht fallende Hotspots auftreten welche Änderungen am Chipdesign zur Folge haben könnten.
 
Zuletzt bearbeitet:
Turican76 schrieb:
Ende 2016 ist schon 10nm verfügbar...und dann soll erst im Sommer 14nm möglich sein :lol:

Der 14nm Skylake ist schon ne Weile fertig, sonst wären auf der Computex wohl keine Boards
und fertige Mini PCs mit Skylake gezeigt worden. In 1,5 Jahren 10nm? Die ersten Wafer gibts
schon, Massenproduktion in 1 Jahr plus X, warum auch nicht? Ich halte das für plausibel / machbar.

Folgende Fakten sind mir bekannt: http://www.golem.de/news/fertigungstechnik-der-14-nanometer-schwindel-1502-112524.html
 
Und bitte bei allem ein paar Dinge nicht vergessen.

10nm Gatebreite ist heute kein Maßstab mehr für gute Chips. Es ist auch nicht unbedingt mehr ein Maßstab für Effizienz Wichtiger ist heute wie gut ein Layouter dann auch den Chip integrieren kann um den Vorsprung durch die Auflösung wirklich nutzen zu können. Gelingt dieser Schritt nicht ist die Verkleinerung quasi verpufft ohne wirklichen Nutzen.

Auch werden die Kontrollverfahren in der Produktion immer Aufwendiger. Ich habe selbst vor meinem Wechsel in die IT als Mikrotechnologe in einem deutschen Halbleiterwerk gearbeitet mit Prozessen bis gerade mal 180nm. Da es um Applikationen für große Ströme im KFZ ging war das auch nicht Tragisch. Die Ausbeute der Fabrik bei 150mm Wafern lag bei um die 98%.
Dort konnte man in der Lithographie noch manuell Sichtprüfen und nur teilweise wurde mit AOI Anlagen gearbeitet.
Bei Strukturen bis 10nm wird das bald unmöglich. Denn z.B. Kontaktätzungen und Vias werden dann noch mal kleiner da sie ja nur Teile der Leiterbahnen treffen sollen. Dort mit dem Auge und Mikroskop noch Fehler zu finden geht wenn dann nur noch mit AOI Maschinen. Für Details braucht es meist REM Aufnahmen. Die braucht es bei 180nm schon.

Es kann mir also keiner erzählen das man bei 10nm auf die 300mm Wafer gesehen wirklich hohe Ausbeuten fahren kann. Alleine schon wegen der extrem präzisen Belichtung und der vorhandenen Unebenheiten über den Wafern grenzt das an das Unmögliche.


Es ist also immer die Frage wie die Auftraggeber von TSMC es nutzen werden.
 
Wattwanderer schrieb:
Wenn auch dieses Rennen um die kleinsten Strukturen beendet ist, worauf soll man gespannt warten?

Irgendwas wird als Nachfolger kommen. Demnach keine Evolution, sondern Revolution.
 
@Wattwanderer
Nvidia hat vor kurzen mit den Maxwell gut gezeigt dass die Fertigungsgröße für die Leistung nicht so wichtig ist.
Die Chiparchitektur und die Technik der einzelnen Komponenten (in Chip drinnen) ist entscheidend.

@Candy_Cloud
Die Ausbeute scheint nicht mal so das große Problem zu sein. Das Hauptproblem sind die zu schwachen Laser für die Belichtung. Außerdem können einige Chemikalien nicht mehr für kleinere Strukturen verwendet werden, aber das ist kein Großes Problem
 
Zuletzt bearbeitet:
Nightwind schrieb:
@Wattwanderer
Nvidia hat vor kurzen mit den Maxwell gut gezeigt dass die Fertigungsgröße für die Leistung nicht so wichtig ist.
Die Chiparchitektur und die Technik der einzelnen Komponenten (in Chip drinnen) ist entscheidend.

Auch wenn Deine Kernaussage stimmt, sind das dann doch die sprichwörtlichen Äpfel mit Birnen verglichen.
Obwohl man das Beschneiden eines Chips um die doppelte Genauigkeit schon als Designkniff beschreiben kann.

Zur Thematik:
Soweit ich mich erinnern kann, ist 10nm auch nicht 10 nm.
Für eine GPU oder CPU wird dort ein ganz anderer Prozess angewandt als bei SOC's und anderen low power Chips.
 
Zuletzt bearbeitet:
http://www.golem.de/news/fertigungstechnik-der-14-nanometer-schwindel-1502-112524.html

Der Abstand eines Gates zum nächsten und der Abstand der Interconnects auf Metal-Layer-Ebene sind bei Intels 14-Nanometer-FinFET-Verfahren geringer. Somit ist die Pack-Dichte der Transistoren sowie der ESRAM-Zellen der Caches pro Quadratmillimeter höher, was simplifiziert weniger Leckströme im Prozessor und niedrigere Kosten für Intel bedeuten, da mehr Chips aus einem Wafer gewonnen werden können.

Wobei man die niedrigeren Kosten mit einem Fragezeichen versehen könnte. Was nicht betrachtet wurde ist die Anzahl der Metal-Layers. Intel mußte die Zahl der Metal-Layers im CPU-Prozess von 9 (22nm) auf 13 (14nm) erhöhen. Bei Samsungs 14nm sind es 11 Metal-Layers. Mehr Layers bedeutet nicht nur höhere Kosten sondern auch mehr Vias, was sich wiederum negativ bei der Ausbeute bemerkbar macht.

Gibt es schon Infos wieviele Metal-Layers bei 10nm angepeilt werden?


Nightwind schrieb:
Nvidia hat vor kurzen mit den Maxwell gut gezeigt dass die Fertigungsgröße für die Leistung nicht so wichtig ist.
Die Chiparchitektur und die Technik der einzelnen Komponenten (in Chip drinnen) ist entscheidend.

Wenn man den größten reinen Gaming-Chip der Kepler Generation mit dem größten reinen Gaming-Chip der Maxwell Generation vergleicht, gibt es nichts Überraschendes in Sachen Leistung:

Kepler GK204 in der GTX 770 kommt auf 1536 Cuda-Cores und 3,5 Mrd. Transistoren bei 294mm² Chipfläche.
Maxwell GM200 kommt bei 3072 Cuda-Cores und 8 Mrd. Transistoren bei 601mm² Chipfläche auf die doppelte Leistung.

Was sich hier zeigt ist, dass die Fertigungsgröße wichtig ist. Man braucht die Shrinks um mehr Transistoren und somit mehr Cores unterzubringen sonst gibt es auch nicht großartig mehr Leistung.

---

Zurück zur TSMC 10nm Fertigung für Ende 2016:

Gibt es eigentlich schon Infos zur SRAM Größe?

Achja, bevor sich hier Leute Hoffnung machen, eh GPUs in 10nm gefertigt werden vergeht noch viel, viel Zeit.
 
Hm, jeder der heute mindestens ende 20 ist, wird mir wohl zustimmen, das es gefühlt noch gar nicht so lange her ist, als die GHZ Mauer, etwa um die Jahrtausendwende, geknackt wurde. Wir alle erinnern und doch noch an die Übertaktungsorgien mit dem seeligen Ghz Athlon ;)

Das gute Stück wurde noch in 180nm gefertigt, und hatte popelige 22 Millionen Transistoren.

In 10nm würde man auf der gleichen DIE Fläche wohl grob das hundert-Fache an Transtistoren unter bringen. ...Oder alternativ den Athlon DIE so klein herstellen können, das man ihn kaum noch sieht und mit einer Taschenrechner Batterie betreiben kann.

Verrückte Welt :D;)
 
Wattwanderer schrieb:
Wenn auch dieses Rennen um die kleinsten Strukturen beendet ist, worauf soll man gespannt warten?

SiC könnte nochmal einen Push geben, dadurch dass man wesentlich höhere Temperaturen abführen kann. Steckt aber noch in den Kinderschuhen (2-4" Wafer) und findet aktuell nur für Hochleistungs-Bauteile Verwendung. Das kommt aber alles noch. Wer weiß, was Intel noch so einfällt. :-)
 
Zurück
Oben