News UMC und IBM vereinen Kräfte für 10-nm-Fertigung

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.918
Seit über zehn Jahren forscht IBM zusammen mit anderen Unternehmen und Institutionen der Halbleiterbranche an neuen Technologien zur Herstellung von Mikrochips. Die Zusammenarbeit mit UMC im Rahmen der sogenannten Technology Development Alliance wird für neue Herstellungstechniken vertieft.

Zur News: UMC und IBM vereinen Kräfte für 10-nm-Fertigung
 
ob das gut geht...

Was ist wenn 1-nm erreicht ist? Was kommt dann ^^ und die Kosten steigen dadurch auch...
 
MuckMuck schrieb:
ob das gut geht...

Was ist wenn 1-nm erreicht ist? Was kommt dann ^^ und die Kosten steigen dadurch auch...
Na wenns Technisch möglich wird Pikometer(pm) Strukturbreite ;)
 
Das klemmt aber wohl bald extremst. Atomradien liegen bei ca. 0,03nm bis 0,3nm. Weit entfernt sind wir da nicht mehr.
 
Zuletzt bearbeitet:
anonymous_user schrieb:
Na wenns Technisch möglich wird Pikometer(pm) Strukturbreite ;)
Das Problem ist, dass sich die Materialen in derartig kleinen Bereichen, wo es nur noch um wenige Atome in der Breite geht, anders verhalten als in den "großen" Bereichen, in denen man jetzt noch ist. Allerallerspätestens wenn man bei einem einzigen Atom angekommen ist, wäre dann wirklich Schluss, wobei man dafür wohl sowieso auf andere Methoden (des Prozessoraufbaus) bzw. andere Mechanismen angewiesen wäre. Nebenbei beträgt der Atomradius eines Silizium-Atoms um die 100 pm, mit den heutigen um die 20 nm ist man da nicht mehr "so weit" weg, ist immerhin nur noch das Zweihundertfache. "Bald" wird es wirklich eng (gewissermaßen wörtlich) für die Halbleiterhersteller...
 
UMC ? dachte die wurden von GloFO geschluckt?
 
Die Leckströme sind bei 1nm doch viel zu groß, daher wird es wohl nur bis max 7 nm mit der aktuellen Technik gehen. Danach hofft man ja, dass es mit Quantencomputer weiter geht. Alternativ müsste man sonst von Silizium auf Graphen umstellen, aber das bringt nur kurzfristig etwas. Die Biorechner dümpeln auch noch in den Kinderschuhen rum. Das wird auch noch mind. 20 Jahre dauern, bis dort brauchbare Ergebnisse zu erzielen sind. Wahrscheinlich eher mehr.
 
Knuddelbearli schrieb:
UMC ? dachte die wurden von GloFO geschluckt?
Nö, du meinst Chartered.
Es gab AFAIK dann auch ein Versuch zusätzlich UMC zu kaufen. Aber ganz so notwendig wie Chartered war es auch nicht.
Wobei die drei großen Fabriks-Areale in Amerika, Europa und Asien ausgeklügelter klingt, als wenn man 2 Fabriks-Areale in Asien hat und eventuell keines in Amerika.
 
S.K. schrieb:
Die Leckströme sind bei 1nm doch viel zu groß, daher wird es wohl nur bis max 7 nm mit der aktuellen Technik gehen.

Das Ziel von Intel sind wohl 4nm. Und naja, so lange ist das auch nicht mehr... 14nm kommt nächstes Jahr schon.. schon krass diese Entwicklung :freak:

Edit//
Das hier war ja mal der Plan von Intel:
Intel-Roadmap-4-nm-2022-1251110376.jpg

Stimmt zwar nicht 100%ig überein aber die 4nm werden wohl nicht aus der Luft gegriffen sein.
 
S.K. schrieb:
Die Leckströme sind bei 1nm doch viel zu groß, daher wird es wohl nur bis max 7 nm mit der aktuellen Technik gehen. Danach hofft man ja, dass es mit Quantencomputer weiter geht. Alternativ müsste man sonst von Silizium auf Graphen umstellen, aber das bringt nur kurzfristig etwas.

Dann hört man halt auf zu verkleinern und fängt an zu optimieren.
 
1.) Der nächste Schritt wäre eine wirtschaftliche Methode zu finden, die 3. Dimension zu nutzen. Bisher wird ein Chip immer quasi von oben aufgebaut. Mehrere Layer bedeuten mehrere Arbeitsschritte und somit höhere Kosten. Ähnlich verhält es sich bei RAM, Flash und Festplatten. Ein 3D Datenträger könnte selbst bei nur 1µm Strukturbreite und 10mm Höhe die 5fache Transistoranzahl erreichen, wie heute bei 22nm.

2.) Zusätzlich wäre noch das Problem des hohen Energiebedarfs zu lösen. Dieser sinkt zwar noch pro Transistor etwas, steigt aber pro Fläche extrem an.

3.) Die Quantentrechner haben noch sehr viel Zeit vor sich und es ist bisher überhaupt nicht geklärt, ob diese einen klassischen Ablauf überhaupt beschleunigen können bzw. ob dieser überhaupt umsetzbar ist. Momentan werden unter Laborbedingungen für ein paar ns um die 10 Quanten verschränkt. Bis das Ganze in einem tragbaren Gerät unter normalen Umgebungsbedingungen 5 Jahre lang funktioniert, wird es noch Jahrzehnte dauern. Dazu kommt das Problem, dass zwar so wie ich das verstanden habe eine Menge Simulationen gleichzeitig laufen können, jedoch die reine Schaltgeschwindigkeit nicht wirklich schneller ist bzw. ist man noch gar nicht so weit, dass man dies überhaupt beurteilen kann.
Was in nächster Zeit benötigt wird sind einige schnelle Transistoren mit höherer Schaltgeschwindigkeit, der die Dinge sequentiell berechnet.
 
MuckMuck schrieb:
Was ist wenn 1-nm erreicht ist? Was kommt dann ^^

Momentan gehen die Roadmaps der großen Fertiger grob bis 4nm im Jahr 2022. Dann muss ein anderes Trägermaterial als Silizium ran. "Kurzfristig" z.B. Graphen. Dann kann man noch "in die Höhe" bauen und 3D Chips basteln. Irgendwann nach ~2030 wirds mit heute vorstellbaren Technologien aber tatsächlich eng und etwas ganz neues muss her.

Wenn man überlegt, das der IC dann auch schon 60 Jahre alt sein wird...schon krass -> http://de.wikipedia.org/wiki/Intel_4004
 
Zuletzt bearbeitet:
@andr_gin:
1) Ich weiß nicht, was genau du dir unter 3D-Chips vorstellst. Außer mehrere Schichten übereinander zu stapeln bleibt da kaum was Sinnvolles über, denn wie soll man sowas produzieren, wenn nicht zum Beispiel schichtweise? Das Silizium wieder so hinzuzufügen, dass es auch dreidimensional nutzbar wird (ich meine jetzt eine Art 3D-Druck, nicht einfach nur dreidimensionales Wegätzen), dürfte schwierig werden. Und mehrere Schichten übereinander bedeuten letztendlich eigentlich nur eine vergrößerte Nutzfläche, damit wie du sagtest auch wieder wesentlich mehr Stromverbrauch und vermutlich irgendwann dann auch Probleme bei der Wärmeabfuhr.

3) Anscheinend gibt es sogar schon kommerzielle 512 Qubit-Quantencomputer, "größere" sind in der Mache. (z.B. D-Wave Systems (Wikipedia), ob es da noch andere gibt, weiß ich nicht.) Aber wie du sagtest, ob man die überhaupt für "klassische" Probleme beim Berechnen von Daten nutzen kann bzw. inwieweit, muss sich noch zeigen. Also als Lösung für das Problem, dass man allmählich nicht mehr kleiner kann, sind die (noch) nicht zu betrachten.

Neben einigen möglichen "Optimierungen" in die 3. Dimension bleibt den Halbleiterherstellern wohl irgendwann in ein paar Jahren nichts mehr übrig als eventuell auf andere Materialen zu setzen, die bessere Schalt- und Leiteigenschaften bieten oder mit denen man noch etwas kleiner werden kann.
 
Im Bezug auf die Fertigungsgrößer werden sich die Probleme noch verstärken! Die Leckströhme sind selbst bei 22nm schon riesig!

Wenn man bedenkt, wieviel Hitze z.b. die neuen Intel Haswell produzieren, mag man garnicht an kleinere Fertigungsgrößen denken! Persönlich denke ich, dass ab 14nm die Problemspirale extrem zunehmen wird. Bei Intel hat man die 3D-Transistoren eingeführt.

Ähnlich wird es wohl in Zukunft laufen. Eine "multidimensionale Prozessorarchitektur" wird angestrebt.
-Klingt in ersten Ansatz mächtig, heißt aber nur, dass man die Prozessoren statt bisher flach (X- und Y-Achse) auch in die Tiefe (Z-Achse) bauen wird/muss. Die zukünftigen Prozessoren wären dann dicker(!).

Ich stelle mir das so vor, dass eine Prozessorschicht kommt, wie wir sie heute kennen, darüber eine Kühlschicht mit Gel oder ähnlichem nichtleitendem Material. Danach folgt wieder eine Prozessorschicht usw.
--> Entweder diese Art oder eine alternative mit "verzahnten Strukturen". Das heißt man baut wie Intel 3D-Transistoren und stapelt sie über Kopf in gleicher Ordnung, damit die Lücken besser geschlossen werden können. Gekühlt wäre dann die jeweilige Prozessorschicht gleichzeitig von oben und unten.

In kleineren Fertigungsgrößen könnte das in der Theorie machbar sein. Das ist allerdings alles eine Frage der Kosten und Machbarkeit!

Die größten Leistungssprünge werden aber möglicherweise eher im Softwarebereich liegen. Je besser Mulit-Core-Threading unterstützt wird, desto mehr Performance kann aus den Strukturen herausgeholt werden! Optimierung ist also das Stichwort.
 
Zuletzt bearbeitet:
Ich denke mal wenn Graphen soweit, wie man heute Silizium kennt, erforscht hat, dann braucht man nicht mehr "groß" die Strukturbreite verkleinern. Das beste an dem Stoff ist, das man sich so große Kühlung sparen kann. Denn man hat sogar auch schon einen selbstkühlenden Effekt entdeckt. Aber der größere Vorteil ist das Graphen gegenüber Silizium eine größe Weglänge besitzt und so ein Transitor fast ohne Wärmeentwicklung geschaltet werden kann. Derzeit bekommt man die Leckströme zwar mit Graphen auch noch nicht in den Griff, aber die Zukunft wird zeigen, was möglich sein wird und was nicht.
 
Zurück
Oben